Vídeos criados com IA imitam estética de telejornais para enganar usuários no TikTok

Compartilhe

Sentado atrás da bancada de um telejornal, um suposto apresentador de terno e gravata noticia falsas mudanças na concessão de benefícios sociais, como a possibilidade de aposentadoria por invalidez devido ao uso de medicamentos. Ao fim da notícia, ele pede que o usuário clique nos botões ao lado do vídeo e curta e compartilhe o conteúdo.

Gravações desse tipo, que se apropriam de elementos do jornalismo televisivo para enganar usuários, têm se espalhado pelo TikTok. Um levantamento do Aos Fatos encontrou 15 vídeos similares publicados na plataforma, que, juntos, somam cerca de 13 milhões de visualizações entre dezembro de 2025 e fevereiro deste ano.

Ao analisar esses materiais, foram identificadas três formas principais de desinformar: divulgação de notícias inventadas; promessas de revelações ou anúncios importantes para fisgar a atenção de usuários e engajar; distorção de informações ou omissão de contextos relevantes.

Parte dos vídeos traz indicações de que o conteúdo foi gerado por inteligência artificial, seja por meio de hashtags ou por classificação feita pelos próprios perfis que publicam as peças.

Em outros, porém, não há qualquer tipo de marcação. As regras do TikTok determinam que conteúdos gerados ou significativamente alterados por IA sejam identificados de forma clara, justamente para evitar induzir o usuário ao erro. Após Aos Fatos questionar a empresa sobre os vídeos, todos saíram do ar.

Desinformação flagrante

Em um primeiro grupo, estão vídeos que simulam telejornais para divulgar “notícias” sem qualquer lastro em fatos ou registros oficiais.

Aos Fatos já desmentiu, por exemplo, publicações alegando que os agressores de Orelha, cão comunitário que vivia em Florianópolis (SC), haviam sido identificados e seriam julgados por meio de júri popular.

Em outros vídeos sobre o mesmo caso, os supostos apresentadores afirmam que homens armados teriam cercado os suspeitos de praticar a agressão, e que, após isso, eles não teriam sido mais vistos. Não há qualquer registro do episódio na imprensa ou nos canais da Polícia Civil de Santa Catarina.

Imagem dividida em duas partes horizontais. Na parte superior, há uma imagem de câmera de segurança mostrando uma rua vista de cima e em ângulo inclinado. Vários carros estão parados ou alinhados próximos ao meio-fio, incluindo veículos nas cores preta, prata e branca. Um carro preto aparece mais próximo da câmera, com a porta aberta, e uma pessoa está parcialmente visível ao lado desse veículo. Mais à frente, outro carro está parado e uma pessoa aparece de pé próxima a ele, na pista. A calçada de pedras aparece à esquerda da imagem e a rua ocupa a maior parte do enquadramento. Na parte inferior da imagem, há um estúdio de telejornal. Uma apresentadora aparece do busto para cima, usando blazer bege sobre uma blusa clara, com cabelo castanho na altura dos ombros. Ao fundo, há um painel azul com o texto ‘Jornal da Tarde Florianópolis’. Acima da apresentadora, uma faixa vermelha atravessa a tela com a palavra ‘NOTÍCIAS’ repetida em letras brancas.
Reportagem gerada por IA utiliza imagens de um sequestro ocorrido em fevereiro de 2025 no Rio como se tivesse relação com caso do cão Orelha (Reprodução/TikTok)

Há ainda perfis dedicados a apresentar notícias falsas com teor sensacionalista ou violento. Um deles publicou vídeos que somaram quase 8 milhões de visualizações e afirmavam:

  • que um menino autista teria sido morto por um funcionário de uma escola de educação infantil por se recusar a dormir;
  • que uma criança teria convulsionado e entrado em coma após passar muitas horas jogando Roblox;
  • e que uma suposta empresária em São Paulo teria morrido após usar canetas emagrecedoras.
Imagem em formato horizontal composta por três quadros lado a lado, com elementos de telejornal na parte inferior. No quadro da esquerda, há uma criança pequena deitada de lado no chão, usando camiseta azul e calça azul clara com estampas, com o corpo parcialmente fora do enquadramento. No canto superior esquerdo desse quadro, há um balão de texto que diz: ‘Um menino autista de três anos entrou vivo em uma escola de São Paulo mas o menino não havia acordado depois do horário de descanso’. Na parte inferior desse quadro aparece o rosto de uma apresentadora de telejornal, do busto para cima, com cabelo escuro na altura dos ombros, usando roupa clara. No quadro central, há uma criança pequena deitada de lado sobre um colchonete azul, coberta parcialmente por um cobertor colorido, com a cabeça apoiada em um travesseiro. Acima dessa imagem, há uma foto menor de outra criança em pé, usando camiseta azul com desenhos coloridos. Na parte inferior do quadro central, aparece novamente a mesma apresentadora de telejornal. No quadro da direita, há uma mulher agachada abraçando uma criança pequena que usa mochila rosa, em um ambiente interno com piso claro e pessoas em pé ao fundo. Na parte inferior desse quadro, aparece novamente a apresentadora de telejornal, com a mesma roupa e enquadramento semelhante aos outros quadros. O fundo geral da montagem é azul escuro, remetendo a um cenário de telejornal.
Na peça sobre o aluno autista, surgem ao menos três crianças diferentes ao longo da reportagem; também não há informações sobre local e idade (Reprodução/TikTok)

Em todos os casos, os vídeos não apresentam informações verificáveis sobre vítimas ou locais, e não há qualquer registro das situações citadas na imprensa. As imagens usadas variam entre gravações também geradas por inteligência artificial ou registros reais, mas fora de contexto.

Armadilhas

Outro padrão envolve o uso de telejornais fictícios como isca de engajamento — estratégia que estimula usuários a curtir, comentar ou compartilhar o conteúdo para impulsionar seu alcance nos algoritmos da plataforma.

Em uma das peças, uma suposta apresentadora afirma que Lula (PT) teria um recado “urgente”. Na sequência, surge um vídeo do presidente gerado por IA no qual ele apenas pede que as pessoas curtam e comentem a publicação.

Imagem em formato vertical dividida em duas partes. Na parte superior, há uma apresentadora de telejornal enquadrada do busto para cima, com cabelo loiro na altura dos ombros, usando blusa branca de mangas curtas com recortes nos ombros e um microfone preso à roupa. O fundo é azul, com elementos gráficos e letras grandes desfocadas. Abaixo dela, atravessando a imagem, há uma faixa vermelha com texto que diz: ‘URGENTE!!! URGENTE’. Na parte inferior, aparece o presidente Lula — homem idoso enquadrado do peito para cima, com cabelos grisalhos, barba branca e bigode, vestindo paletó azul e camisa clara. O fundo atrás dele mostra um mapa em tons de verde e azul, com a palavra BRASIL parcialmente visível. Sobre essa parte inferior, há textos sobrepostos, incluindo hashtags como #lula #lula2022 #lula2026.
Reportagem gerada por IA apresenta vídeo falso do presidente pedindo por curtidas e comentários (Reprodução/TikTok)

Em outro exemplo, o espectador é convidado a participar de uma pesquisa que questiona se Lula deveria concorrer às eleições de 2026. Como forma de resposta, são indicados os botões de engajamento do TikTok.

Conteúdos descontextualizados

Há vídeos, porém, que se enquadram em um terceiro padrão: peças enganosas apresentam uma informação falsa no início e só introduzem nuances ou correções nos segundos finais — quando o espectador possivelmente já passou para o vídeo seguinte.

Recentemente, Aos Fatos desmentiu posts deste tipo que afirmavam que teria sido aprovado e estaria aguardando sanção presidencial um projeto que impediria saques em dinheiro do Bolsa Família.

As gravações começam com a apresentadora afirmando que “quem recebe Bolsa Família não vai mais poder sacar o dinheiro”, pedindo que o usuário permaneça no vídeo para entender melhor. Apenas no final, de forma rápida, é informado que se trata de um projeto em tramitação, e não de uma lei aprovada.

Imagem em formato vertical que simula um cenário de telejornal. No centro, há uma mulher de pele morena, com cabelos lisos e escuros na altura dos ombros, usando uma blusa azul de mangas compridas. Ela está posicionada atrás de uma bancada de estúdio, com as mãos apoiadas sobre a superfície, e olha para a frente com expressão séria. Na altura do peito, a blusa traz um pequeno logotipo com a inscrição ‘só notícias’. Ao fundo, aparece um painel azul com elementos gráficos de mapa-múndi e a palavra ‘notícias’ parcialmente visível. Na parte inferior da imagem, há uma faixa preta com textos sobrepostos que dizem ‘URGENTE’ e ‘Petistas ótima notícia escutem até o final’.
“Quem recebe Bolsa Família não vai mais poder fazer o saque do dinheiro que recebe”: apresentadora abre o telejornal com notícia falsa e explicação ocorre somente nos segundos finais do vídeo (Reprodução/TikTok)

O mesmo padrão aparece em vídeos nos quais é dito que mulheres vítimas de violência doméstica receberão automaticamente um salário mínimo mensal. As peças somavam 4,1 milhões até a última quinta-feira.

O que não é explicado é que a decisão do STF (Supremo Tribunal Federal) de dezembro de 2025 garante acesso a benefícios do INSS (Instituto Nacional do Seguro Nacional) apenas em casos específicos, como quando há necessidade de afastamento do trabalho por incapacidade decorrente das agressões.

Imagem dividida em duas partes verticais. À esquerda, há um quadro de telejornal com fundo azul e gráficos de mapa-múndi. No centro desse quadro aparece uma apresentadora de notícias, enquadrada do busto para cima, usando camisa azul escura de mangas longas com o logotipo ‘só notícias’ no lado esquerdo do peito. Ela está de frente para a câmera, com a boca aberta como se estivesse falando. Acima da apresentadora, há um retângulo azul-claro com texto em letras maiúsculas pretas que diz: ‘AGORA É LEI, MULHER QUE APANHA DO MARIDO VAI RECEBER UM SALÁRIO DO INSS’. À direita da imagem, há uma área escura que reproduz a interface de comentários de uma rede social. Vários comentários aparecem em formato de lista vertical, com nomes de usuários desfocados, datas e a opção ‘Responder’. Alguns comentários legíveis incluem frases como ‘E pra proteger ou motivar’, ‘eu moro com minha vó, minha mãe, e minha irmã. gostaria de saber se é por pessoa’, ‘a minha nao apanha, mas estamos conversando!!’ e ‘conheço uma mulher que vai ficar milionária’, acompanhados de emojis. Ao lado de alguns comentários aparecem ícones de coração e números indicando curtidas, como 33.8K, 9511, 6383 e 1102.
Banalização da agressão em comentários de uma reportagem produzida por IA afirmando, sem o devido contexto, que mulheres agredidas receberão benefícios do INSS (Reprodução/TikTok)

Hipersexualização

Aos Fatos também identificou versões de telejornais gerados por IA que não necessariamente difundem desinformação, mas apresentam reportagens fictícias apresentadas por mulheres seminuas.

Imagem em formato horizontal composta por três quadros lado a lado. No primeiro quadro, à esquerda, há uma mulher de corpo inteiro em um estúdio de televisão, vestindo biquíni verde. Ela está em pé, de frente para a câmera, com os braços relaxados ao lado do corpo. Ao fundo, aparece um cenário de telejornal com um globo em tons de verde e as palavras Bikini News. No quadro central, há outra mulher enquadrada da cabeça até o quadril, vestindo biquíni preto. Ela tem cabelos longos e claros, soltos, e está de frente para a câmera, com expressão neutra. O cenário ao fundo é um estúdio de notícias, com telas azuis e elementos gráficos, incluindo parte da palavra NEWS e linhas luminosas. No terceiro quadro, à direita, há uma mulher enquadrada do tronco até a cabeça, usando biquíni amarelo e segurando um microfone com um logotipo circular. Ela está de frente para a câmera e tem cabelos longos e escuros. O fundo mostra um estúdio de televisão com mesas, cadeiras e telas com mapas e gráficos em tons de azul e cinza.
Mulheres de biquíni geradas por IA apresentam notícias sobre temas como adulteração de bebidas, casos policiais e futebol (Reprodução/TikTok)

Nessas peças, o formato jornalístico funciona sobretudo como pretexto para a sexualização das apresentadoras e para a retenção de audiência, explorando a combinação entre estética de noticiário, corpos femininos hipersexualizados e pedidos recorrentes de engajamento.

Em alguns casos, os perfis fixam links de doações para as supostas apresentadoras.

Outro lado

Aos Fatos procurou o TikTok para questionar se os telejornais gerados por IA de fato infringiam as regras da plataforma e quais as medidas tomadas pela empresa. Em nota, a plataforma respondeu que os conteúdos foram removidos por violarem as diretrizes de integridade e autenticidade.

“Em agosto de 2025, anunciamos uma atualização das nossas Diretrizes da Comunidade, visando aprimorar a experiência e tornar a plataforma ainda mais segura. Nossas diretrizes de Integridade e Autenticidade buscam garantir que nossos usuários possam confiar que o conteúdo a que assistem é confiável, original e compartilhado por pessoas reais”, afirmou a empresa.

Segundo o TikTok, a plataforma não permite a publicação de conteúdos desinformativos que possam causar danos significativos a indivíduos ou à sociedade, independentemente da intenção do usuário que a publique, o que inclui conteúdos enganadores gerados por IA.

O caminho da apuração

Aos Fatos monitorou conteúdos publicados no TikTok que usam inteligência artificial para simular telejornais, com apresentadores artificiais, cenários de estúdio e linguagem típica do jornalismo televisivo.

Cada vídeo foi analisado quanto ao conteúdo apresentado, estratégia narrativa e presença de informações falsas, enganosas ou distorcidas, com checagem junto a registros oficiais, decisões judiciais, comunicados de órgãos públicos e cobertura da imprensa.

Por fim, a reportagem selecionou 15 vídeos de maior alcance com algum teor desinformativo. Os conteúdos foram organizados em três categorias principais de desinformação, conforme análise.

Referências

  1. TikTok
  2. Aos Fatos (1 e 2)
  3. g1
  4. Agência Brasil

Compartilhe

Leia também

falsoÉ falso que vídeo mostra médico contestando negativa de benefícios do INSS

É falso que vídeo mostra médico contestando negativa de benefícios do INSS

falsoVídeo mostra destruição causada por terremoto na Turquia, não ataques do Irã a Israel

Vídeo mostra destruição causada por terremoto na Turquia, não ataques do Irã a Israel

falsoÉ falso que Trump solicitou uso de base aérea brasileira a Lula em meio a conflito com Irã

É falso que Trump solicitou uso de base aérea brasileira a Lula em meio a conflito com Irã

fátima
Fátima