Sentado atrás da bancada de um telejornal, um suposto apresentador de terno e gravata noticia falsas mudanças na concessão de benefícios sociais, como a possibilidade de aposentadoria por invalidez devido ao uso de medicamentos. Ao fim da notícia, ele pede que o usuário clique nos botões ao lado do vídeo e curta e compartilhe o conteúdo.
Gravações desse tipo, que se apropriam de elementos do jornalismo televisivo para enganar usuários, têm se espalhado pelo TikTok. Um levantamento do Aos Fatos encontrou 15 vídeos similares publicados na plataforma, que, juntos, somam cerca de 13 milhões de visualizações entre dezembro de 2025 e fevereiro deste ano.
Ao analisar esses materiais, foram identificadas três formas principais de desinformar: divulgação de notícias inventadas; promessas de revelações ou anúncios importantes para fisgar a atenção de usuários e engajar; distorção de informações ou omissão de contextos relevantes.
Parte dos vídeos traz indicações de que o conteúdo foi gerado por inteligência artificial, seja por meio de hashtags ou por classificação feita pelos próprios perfis que publicam as peças.
Em outros, porém, não há qualquer tipo de marcação. As regras do TikTok determinam que conteúdos gerados ou significativamente alterados por IA sejam identificados de forma clara, justamente para evitar induzir o usuário ao erro. Após Aos Fatos questionar a empresa sobre os vídeos, todos saíram do ar.
Desinformação flagrante
Em um primeiro grupo, estão vídeos que simulam telejornais para divulgar “notícias” sem qualquer lastro em fatos ou registros oficiais.
Aos Fatos já desmentiu, por exemplo, publicações alegando que os agressores de Orelha, cão comunitário que vivia em Florianópolis (SC), haviam sido identificados e seriam julgados por meio de júri popular.
Em outros vídeos sobre o mesmo caso, os supostos apresentadores afirmam que homens armados teriam cercado os suspeitos de praticar a agressão, e que, após isso, eles não teriam sido mais vistos. Não há qualquer registro do episódio na imprensa ou nos canais da Polícia Civil de Santa Catarina.

Há ainda perfis dedicados a apresentar notícias falsas com teor sensacionalista ou violento. Um deles publicou vídeos que somaram quase 8 milhões de visualizações e afirmavam:
- que um menino autista teria sido morto por um funcionário de uma escola de educação infantil por se recusar a dormir;
- que uma criança teria convulsionado e entrado em coma após passar muitas horas jogando Roblox;
- e que uma suposta empresária em São Paulo teria morrido após usar canetas emagrecedoras.

Em todos os casos, os vídeos não apresentam informações verificáveis sobre vítimas ou locais, e não há qualquer registro das situações citadas na imprensa. As imagens usadas variam entre gravações também geradas por inteligência artificial ou registros reais, mas fora de contexto.
Armadilhas
Outro padrão envolve o uso de telejornais fictícios como isca de engajamento — estratégia que estimula usuários a curtir, comentar ou compartilhar o conteúdo para impulsionar seu alcance nos algoritmos da plataforma.
Em uma das peças, uma suposta apresentadora afirma que Lula (PT) teria um recado “urgente”. Na sequência, surge um vídeo do presidente gerado por IA no qual ele apenas pede que as pessoas curtam e comentem a publicação.

Em outro exemplo, o espectador é convidado a participar de uma pesquisa que questiona se Lula deveria concorrer às eleições de 2026. Como forma de resposta, são indicados os botões de engajamento do TikTok.
Conteúdos descontextualizados
Há vídeos, porém, que se enquadram em um terceiro padrão: peças enganosas apresentam uma informação falsa no início e só introduzem nuances ou correções nos segundos finais — quando o espectador possivelmente já passou para o vídeo seguinte.
Recentemente, Aos Fatos desmentiu posts deste tipo que afirmavam que teria sido aprovado e estaria aguardando sanção presidencial um projeto que impediria saques em dinheiro do Bolsa Família.
As gravações começam com a apresentadora afirmando que “quem recebe Bolsa Família não vai mais poder sacar o dinheiro”, pedindo que o usuário permaneça no vídeo para entender melhor. Apenas no final, de forma rápida, é informado que se trata de um projeto em tramitação, e não de uma lei aprovada.

O mesmo padrão aparece em vídeos nos quais é dito que mulheres vítimas de violência doméstica receberão automaticamente um salário mínimo mensal. As peças somavam 4,1 milhões até a última quinta-feira.
O que não é explicado é que a decisão do STF (Supremo Tribunal Federal) de dezembro de 2025 garante acesso a benefícios do INSS (Instituto Nacional do Seguro Nacional) apenas em casos específicos, como quando há necessidade de afastamento do trabalho por incapacidade decorrente das agressões.

Hipersexualização
Aos Fatos também identificou versões de telejornais gerados por IA que não necessariamente difundem desinformação, mas apresentam reportagens fictícias apresentadas por mulheres seminuas.

Nessas peças, o formato jornalístico funciona sobretudo como pretexto para a sexualização das apresentadoras e para a retenção de audiência, explorando a combinação entre estética de noticiário, corpos femininos hipersexualizados e pedidos recorrentes de engajamento.
Em alguns casos, os perfis fixam links de doações para as supostas apresentadoras.
Outro lado
Aos Fatos procurou o TikTok para questionar se os telejornais gerados por IA de fato infringiam as regras da plataforma e quais as medidas tomadas pela empresa. Em nota, a plataforma respondeu que os conteúdos foram removidos por violarem as diretrizes de integridade e autenticidade.
“Em agosto de 2025, anunciamos uma atualização das nossas Diretrizes da Comunidade, visando aprimorar a experiência e tornar a plataforma ainda mais segura. Nossas diretrizes de Integridade e Autenticidade buscam garantir que nossos usuários possam confiar que o conteúdo a que assistem é confiável, original e compartilhado por pessoas reais”, afirmou a empresa.
Segundo o TikTok, a plataforma não permite a publicação de conteúdos desinformativos que possam causar danos significativos a indivíduos ou à sociedade, independentemente da intenção do usuário que a publique, o que inclui conteúdos enganadores gerados por IA.
O caminho da apuração
Aos Fatos monitorou conteúdos publicados no TikTok que usam inteligência artificial para simular telejornais, com apresentadores artificiais, cenários de estúdio e linguagem típica do jornalismo televisivo.
Cada vídeo foi analisado quanto ao conteúdo apresentado, estratégia narrativa e presença de informações falsas, enganosas ou distorcidas, com checagem junto a registros oficiais, decisões judiciais, comunicados de órgãos públicos e cobertura da imprensa.
Por fim, a reportagem selecionou 15 vídeos de maior alcance com algum teor desinformativo. Os conteúdos foram organizados em três categorias principais de desinformação, conforme análise.




