Dias depois de um tornado causar seis mortes em Rio Bonito do Iguaçu (PR), passaram a circular nas redes, junto de registros reais do fenômeno, imagens ultrarrealistas geradas por inteligência artificial. Ao menos cinco desses conteúdos desinformativos, que somam quase 6 milhões de visualizações, foram criados com a ferramenta Sora 2, lançada pela OpenAI no fim de setembro.
Levantamento realizado pelo Aos Fatos verificou que quatro em cada dez vídeos virais no TikTok gerados pelo Sora 2 desinformam sobre temas como desastres, política e segurança pública ou promovem preconceito.
Desde 30 de setembro, quando a ferramenta de IA foi lançada, Aos Fatos identificou 64 vídeos virais gerados por ela que somam cerca de 262 milhões de visualizações na plataforma. Desse total, 26 publicações continham algum tipo de desinformação e acumularam 41 milhões de visualizações.
Ainda em fase de liberação gradual, o Sora 2 permite criar vídeos cada vez mais realistas de forma simples, rápida e barata, ampliando o potencial de desinformação em larga escala durante situações de crise.
Exploração de desastres naturais
Após o desastre climático que atingiu Rio Bonito do Iguaçu (PR) no último fim de semana, vídeos gerados por IA que supostamente registram o “momento exato” da passagem do tornado começaram a circular nas redes. Um exemplo é o conteúdo abaixo, que traz a marca d’água do Sora 2.

Outras publicações mostram deslizamentos de casas e ruas destruídas por supostas enchentes. As peças viralizaram em meio aos alertas de ciclones tropicais que atingiram o país na semana passada.
Nos comentários de um dos posts mais populares, com mais de 10 milhões de visualizações, usuários se dividem entre a preocupação e o questionamento sobre a veracidade das imagens (veja abaixo).

Megaoperação policial
Ao longo das últimas semanas, também viralizaram diversos registros que supostamente mostrariam cenas da megaoperação policial realizada nos complexos do Alemão e da Penha, no Rio de Janeiro. Parte das gravações checadas pelo Aos Fatos foi gerada pelo Sora 2.
Um dos vídeos gerados artificialmente, por exemplo, mostra o suposto momento em que um helicóptero das forças de segurança derruba um drone do Comando Vermelho. Apesar de o crime organizado ter, de fato, usado drones adaptados para lançar bombas contra a polícia, a gravação em si é falsa.
Nesse caso, apesar de os posts borrarem a marca d'água que aponta que o conteúdo foi criado pela ferramenta, foi possível identificar seu uso por meio de algumas pistas, comuns ao uso de IA:
- O tamanho da marca d’água borrada e o fato de ela se movimentar pela tela, características do Sora 2;
- A duração do vídeo, que corresponde à limitação gratuita do recurso, que permite gerar registros de até dez segundos;
- O hiperrealismo das imagens, típico da ferramenta;
- Além de outras características comuns a imagens artificiais, como erros de proporção e textura plastificada.

Outros casos de desinformação
Além dos vídeos relacionados à operação no Rio, o Sora 2 vem sendo usado para produzir peças que fazem referência a desinformações já verificadas.
Um dos conteúdos identificados por Aos Fatos mostra um suposto diálogo entre um assaltante e um policial. Nele, o criminoso afirma ter roubado um celular para “tomar uma cervejinha” e que teve autorização do presidente Lula (PT) para cometer o crime.

O conteúdo faz referência a uma desinformação associada ao petista com frequência: um vídeo editado que mistura e descontextualiza trechos de uma entrevista concedida por Lula em 2017 para dar a entender que ele apoiaria crimes como assaltos.
Banalização e efeito cotidiano
A maioria dos vídeos do levantamento feito por Aos Fatos mostram animais falantes ou cenas esportivas. Apesar de aparentemente inofensivos, especialistas alertam que a popularização desses conteúdos gerados por IA cria um ambiente de difícil navegação.
Rogério Christofoletti, professor de jornalismo da UFSC (Universidade Federal de Santa Catarina), vê com preocupação o desenvolvimento de ferramentas como o Sora 2, argumentando que o aumento da qualidade dos conteúdos é inversamente proporcional à capacidade da sociedade de distinguir o natural do sintético.
“Quanto mais realistas ficam esses vídeos, mais eles se parecem com o nosso repertório visual, que é formado pelas sensações e pela memória que fomos acumulando ao longo da vida ao consumir imagens. Se eles repetem padrões que nós temos como próprios de algo que consideramos verdadeiro na nossa mente, eles passam a nos convencer que pertencem ao mesmo conjunto que tínhamos armazenado em nossa experiência de vida. Em outras palavras, a gente fica confuso”, afirmou o pesquisador.
Para Christofoletti, essa confusão é danosa porque prejudica nossos julgamentos e ações. Pessoas podem ser enganadas ou sofrer danos ao consumir conteúdos sintéticos acreditando que são reais.
Por outro lado, pesquisadores apontam que o contato frequente com vídeos artificiais pode despertar o senso crítico do público. Uma pesquisa feita com adolescentes americanos mostrou que 72% dos entrevistados mudaram a maneira como avaliam as informações que recebem online após terem tido experiência com conteúdo falso ou enganoso – gerado por IA ou não.
Para Athus Cavalini, doutorando em ciência da computação e professor do Ifes (Instituto Federal do Espírito Santo), o contato com publicações mais banais é importante para desenvolver esse senso crítico.
“A desinformação em contextos mais sérios, polarizados, é de extremo apego emocional. Muitas vezes, as pessoas tendem a acreditar em algo porque é o que elas querem acreditar. Em situações banais, as pessoas começam a se abrir mais para entender se algo é um conteúdo criado por inteligência artificial”, opina.
Lucas Bragança, pesquisador e doutor em comunicação pela UFF (Universidade Federal Fluminense), pontua que as tecnologias são recentes, avançam rapidamente e não há uma solução para o impacto que provocam na integridade da informação.
Ainda assim, segundo ele, é possível que se alimente uma cultura da desconfiança saudável por parte dos usuários, já que o público terá que avaliar ou pensar duas vezes antes de acreditar em uma informação.
Transparência
Apesar de o Sora 2 e outras ferramentas incorporarem marcas d’água aos conteúdos produzidos, muitos criadores optam por remover ou ocultar esses sinais, dificultando a identificação de sua origem.
Usuários mais habilidosos também podem usar outras táticas, como a compressão proposital da imagem para mascarar imperfeições ou inserir ruídos para simular gravações amadoras.

Athus Cavalini explica que o desenvolvimento de técnicas para detectar o uso de IA é complexo. As propostas mais avançadas implementam marcas d’água não visíveis nas imagens, como assinaturas digitais.
Isso permitiria que ferramentas e plataformas trabalhassem em conjunto para automatizar a marcação de publicações – hoje, na maioria dos casos, a identificação é feita por decisão do criador de conteúdo.
“Existem meios técnicos para inserir essa assinatura digital e garantir a rastreabilidade daquele conteúdo. Mas há o outro lado da moeda, porque aqui estamos falando da plataforma que produz o conteúdo, do modelo. Mas a assinatura precisa ser aberta para que as redes sociais possam usar isso de fato”, explica Cavalini.
Para o pesquisador Lucas Bragança, é importante que se inicie um debate sobre a regulamentação da identificação do uso de IA, pois não é possível frear o avanço dessas ferramentas. Afinal, será cada vez mais difícil saber se um conteúdo é ou não sintético apenas pela ótica humana e não é possível contar com a boa vontade das big techs para garantir a responsabilização.
Christofoletti afirma que é preciso avançar em protocolos para a definição de padrões de transparência através de uma regulação que seja multissetorial, democrática, aberta e às claras. Ele reforça que as regras não devem ser definidas só pelo Estado e que é preciso ouvir a academia, a sociedade e as empresas.
“Eu sei, são desafios enormes, mas essas empresas estão acostumadas a criar maravilhas. Por que não ajudariam a criar um futuro mais transparente e ético para todos?”, questiona.
Outro lado. Aos Fatos entrou em contato com a OpenAI e o TikTok para comentar o levantamento. Em nota, a companhia detentora do Sora 2 afirmou que a ferramenta foi desenvolvida para ampliar o acesso a recursos de criação audiovisual baseados em inteligência artificial e que seu lançamento priorizou uma implementação responsável.
A OpenAI destacou ainda que o modelo inclui medidas de proteção para reduzir usos indevidos, como restrições à criação de imagens de pessoas reais sem consentimento, aplicação de marcas d’água e metadados C2PA em todos os vídeos gerados, além de sistemas de detecção e rastreabilidade.
Segundo a companhia, as ações integram um compromisso contínuo com a transparência e a segurança, que também envolve políticas que proíbem enganar usuários por meio de personificação ou fraude. Casos de violação, acrescentou, podem resultar em remoção de conteúdo ou penalidades na plataforma.
Já o TikTok enviou o link de suas diretrizes de integridade e autenticidade, que proíbem a publicação de conteúdos manipulados com o objetivo de enganar o público “sobre assuntos de importância pública ou prejudicial às pessoas” e determinam que os criadores devem rotular conteúdos do tipo “que mostrem cenas ou pessoas com aparência realista”.
Segundo a plataforma, os conteúdos não rotulados podem ser removidos, restringidos ou marcados pela equipe do TikTok, “dependendo do dano que podem causar”.
A companhia também informou que analisou o levantamento realizado por Aos Fatos e removeu os conteúdos violativos. Também foi reforçado que o TikTok publica trimestralmente relatórios de moderação e, de acordo com a última publicaçãod, 97% dos vídeos que violaram as políticas de Integridade e Autenticidade no período foram removidos de forma proativa, sendo 86% deles derrubados antes de qualquer visualização.
A abordagem, conforme a empresa afirmou, "combina tecnologia com revisão humana para identificar e remover materiais que possam violar as Diretrizes da Comunidade" em uma equipe "com mais de 40.000 profissionais dedicados à segurança, incluindo moderadores brasileiros".
O caminho da apuração
Inicialmente, Aos Fatos realizou uma busca no TikTok por vídeos produzidos pelo Sora 2, identificados seja pela presença da marca d’água, seja por meio de hashtags que indicavam o uso.
A reportagem também recorreu a materiais sobre o desastre natural ocorrido no Paraná no último fim de semana e sobre a megaoperação policial no Rio de Janeiro, realizada no final de outubro.
Em seguida, entrevistamos os especialistas Athus Cavalini, Lucas Bragança e Rogério Christofoletti.




