Vídeos gerados com Sora 2 desinformam e somam mais de 40 milhões de visualizações no TikTok

Compartilhe

Dias depois de um tornado causar seis mortes em Rio Bonito do Iguaçu (PR), passaram a circular nas redes, junto de registros reais do fenômeno, imagens ultrarrealistas geradas por inteligência artificial. Ao menos cinco desses conteúdos desinformativos, que somam quase 6 milhões de visualizações, foram criados com a ferramenta Sora 2, lançada pela OpenAI no fim de setembro.

Levantamento realizado pelo Aos Fatos verificou que quatro em cada dez vídeos virais no TikTok gerados pelo Sora 2 desinformam sobre temas como desastres, política e segurança pública ou promovem preconceito.

Desde 30 de setembro, quando a ferramenta de IA foi lançada, Aos Fatos identificou 64 vídeos virais gerados por ela que somam cerca de 262 milhões de visualizações na plataforma. Desse total, 26 publicações continham algum tipo de desinformação e acumularam 41 milhões de visualizações.

Ainda em fase de liberação gradual, o Sora 2 permite criar vídeos cada vez mais realistas de forma simples, rápida e barata, ampliando o potencial de desinformação em larga escala durante situações de crise.

Exploração de desastres naturais

Após o desastre climático que atingiu Rio Bonito do Iguaçu (PR) no último fim de semana, vídeos gerados por IA que supostamente registram o “momento exato” da passagem do tornado começaram a circular nas redes. Um exemplo é o conteúdo abaixo, que traz a marca d’água do Sora 2.

Print de publicação no TikTok com imagem gerada por IA mostra a formação de um grande funil de tornado sobre uma área urbana, com casas de telhados de diferentes cores e veículos estacionados nas ruas. O registro foi feito a partir de uma varanda com grades pretas, de onde é possível ver destroços e detritos sendo arremessados pelo vento. No canto superior esquerdo, há a marca d’água do aplicativo Sora. O céu está encoberto por nuvens densas e escuras.
Publicação viral gerada pelo Sora 2 simula o tornado que atingiu a cidade de Rio Bonito do Iguaçu (Reprodução/TikTok)

Outras publicações mostram deslizamentos de casas e ruas destruídas por supostas enchentes. As peças viralizaram em meio aos alertas de ciclones tropicais que atingiram o país na semana passada.

Nos comentários de um dos posts mais populares, com mais de 10 milhões de visualizações, usuários se dividem entre a preocupação e o questionamento sobre a veracidade das imagens (veja abaixo).

A imagem está dividida em duas partes. À esquerda, está o frame de um vídeo gerado por IA. Nele aparece uma rua estreita em uma área com morros e casas simples. No topo do morro, há uma encosta com terra exposta e uma casa azul parcialmente à beira do barranco. Chove e a rua está molhada; algumas pessoas caminham ou observam a cena. À direita, há uma captura de tela de comentários no TikTok, com mensagens de usuários dizendo: ‘Eu IA comentar kkkkk’, ‘O pessoal acreditando kkkk’, ‘puro IA’, ‘iA é foda kkk’ e ‘essa inteligencia artificial está dominando a realidade’.
Comentários em vídeos feitos pelo Sora 2 dividem-se entre pessoas acreditando na imagem e outras apontando o uso de IA; os comentários mais populares pertencem ao último grupo.

Megaoperação policial

Ao longo das últimas semanas, também viralizaram diversos registros que supostamente mostrariam cenas da megaoperação policial realizada nos complexos do Alemão e da Penha, no Rio de Janeiro. Parte das gravações checadas pelo Aos Fatos foi gerada pelo Sora 2.

Um dos vídeos gerados artificialmente, por exemplo, mostra o suposto momento em que um helicóptero das forças de segurança derruba um drone do Comando Vermelho. Apesar de o crime organizado ter, de fato, usado drones adaptados para lançar bombas contra a polícia, a gravação em si é falsa.

Nesse caso, apesar de os posts borrarem a marca d'água que aponta que o conteúdo foi criado pela ferramenta, foi possível identificar seu uso por meio de algumas pistas, comuns ao uso de IA:

  • O tamanho da marca d’água borrada e o fato de ela se movimentar pela tela, características do Sora 2;
  • A duração do vídeo, que corresponde à limitação gratuita do recurso, que permite gerar registros de até dez segundos;
  • O hiperrealismo das imagens, típico da ferramenta;
  • Além de outras características comuns a imagens artificiais, como erros de proporção e textura plastificada.
A imagem está dividida em duas partes, mostrando a mesma cena com pequenas diferenças. Em ambas, há um helicóptero sobrevoando uma área com várias casas construídas em um morro, com paredes em tons de verde, azul, marrom e branco. O céu está nublado. Há fios de eletricidade cruzando a imagem. No centro das duas partes, aparece um ícone de reprodução em forma de triângulo branco. Na parte inferior, há o texto 'Policia derruba drone do comando vermelho' e logo abaixo 'Siga para o proximo video'. Em cada lado da imagem, há marcações retangulares em vermelho destacando diferentes pontos inconsistentes — uma na parte inferior esquerda e outra na parte superior direita.
Vídeos gerados pelo Sora 2 viralizaram no TikTok como se fossem retratos reais da megaoperação no RJ (Reprodução/TikTok)

Outros casos de desinformação

Além dos vídeos relacionados à operação no Rio, o Sora 2 vem sendo usado para produzir peças que fazem referência a desinformações já verificadas.

Um dos conteúdos identificados por Aos Fatos mostra um suposto diálogo entre um assaltante e um policial. Nele, o criminoso afirma ter roubado um celular para “tomar uma cervejinha” e que teve autorização do presidente Lula (PT) para cometer o crime.

A imagem mostra um homem sem camisa, com cabelo vermelho e várias tatuagens nos braços e no peito, algemado e de frente para um policial. O policial usa uniforme escuro, colete tático, óculos escuros e boné e segura as algemas do homem com uma das mãos. Ao fundo, há uma parede clara e árvores, e no canto esquerdo da imagem aparece o logotipo da ferramenta 'Sora'.
Vídeo manipulado mostra um suposto diálogo que perpetua desinformações sobre uma entrevista dada por Lula em 2017 (Reprodução/TikTok)

O conteúdo faz referência a uma desinformação associada ao petista com frequência: um vídeo editado que mistura e descontextualiza trechos de uma entrevista concedida por Lula em 2017 para dar a entender que ele apoiaria crimes como assaltos.

Banalização e efeito cotidiano

A maioria dos vídeos do levantamento feito por Aos Fatos mostram animais falantes ou cenas esportivas. Apesar de aparentemente inofensivos, especialistas alertam que a popularização desses conteúdos gerados por IA cria um ambiente de difícil navegação.

Rogério Christofoletti, professor de jornalismo da UFSC (Universidade Federal de Santa Catarina), vê com preocupação o desenvolvimento de ferramentas como o Sora 2, argumentando que o aumento da qualidade dos conteúdos é inversamente proporcional à capacidade da sociedade de distinguir o natural do sintético.

“Quanto mais realistas ficam esses vídeos, mais eles se parecem com o nosso repertório visual, que é formado pelas sensações e pela memória que fomos acumulando ao longo da vida ao consumir imagens. Se eles repetem padrões que nós temos como próprios de algo que consideramos verdadeiro na nossa mente, eles passam a nos convencer que pertencem ao mesmo conjunto que tínhamos armazenado em nossa experiência de vida. Em outras palavras, a gente fica confuso”, afirmou o pesquisador.

Para Christofoletti, essa confusão é danosa porque prejudica nossos julgamentos e ações. Pessoas podem ser enganadas ou sofrer danos ao consumir conteúdos sintéticos acreditando que são reais.

Por outro lado, pesquisadores apontam que o contato frequente com vídeos artificiais pode despertar o senso crítico do público. Uma pesquisa feita com adolescentes americanos mostrou que 72% dos entrevistados mudaram a maneira como avaliam as informações que recebem online após terem tido experiência com conteúdo falso ou enganoso – gerado por IA ou não.

Para Athus Cavalini, doutorando em ciência da computação e professor do Ifes (Instituto Federal do Espírito Santo), o contato com publicações mais banais é importante para desenvolver esse senso crítico.

“A desinformação em contextos mais sérios, polarizados, é de extremo apego emocional. Muitas vezes, as pessoas tendem a acreditar em algo porque é o que elas querem acreditar. Em situações banais, as pessoas começam a se abrir mais para entender se algo é um conteúdo criado por inteligência artificial”, opina.

Lucas Bragança, pesquisador e doutor em comunicação pela UFF (Universidade Federal Fluminense), pontua que as tecnologias são recentes, avançam rapidamente e não há uma solução para o impacto que provocam na integridade da informação.

Ainda assim, segundo ele, é possível que se alimente uma cultura da desconfiança saudável por parte dos usuários, já que o público terá que avaliar ou pensar duas vezes antes de acreditar em uma informação.

Transparência

Apesar de o Sora 2 e outras ferramentas incorporarem marcas d’água aos conteúdos produzidos, muitos criadores optam por remover ou ocultar esses sinais, dificultando a identificação de sua origem.

Usuários mais habilidosos também podem usar outras táticas, como a compressão proposital da imagem para mascarar imperfeições ou inserir ruídos para simular gravações amadoras.

A imagem mostra uma área com muitas casas construídas em um morro. No alto, há um drone grande voando, e dele parece sair uma fumaça escura. Em primeiro plano, aparecem telhados e fachadas de tijolo aparente. No canto inferior, há uma caixa d’água azul. Na parte inferior da imagem, há uma faixa branca com o texto 'Quem esta certo?'. Na parte superior, à direita, está um quadrado vermelho apontando o local em que foi borrada a marca d'água da ferramenta Sora 2.
Vídeos manipulados sobre a megaoperação borravam ou escondiam a marca d’água visível do Sora 2, apontado em vermelho (Reprodução/TikTok)

Athus Cavalini explica que o desenvolvimento de técnicas para detectar o uso de IA é complexo. As propostas mais avançadas implementam marcas d’água não visíveis nas imagens, como assinaturas digitais.

Isso permitiria que ferramentas e plataformas trabalhassem em conjunto para automatizar a marcação de publicações – hoje, na maioria dos casos, a identificação é feita por decisão do criador de conteúdo.

“Existem meios técnicos para inserir essa assinatura digital e garantir a rastreabilidade daquele conteúdo. Mas há o outro lado da moeda, porque aqui estamos falando da plataforma que produz o conteúdo, do modelo. Mas a assinatura precisa ser aberta para que as redes sociais possam usar isso de fato”, explica Cavalini.

Para o pesquisador Lucas Bragança, é importante que se inicie um debate sobre a regulamentação da identificação do uso de IA, pois não é possível frear o avanço dessas ferramentas. Afinal, será cada vez mais difícil saber se um conteúdo é ou não sintético apenas pela ótica humana e não é possível contar com a boa vontade das big techs para garantir a responsabilização.

Christofoletti afirma que é preciso avançar em protocolos para a definição de padrões de transparência através de uma regulação que seja multissetorial, democrática, aberta e às claras. Ele reforça que as regras não devem ser definidas só pelo Estado e que é preciso ouvir a academia, a sociedade e as empresas.

“Eu sei, são desafios enormes, mas essas empresas estão acostumadas a criar maravilhas. Por que não ajudariam a criar um futuro mais transparente e ético para todos?”, questiona.

Outro lado. Aos Fatos entrou em contato com a OpenAI e o TikTok para comentar o levantamento. Em nota, a companhia detentora do Sora 2 afirmou que a ferramenta foi desenvolvida para ampliar o acesso a recursos de criação audiovisual baseados em inteligência artificial e que seu lançamento priorizou uma implementação responsável.

A OpenAI destacou ainda que o modelo inclui medidas de proteção para reduzir usos indevidos, como restrições à criação de imagens de pessoas reais sem consentimento, aplicação de marcas d’água e metadados C2PA em todos os vídeos gerados, além de sistemas de detecção e rastreabilidade.

Segundo a companhia, as ações integram um compromisso contínuo com a transparência e a segurança, que também envolve políticas que proíbem enganar usuários por meio de personificação ou fraude. Casos de violação, acrescentou, podem resultar em remoção de conteúdo ou penalidades na plataforma.

Já o TikTok enviou o link de suas diretrizes de integridade e autenticidade, que proíbem a publicação de conteúdos manipulados com o objetivo de enganar o público “sobre assuntos de importância pública ou prejudicial às pessoas” e determinam que os criadores devem rotular conteúdos do tipo “que mostrem cenas ou pessoas com aparência realista”.

Segundo a plataforma, os conteúdos não rotulados podem ser removidos, restringidos ou marcados pela equipe do TikTok, “dependendo do dano que podem causar”.

A companhia também informou que analisou o levantamento realizado por Aos Fatos e removeu os conteúdos violativos. Também foi reforçado que o TikTok publica trimestralmente relatórios de moderação e, de acordo com a última publicaçãod, 97% dos vídeos que violaram as políticas de Integridade e Autenticidade no período foram removidos de forma proativa, sendo 86% deles derrubados antes de qualquer visualização.

A abordagem, conforme a empresa afirmou, "combina tecnologia com revisão humana para identificar e remover materiais que possam violar as Diretrizes da Comunidade" em uma equipe "com mais de 40.000 profissionais dedicados à segurança, incluindo moderadores brasileiros".

O caminho da apuração

Inicialmente, Aos Fatos realizou uma busca no TikTok por vídeos produzidos pelo Sora 2, identificados seja pela presença da marca d’água, seja por meio de hashtags que indicavam o uso.

A reportagem também recorreu a materiais sobre o desastre natural ocorrido no Paraná no último fim de semana e sobre a megaoperação policial no Rio de Janeiro, realizada no final de outubro.

Em seguida, entrevistamos os especialistas Athus Cavalini, Lucas Bragança e Rogério Christofoletti.

Compartilhe

Leia também

falsoFoto que mostra prefeito de Nova York ainda criança ao lado de Epstein é gerada por IA

Foto que mostra prefeito de Nova York ainda criança ao lado de Epstein é gerada por IA

Brasileiro se passa por autoridade americana para viralizar áudios falsos de Lula e Moraes

Brasileiro se passa por autoridade americana para viralizar áudios falsos de Lula e Moraes

falsoOMS não alertou para risco global de infecção pelo Nipah após Carnaval

OMS não alertou para risco global de infecção pelo Nipah após Carnaval

fátima
Fátima