Logo após a prisão de Jair Bolsonaro (PL), no sábado (22), milhares de perfis passaram a compartilhar o vídeo de uma pastora chorando e dizendo: “tudo o que profetizei de mal para o Lula, Deus mandou foi para o Bolsonaro”. O conteúdo, que acumulou milhões de visualizações, foi compartilhado por páginas respeitadas, influenciadores e até jornalistas.
Quando começamos a trabalhar na segunda-feira (24), olhamos o vídeo e, na hora, falamos: “gente, mas isso é IA, não é não?”. E era.
Esse caso é a prova de que qualquer um pode ser vítima de desinformação, não importa idade, escolaridade ou formação.
Com a evolução das ferramentas de IA (inteligência artificial), fica cada vez mais difícil encontrar indícios de geração artificial. Ironicamente, os recursos de detecção de manipulação não têm acompanhado esse movimento (na verdade, sendo bem sincero, nunca foi possível confiar 100% nas respostas dessas ferramentas).
Assine a newsletter A Que Ponto Checamos e receba análises sobre as desinformações mais absurdas da internet brasileira.
Existem diversas dicas para verificar se um conteúdo é verdadeiro. Nós, do Aos Fatos, já publicamos guias do tipo e é possível encontrar diversos textos semelhantes por aí (veja exemplos aqui, aqui e aqui). Mas agora, temos visto cada vez menos conteúdos distorcidos, com marcas d’água aparentes ou com aquele “aspecto de IA”, meio plastificado.
Checar esse tipo de conteúdo tem sido uma atividade cada vez mais complexa. Temos que ir no detalhe ou, às vezes, até apelar para uma análise mais contextual da cena.
A newsletter desta semana vai falar sobre três dicas mais “holísticas” para treinar o olhar (e o ouvido) e tentar não cair em desinformação gerada por IA — ou, pelo menos, ficar mais cético em relação ao conteúdo que você consome na internet.
1. Área focal
Melhor do que uma explicação teórica e textual sobre o que é área focal, vejam o vídeo curto e didático da ilustradora Úrsula Dorada sobre o tema:
Na maior parte das vezes, as ferramentas de geração artificial seguem essa regra. Quanto mais perto das áreas focais, maior será a qualidade da imagem — e, consequentemente, menor será a ocorrência de anomalias.
Foi assim que procuramos os erros no vídeo da pastora. Não há estranhezas visíveis em seu rosto, no seu colar ou na sua roupa. As distorções aparecem ao fundo: nas sinalizações, nos carros e na rua, que não são o foco da gravação.
Mas vamos pegar um outro exemplo que viralizou no X na última semana pelo seu alto grau de realismo. Trata-se de uma imagem gerada pelo recém-lançado Nano Banana Pro, do Google, que, num olhar rápido e descuidado, de fato engana bem:

Lembrando da técnica da área focal, as distorções provavelmente se darão no fundo da foto e nos detalhes “adicionais” da cena (destacadas abaixo em amarelo e azul). E, de fato, é lá que a gente encontra as anomalias:
- A pessoa do fundo na verdade está sentada no vão entre duas cadeiras;
- O polegar do barman está numa posição estranha, como se estivesse atravessando o copo;
- E a mesa tem dimensões diferentes do lado direito do corpo da moça e do lado esquerdo.

Infelizmente, essa técnica de observar os pontos focais da imagem tem tudo para ser datada: é bem provável que vejamos cada vez mais fotos falsas imperceptíveis.
O que nos leva à segunda dica.
2. Contexto da cena
Se na primeira dica falamos sobre uma questão teórica das áreas focais de uma imagem, agora vamos falar sobre outra: viés de confirmação.
É um fato científico que o ser humano tende a interpretar informações de maneira a confirmar suas crenças prévias. E posso afirmar, com absoluta certeza, que esse foi um fator decisivo para que tantas pessoas caíssem na desinformação da pastora. Críticos ao ex-presidente e seus apoiadores queriam que aquele vídeo fosse verdade.
Mas vamos fazer o exercício. Leia a transcrição da gravação sem julgamento prévio:
“Prenderam o Bolsonaro. Eu tava orando tanto. Mas tudo o que eu profetizei de mal para o Lula, Deus mandou foi pro Bolsonaro. Tá difícil ser crente”.
Convenhamos, é uma fala artificial. Por que ela concluiria o raciocínio de que Deus não estaria atendendo suas preces com “tá difícil ser crente”? Outro ponto é que eu conheço evangélicos que acham a palavra “crente” pejorativa e, portanto, nunca se chamariam assim.
Também merece destaque a qualidade da voz. Falas geradas por IA costumam ter uma dicção perfeita, com cada sílaba bem pronunciada — o que é muito estranho vindo de uma mulher que está se acabando de chorar no meio da rua.
A própria cena também entrega a falsidade: a mulher está em uma pista movimentada, mas os carros passam por ela sem buzinar. E, se olharmos atentamente, o sinal atrás dela está vermelho e, mesmo assim, os veículos estão circulando.
Às vezes, a falsidade está no contexto. Então, tente deixar seu viés de confirmação de lado e analise se aquela cena faz sentido na vida real.
3. Informações adicionais
Outro indício de que um vídeo ou uma imagem são gerados por IA é a falta de informações.
No caso do vídeo da pastora, a gravação parece ter sido feita por ela mesma, em uma espécie de vídeo selfie. Logo, o conteúdo deveria ter sido publicado em suas redes. Mas, estranhamente, nenhuma publicação sabia o nome da mulher, a qual igreja ela pertencia ou a cidade em que residia.
E isso é outro ponto comum em gerações de IA: não há informações adicionais sobre o personagem. É sempre “pastora chora”, “mulher sofre acidente”, “homem vira lobisomem”. Porque, no caso, aquelas pessoas não existem!
Sempre duvide desses vídeos anônimos. Se o acontecimento é tão incrível e o conteúdo é tão viral, como é que ninguém conhece a mulher ou consegue identificar a rua onde a gravação foi feita?
E, se o conteúdo for relacionado a uma pessoa pública, procure por informações confiáveis sobre ele:
- No caso de um vídeo selfie: ele foi publicado nas redes daquela pessoa?
- No caso de vídeos “vazados”: quem vazou? As autoridades policiais ou judiciais reconhecem a veracidade da gravação?
- No caso de acontecimentos noticiosos: saiu em algum veículo de imprensa? Jornais apresentaram elementos que confirmassem a integridade do vídeo?

Retomando o caso da pastora: se você caiu, não se culpe. Era um vídeo bem feito.
Mas mesmo o vídeo mais perfeito ainda precisa ter conexão com a realidade. Aí, nesses casos, deixar o viés de confirmação de lado e aplicar um olhar crítico para procurar os problemas apontados acima é a melhor forma de se proteger.
E lembre-se daquilo que nós, que trabalhamos com combate à desinformação, já cansamos de repetir: se estiver com dúvidas se aquele conteúdo é real, não compartilhe.




