Com avanços perceptíveis na qualidade dos conteúdos criados por ferramentas de inteligência artificial, imagens falsas como a do papa Francisco trajando um sobretudo branco de matelassê passaram a viralizar nas redes como se fossem reais.
Tanto a foto falsa do papa como outra que também viralizou, do ex-presidente americano Donald Trump sendo preso, foram criadas com o Midjourney, software que utiliza IA para gerar imagens realistas a partir de comandos de texto.
O episódio se juntou a uma série de outras questões que integram o debate sobre as ferramentas de IA, que podem contribuir para a criação e o compartilhamento de desinformação.
Para discutir essas e outras questões relacionadas ao tema, Aos Fatos consultou especialistas na tecnologia, que também forneceram dicas sobre como identificar textos e imagens criados artificialmente.
- O que é a inteligência artificial?
- Quais são as ferramentas mais famosas de IA Generativa?
- Quais riscos a IA Generativa oferece no contexto da desinformação?
- Como identificar conteúdos gerados por IA?
1) O QUE É A INTELIGÊNCIA ARTIFICIAL?
A inteligência artificial é uma tecnologia que busca simular a tomada de decisões e o comportamento humano para resolver problemas lógicos. A criação do termo é atribuída ao professor John McCarthy do departamento de matemática da Universidade Dartmouth, nos Estados Unidos, que usou a expressão em 1956 em um convite para um evento sobre automação.
Muito antes das ferramentas generativas que se popularizaram nos últimos anos, a IA já integrava o cotidiano das pessoas em mecanismos como:
- Corretores ortográficos e editores de texto;
- Tradutores de texto;
- Ferramentas de reconhecimento facial;
- Assistentes virtuais;
- Recursos de identificação de spam;
- Sistemas de recomendação de conteúdo (como em plataformas de streaming);
- Testes para o diagnóstico precoce de doenças como Alzheimer e Parkinson.
Dentre as diversas categorias de IA criadas, a mais popular atualmente é a IA Generativa — que leva esse nome pois é capaz de gerar novas informações, como textos, imagens e obras de arte inéditas.
2) QUAIS SÃO AS FERRAMENTAS MAIS FAMOSAS DE IA GENERATIVA?
Abaixo, Aos Fatos cita algumas das mais populares ferramentas de IA generativa disponíveis que, à exceção do Midjourney, possuem versões pagas e gratuitas:
- ChatGPT: Assistente virtual alimentado com referências bibliográficas de livros e da internet que interage com usuários para elaborar textos e responder perguntas sobre assuntos diversos;
- Compose AI: Criada para facilitar o processo de escrita, a ferramenta autocompleta frases enquanto o usuário digita e pode escrever emails inteiros a partir de algumas palavras;
- DALL-E2: Gera imagens a partir de descrições textuais ou cria variações de uma foto enviada pelo usuário;
- Midjourney: Semelhante ao DALL-E2, gera imagens a partir de uma descrição textual. Funciona dentro do aplicativo de mensagens Discord por meio de comandos de texto. Após casos recentes de viralização de imagens falsas criadas com o uso de ferramenta, a empresa responsável decidiu limitar o uso do Midjourney apenas a assinantes pagos, sob a alegação de que haveria uma sobrecarga no sistema;
- Stable Diffusion: Também gera imagens a partir de descrições fornecidas pelos usuários;
- Synthesia: Transforma textos em vídeos, que podem ser narrados em mais de 40 idiomas por 20 avatares diferentes gerados por computador.
Deepfake. Outra tecnologia de IA generativa, o deepfake tem como objetivo principal substituir rostos em vídeos. Para isso, ele usa dois mecanismos: o primeiro analisa um banco de imagens fornecido pelo usuário para tentar encontrar um padrão e o segundo checa os resultados produzidos para decidir se parecem ou não verídicos.
Nas redes, são populares vídeos deepfake com teor humorístico, mas criminosos também usam esse tipo de ferramenta para produzir vídeos pornográficos falsos sem o consentimento de mulheres. Algumas ferramentas são o Wombo e o DeepFaceLab.
3) QUAIS SÃO OS RISCOS QUE A IA GENERATIVA OFERECE NO CONTEXTO DE DESINFORMAÇÃO?
“Temos muito trabalho a fazer em robustez e veracidade”, afirmou um dos criadores do ChatGPT, Sam Altman, em publicação no Twitter no ano passado que encorajava usuários a desconfiarem da ferramenta para consultas factuais.
Esse problema se tornou especialmente visível com o Galactica, modelo de IA lançado no ano passado pela Meta e retirado do ar em apenas três dias. Alimentada por artigos científicos e supostamente capaz de produzir conteúdo acadêmico, a ferramenta gerava conteúdo desinformativo e enviesado e chegou inclusive a inventar artigos acadêmicos que não existiam.
Para além da mera possibilidade de gerar respostas a partir de fontes duvidosas ou inexistentes por falhas tecnológicas, a IA Generativa também tem o potencial de disseminar desinformação, a depender da intenção do usuário. Em reportagem de 2019, especialistas consultados pelo jornal New York Times sinalizaram que, no futuro, as plataformas poderiam substituir humanos na distribuição de propaganda enganosa a serviço de governos, atuando de forma mais sutil e muito mais rápida.
“Quanto mais tempo as ferramentas aprendem sozinhas, melhores são os resultados produzidos. Com isso, o conteúdo sintético criado, apesar de falso, é gerado de forma cada vez mais realista e com ar de genuíno”, afirmou ao Aos Fatos o jornalista Bruno Sartori, especialista em IA que se popularizou nas redes ao fazer deepfakes com teor humorístico.
Mesmo conteúdos à primeira vista inofensivos, como as fotos falsas do papa Francisco, podem esconder perigos. “Em uma situação que prejudique a reputação de uma pessoa ou em um contexto eleitoral pode gerar muitos problemas. Muitas vezes, nas bolhas sociais, alguns conteúdos falsos convincentes podem nunca ser desmentidos”, disse Lucas Lattari, professor de Computação no IFSudesteMG (Instituto Federal do Sudeste de Minas Gerais). As fotos do papa chegaram a ser tratadas como reais pela revista Vogue.
Deepfake. Apesar de serem usadas na maior parte das vezes como ferramentas para gerar conteúdo humorístico, as deepfakes também são exploradas por seu potencial desinformativo. Em 2022, por exemplo, um vídeo em que o presidente da Ucrânia, Volodimir Zelenski, anuncia rendição às tropas russas foi publicado em um site de notícias ucraniano. O portal atribuiu posteriormente a ação a hackers.
Ainda que haja uma série de falhas técnicas que permitem identificar deepfakes atualmente, o potencial de aprimoramento automático do mecanismo pode se tornar um desafio. Como a ferramenta se força a gerar vídeos sempre em qualidade superior aos anteriores, as deepfakes podem se tornar, com o tempo, mais realistas e mais potencialmente enganosas.
Discriminação e questões éticas. Para além da desinformação, ferramentas de IA generativa também têm sido usadas para disseminar preconceitos. Em janeiro, por exemplo, uma plataforma de áudio foi usada para fazer comentários racistas e homofóbicos com a voz de celebridades. Em 2016, um sistema da Microsoft saiu do ar após usuários ensinarem à IA informações racistas e sexistas.
“Algoritmos discriminam por excelência — essa é a função dele. Ao categorizar, ele discrimina no sentido literal do verbo, de separar uma coisa da outra. A questão é que existem formas de categorizar que são moralmente condenáveis e outras não”, explicou a socióloga Letícia Simões-Gomes, que estuda viés algorítmico no contexto da segurança pública, em entrevista recente à Folha de S.Paulo.
Também há uma discussão sobre direitos autorais. As empresas criadoras de ferramentas de imagem, por exemplo, foram acusadas de treinar os algoritmos com obras de arte sem o consentimento de seus criadores. Em decisão recente, o Escritório de Direitos Autorais dos Estados Unidos sinalizou que nem todas as obras produzidas por IA estão protegidas por direitos autorais. No Brasil, o Inpi (Instituto Nacional da Propriedade Industrial) se manifestou contra a indicação de IAs como inventoras em pedidos de patente.
A geração de textos, imagens e vídeos inéditos também abre margem para que o conteúdo criado seja usado para fins escusos, como o aprimoramento de programas maliciosos por hackers e ações de lobby.
4) COMO IDENTIFICAR CONTEÚDOS GERADOS POR IA?
Ainda que produzam conteúdos que, ao menos à primeira vista, parecem autênticos, as ferramentas de IA Generativa reproduzem algumas falhas que podem ajudar a atestar sua inautenticidade.
Textos gerados artificialmente costumam repetir palavras, possuir parágrafos demasiadamente longos ou apresentar problemas com fontes bibliográficas, que podem estar ausentes ou serem inseridas em contextos que não fazem sentido. Em alguns casos, também é possível que as ferramentas citem fontes e informações que não existem; por isso, vale checar cada um dos dados citados.
No caso de imagens, tanto Sartori quanto Lattari apontaram que as orelhas, mãos e rostos são elementos que as ferramentas ainda têm dificuldade em reproduzir. Por isso, é importante observar algumas características:
- Rostos borrados, semelhantes entre si ou com aspecto plastificado;
- Orelhas com formatos muito diferentes do rosto;
- Mãos com um número incorreto de dedos ou formatos anatômicos estranhos;
- Membros, como braços, com tamanhos diferentes.
Nas imagens falsas do ex-presidente americano Donald Trump, por exemplo, é possível ver que os rostos estão borrados, um policial tem uma mão em formato de garra, Trump tem um dos braços menor do que o outro e os policiais em perseguição aparecem olhando para uma direção diferente da do ex-presidente.
Para identificar deepfakes, Sartori sugere observar a nitidez do rosto, a sincronização das falas e as sombras e as cores do vídeo. Segundo ele, as orelhas também são mantidas durante o processo de criação — ou seja, um rosto inserido em outro corpo terá orelhas diferentes da original. Já Lattari aponta que esse tipo de adulteração pode gerar problemas na textura e na tonalidade da pele, já que nem sempre a cor da região central do rosto coincide com a do restante da cabeça.
Há ainda programas que prometem identificar de maneira automática conteúdos criados por IA, como o AI detector, o GPTZero, o Originality.ai e o Mayachitra. As plataformas, no entanto, ainda não são 100% confiáveis.
É importante ressaltar que o aprimoramento constante dessas ferramentas pode fazer com que algumas dicas atuais sejam obsoletas no futuro. Por isso, “permanece a máxima de sempre pesquisar em outras fontes quando algum conteúdo incomum aparecer na internet e, em muitos casos, esperar antes de compartilhar algo duvidoso”, aconselha Lattari.