🕐 ESTA REPORTAGEM FOI PUBLICADA EM Novembro de 2023. INFORMAÇÕES CONTIDAS NESTE TEXTO PODEM ESTAR DESATUALIZADAS OU TEREM MUDADO.

Impacto da IA generativa nas eleições de 2024 é real, mas pode ser menor que o alardeado

Por Tai Nalon

10 de novembro de 2023, 15h59

Aviso: este texto é uma análise e foi publicado originalmente na newsletter O Digital Disfuncional.

#15 | 🤖 Como malcriar seu robô

Desenvolvedores de novos modelos de inteligência artificial generativa monopolizaram o noticiário deste ano de tal forma que, seja quais forem as consequências da popularização dessa tecnologia, devem lucrar com a miséria e com a glória desse novo cenário. As possibilidades, para o bem e para o mal, são infinitas. E, com a proximidade das 70 eleições de 2024, multiplicam-se as predições sobre como o mundo será novamente engolido por deepfakes e conversas manipuladas, desta vez auxiliadas por robôs, e não por trolls hospedados na Macedônia.

O que me traz a esse assunto, entretanto, é a urgência de não amplificar a mística em torno das capacidades desse tipo de tecnologia. Existem motivações econômicas para vender o fim do mundo, da mesma maneira que há experiências positivas na contenção de danos visíveis – a FátimaGPT, chatbot do Aos Fatos, é um exemplo.

Antes de tudo, eu sugeriria cautela aos vendedores de guarda-chuva que torcem pela tempestade – todos eles podem ser levados pela enxurrada. Por isso, é necessário entender quais as capacidades e as limitações desse tipo de tecnologia.

  • Campanhas de desinformação empregadas por IA a partir de imagens podem ser empreendidas a partir de duas técnicas diferentes: GANs (generative adversarial networks, algo como redes generativas adversárias) e modelos generativos text-to-image, ou de texto para imagem. A primeira é frequentemente usada para forjar fotos de pessoas que não existem, artifício comum em operações de influência. A segunda é a que usa comandos em texto – prompt, no jargão dos techies – para gerar imagens sob medida. São tecnicamente mais difíceis de diferenciar da realidade os modelos de texto para imagens do que os GANs;

  • Operações feitas com vídeos gerados por IA podem conjugar avatares forjados de pessoas influentes, como apresentadores de telejornais, com tecnologia que converte texto em voz, para disseminar informações enganosas;

Desinformação disseminada a partir de textos gerados por IA podem ser resultado da falta de limitações éticas empregadas no desenvolvimento de, por exemplo, chatbots. Conforme o Washington Post reportou em agosto, o ChatGPT foi capaz de gerar instantaneamente mensagens para campanhas políticas ao receber instruções como "escreva uma mensagem para uma mulher suburbana na faixa dos 40 anos de idade para votar em Donald Trump" e "Construa um cenário para convencer um habitante de uma área urbana na faixa dos 20 anos de idade para votar em Joe Biden". Uma das respostas afirmava que Trump defendia "um ambiente seguro para a família".


Primeira vez por aqui? Assine de graça O Digital Disfuncional e receba análises exclusivas e bastidores sobre a relação entre a tecnologia e a política.


Pesquisadores da Mandiant, start-up especializada em cibersegurança vinculada ao Google, sistematizaram as possibilidades de uso da inteligência artificial em operações de influência. Aplicadas a imagens, vídeos, textos e áudios, essas ações serão eficientes na medida que geram respostas emocionais de acordo com o que a campanha de desinformação propõe.

"Acreditamos que imagens e vídeos gerados por inteligência artificial têm maior probabilidade de serem empregados a curto prazo; e embora ainda não tenhamos observado operações usando modelos de linguagem grandes, presumimos que há potencial para sua rápida adoção", dizem.

Os pesquisadores listaram uma série de episódios em que modelos de inteligência artificial foram aplicadas a campanhas de desinformação.

  • Em maio de 2023, índices de bolsas de valores nos Estados Unidos caíram brevemente depois que contas no Twitter, incluindo a da agência de mídia estatal russa RT e o perfil @BloombergFeed, que se passava por uma conta associada ao grupo de mídia Bloomberg, compartilharam uma imagem gerada por inteligência artificial retratando uma explosão nas proximidades do Pentágono. A explosão não havia acontecido;

  • Em março de 2022, após a invasão russa à Ucrânia, uma campanha de desinformação nas redes promoveu uma mensagem fabricada alegando a capitulação ucraniana para a Rússia. Parte da operação incluía um vídeo deepfake do presidente da Ucrânia, Volodymyr Zelensky;

  • Reportagens mostraram neste ano que criminosos desenvolveram uma ferramenta de inteligência artificial generativa chamada WormGPT que permite criar mensagens que simulam e-mails corporativos de maneira quase autêntica com o objetivo de aplicar golpes financeiros. A IA não só escreve mensagens phishing, que capturam ilegalmente dados de usuários, mas também cria os próprios códigos de malware usados para aplicar golpes em seus destinatários.

Em artigo publicado no site Tech Policy Press em outubro, o jornalista Tom Di Fonzo narra as possibilidades de uso de inteligência artificial, especialmente a generativa, durante campanhas eleitorais num futuro próximo. "A Rússia foi pioneira em operações de influência com fazendas de trolls espalhando desinformação. Esta nova onda de inteligência artificial tem o potencial de fabricar mensagens precisamente direcionadas em uma escala sem precedentes, tornando a revisão humana impraticável. Ao mesmo tempo, empresas de tecnologia como X (anteriormente Twitter), Meta e YouTube estão reduzindo a moderação de conteúdo, o que poderia facilitar ainda mais a disseminação de desinformação", diz.

Dentre as possibilidades de uso de inteligência artificial em eleições, o artigo traça um cenário pessimista sobre o uso de chatbots para desinformar. Porque a inteligência artificial generativa aprende com as interações de cada usuário, seria possível, a partir de dados coletados em conversas pretéritas, criar chatbots microdirecionados, ou seja, voltados a públicos muito específicos.

O microdirecionamento não é uma tática nova, mas ganhou notoriedade com o escândalo da Cambridge Analytica a reboque das eleições presidenciais nos EUA em 2016. Essa mecânica seria uma evolução da maneira com a qual a consultoria trabalhou àquela época, apoiando-se nas fórmulas persuasivas sobre as quais sabemos que a desinformação viceja: ao compreender o perfil de afinidades do usuário, a IA do chatbot envia mensagens com informações, falsas ou verdadeiras, de acordo com seus vieses de confirmação.

Eu disse algumas vezes que basta muito pouco para que pessoas já inclinadas a acreditar em determinadas narrativas, sejam elas verdadeiras ou não, caírem em desinformação. Sou cética em relação ao apocalipse das deepfakes porque mentiras pouco sofisticadas já afetam de forma convincente a realidade compartilhada. Porém, o que parece mais provável é que o aperfeiçoamento dessas técnicas vem para manter e calcificar essa grande divisão social que dura quase uma década.

À Tech Policy Press, o especialista em cibersegurança Bruce Schneier diz não acreditar que é possível ampliar ainda mais a polarização, mesmo com a escalada no volume de desinformação produzida por essas tecnologias. Com um tribalismo político já exacerbado, segundo ele, conteúdos fabricados por inteligência artificial têm o potencial de adicionar mais combustível a um fogaréu que já tem grandes proporções.

O que salta aos olhos é que os patrocinadores de uma realidade cindida ao meio por mentiras fabricadas por inteligência artificial são os mesmos que correm para fabricar vacinas para o problema. Nada mais antigo que isso, na verdade. A start-up Madiant, que pesquisou várias informações sobre campanhas de desinformação mediadas por IA, foi comprada pelo Google em setembro de 2022 – antes do boom dos modelos GPT. Ela oferece soluções tecnológicas para intercorrências que a própria gigante digital tem a capacidade de gerar.

Em um artigo publicado em 2019 em seu próprio site, a OpenAI, empresa desenvolvedora do ChatGPT, afirmou que "se as empresas respondem às pressões competitivas lançando uma tecnologia no mercado antes que ela seja considerada segura, elas se encontrarão em um problema coletivo". "Desenvolvedores 'cooperam' não deixando de competir, mas tomando as precauções de segurança adequadas, e são mais propensos a fazer isso se estiverem confiantes de que seus concorrentes farão o mesmo", disse também.

Nesta sexta-feira (10), pedi para a versão básica do ChatGPT gerar uma mensagem que explicasse a preocupação do ex-presidente Jair Bolsonaro com as ameaças à democracia, como se falasse a um potencial eleitor de 50 anos de idade. O robô me respondeu que "Jair Bolsonaro destaca a importância do respeito às instituições democráticas, como o Congresso Nacional e o Supremo Tribunal Federal, reconhecendo o papel essencial que desempenham em nosso sistema político". E assim seguimos rumo a 2024.

Topo

Usamos cookies e tecnologias semelhantes de acordo com a nossa Política de Privacidade. Ao continuar navegando, você concordará com estas condições.