Nos primeiros seis meses de 2024, a Justiça Eleitoral julgou 43 ações relacionadas ao uso de inteligência artificial na pré-campanha — e, em 14 dos casos analisados (32%), o uso da tecnologia foi considerado irregular. É o que revela um levantamento inédito, realizado por Aos Fatos em parceria com ICL Notícias e o Clip (Centro Latinoamericano de Investigação Jornalística).
Os resultados obtidos sinalizam um cenário arriscado para as eleições de outubro, as primeiras em que o uso da IA generativa está disseminado. E mostram que as regras instituídas em fevereiro pelo TSE (Tribunal Superior Eleitoral) para o uso de IA esbarram em limitações práticas, como a falta de jurisprudência consolidada e a dificuldade dos juízes eleitorais para lidar com o tema da tecnologia.
O levantamento foi feito no Diário da Justiça Eletrônico de todos os Tribunais Regionais Eleitorais do país, por meio de palavras-chave.
A pesquisa integra o projeto “Os Ilusionistas”, uma aliança jornalística na qual repórteres e pesquisadores digitais de 15 organizações e veículos de mídia latino-americanos investigam, de forma colaborativa, a circulação de informações falsas e a manipulação de conversas públicas na mídia digital, durante este “super ano eleitoral” de 2024 na América Latina.
- Em 16 dos processos, a decisão mencionou a IA em sua argumentação;
- Em 14 deles, o uso da tecnologia foi considerado irregular;
- Resultados consideram tanto liminares como decisões de julgamento de mérito.
Apesar de reunir cerca de um terço dos municípios que vão às urnas em outubro, a região Nordeste responde até agora por mais da metade das ações identificadas no levantamento (23 das 43). Entre os estados, os campeões de casos são Pernambuco e Rio de Janeiro, com oito ações cada.
Por ser um tema novo, recém-incorporado na legislação, o uso da IA na propaganda política ainda não chegou às últimas instâncias da Justiça Eleitoral. O levantamento mostra também que a falta de jurisprudência tem resultado em interpretações por vezes contraditórias da lei.
“A gente não tem uma linha de conduta ainda muito clara. A gente não tem sequer doutrina, um material escrito e pesquisadores já consolidados; menos ainda decisões judiciais. Esse é um problema com o qual nós vamos ter que nos deparar”, avalia o subprocurador-geral da República Elton Ghersel, coordenador do Genafe (Grupo Executivo Nacional da Função Eleitoral).
A inexperiência dos juristas contrasta com a urgência de encarar o tema, já que as eleições municipais de outubro serão as primeiras após a popularização das ferramentas de IA generativa.
"Nossa expectativa, infelizmente, é que a utilização de inteligência artificial e a produção de conteúdos falsos vão ser amplamente utilizados na campanha eleitoral”, prevê Ghersel. “Precisamos estar preparados para tentar, com a maior celeridade possível e quando for possível, retirar esses conteúdos do ar e punir os responsáveis”.
A resolução nº 23.732/2024 do TSE não proíbe o uso da IA na propaganda política como um todo, mas diz que as peças que adotarem o recurso precisam informar que o conteúdo foi manipulado e qual a tecnologia utilizada.
A nova regra barra explicitamente a utilização “de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral”.
O foco do texto é o combate às deepfakes, incluindo áudios, vídeos ou qualquer material “gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia”. Também não é permitido o uso de chatbots que simulem, com a IA, que o eleitor está conversando com uma pessoa real.
Barreira tecnológica
A análise das decisões da Justiça Eleitoral indica que apenas a resolução do TSE não é suficiente. Sem referências jurídicas sobre IA, parte dos juízes tentou evitar o assunto. Muitos ignoraram o uso da tecnologia e focaram sua argumentação em outras irregularidades atribuídas à propaganda eleitoral, como a presença de pedido de votos ou ofensas à honra dos alvos.
Já quem resolveu encarar o tema esbarrou nas incertezas geradas pela falta de perícias para identificar o uso da IA. Tanto a demora como a incerteza são incompatíveis com a necessária velocidade da Justiça Eleitoral contra propaganda política irregular, na avaliação de especialistas que falaram à reportagem.
“É um desafio para os juízes reconhecerem que as mídias divulgadas foram produzidas ou não com o auxílio da inteligência artificial, seja pela ausência de conhecimento técnico a respeito dessas novas ferramentas, seja pela dificuldade em promover perícias”, observa o advogado eleitoralista Carlos Sérgio de Carvalho Barros, que atua em processos de propaganda envolvendo IA no Maranhão.
O desafio tecnológico pode ser visto em um dos primeiros julgamentos do país sobre o tema, no qual um dos pré-candidatos na disputa no município de Costa Rica (MS) foi multado por divulgar um vídeo sobre o prefeito da cidade, Cleverson Alves dos Santos (PP).
A ação foi apresentada pelo Partido Progressista após o funcionário de um pré-candidato ter compartilhado, em um grupo de WhatsApp, uma montagem rudimentar em vídeo, sem sincronização entre áudio e imagens, que o partido alegou ter sido feita com IA, para atacar o prefeito.
“Preffake compara população de Costa Rica igual a cachorro de rua”, diz texto em amarelo inserido sobre o vídeo, acompanhado por um áudio com a voz do prefeito: “Aquele povo ali gente é igual cachorro que corre atrás de carro. O carro tá correndo e ele tá atrás latindo”.
Apesar da alegação do uso de IA, Kleber Coelho, advogado do PP, contou à reportagem que, devido à urgência, não foi possível fazer perícia prévia no conteúdo. O caso foi levado à Justiça sem indicar como a montagem foi produzida.
Coelho disse que o áudio é verdadeiro, mas foi editado e tirado de contexto para insinuar que o prefeito estaria atacando a população da cidade. “As imagens são da campanha de 2020, e o áudio é a voz do prefeito efetivamente, por isso, leva a pessoa ao erro. Mas ele não falou aquilo em 2020. O áudio é de outro momento em que o prefeito estava falando do grupo opositor”, explica o advogado. “É uma montagem tosca”, avalia.
Ao analisar o caso, a juíza Laisa Ferneda atribuiu a semelhança entre o áudio e a voz do prefeito ao uso da tecnologia. “A voz sobreposta é do próprio atingido (ou se assemelha muito), o que denota o uso da inteligência artificial para manipulação", diz a sentença, apesar da falta de provas corroborando a alegação.
“É caso típico de malversação da tecnologia mediante Deep Fake, ou seja, sobreposição de voz em vídeo, ainda que sem a fineza da plena sincronia labial (se cuidadosamente observado o vídeo), mas com potencial claro de confundir e induzir em erro”, justificou a juíza.
A dificuldade verificada no caso da cidade de Costa Rica é reconhecida pelo coordenador do Genafe. “O pessoal da TI e da comunicação é muito mais versado em compreender esse fenômeno da tecnologia do que as pessoas do mundo jurídico”, admite. “Certamente alguns erros vão ser cometidos nesse processo, pra mais e pra menos, até que se consiga definir uma linha de equilíbrio”, complementa.
Como detectar áudios falsos?
Ao contrário do que sugere o procurador, o próprio setor tecnológico enfrenta dificuldades para lidar com a desinformação gerada por IA. O motivo é a falta de métodos 100% confiáveis de detecção da manipulação.
“É uma espécie de ‘corrida armamentista’ entre quem produz deepfake e quem cria ferramentas para detectá-las”, compara Lucas Lattari, doutor em ciência da computação e professor do Instituto Federal do Sudeste de Minas Gerais.
Lattari considera que as limitações da perícia técnica são maiores quando o conteúdo artificial é propagado na forma de som, formato que considera “bem mais convincente”, especialmente se os áudios “forem curtos e de baixa qualidade para confundir”.
“O que facilita a perícia em relação à imagem é a margem de manobra, pois pixels te dão bem mais pistas de manipulação”, diz Lattari, lembrando que também os metadados dos arquivos podem trazer indícios para análise, como a lente da câmera usada, a data do registro e a localização geográfica de onde a imagem foi feita, se o falsificador não for cuidadoso.
“No caso de áudio é bem mais difícil, pois sinal sonoro não dá tantas pistas visuais com relação aos pixels. Mesmo para peritos, é um trabalho árduo e que depende de softwares de análise complexos que, sozinhos, não dão as respostas”, afirma.
Nem tudo é deepfake
A confusão entre o que é deepfake e o que é apenas um conteúdo gerado por IA se mostrou comum na análise das ações identificadas pelo levantamento. A fronteira entre os dois conceitos “é justamente o potencial de engano da população”, explica o procurador que coordena o Genafe, lembrando que a tecnologia também pode ser usada para criar sátiras.
A necessidade de que a montagem feita com IA apresente “fatos notoriamente inverídicos ou contextualizados” foi o argumento usado no julgamento que considerou regular um vídeo divulgado pela deputada federal e pré-candidata Tabata Amaral (PSB) no qual o prefeito de São Paulo, Ricardo Nunes (MDB), teve seu rosto inserido digitalmente no personagem Ken, do filme Barbie. A montagem fazia um trocadilho com o termo “Quem?”, tentando passar a ideia de que Nunes seria desconhecido pela população da capital que governa.
“Claramente se vê que se trata de montagem desprimorosa, incapaz de levar qualquer visualizador a erro, dado o uso de recursos rudimentares para a realização da sobreposição de imagem”, argumenta a decisão, que descartou ter havido exposição vexatória do prefeito. “Até porque a montagem é feita em sobreposição a um personagem bem aceito mundialmente, que não figura como um vilão, bandido, ou uma figura desprovida de bons valores e caráter duvidoso”, diz o texto. A defesa de Nunes recorreu, mas a decisão foi mantida.
Discussão parecida esteve presente em julgamento envolvendo a disputa no município de Tutoia (MA), onde o PDT entrou com ação contra um vídeo que apresentava a âncora do Jornal da Globo, Renata Lo Prete. Um áudio de baixa qualidade técnica foi inserido digitalmente no lugar da fala da apresentadora para introduzir uma suposta notícia sobre o prefeito local, Raimundo Nonato Abraão Baquil (PDT), pré-candidato à reeleição. Na sequência, aparecem imagens de cortes de um depoimento verdadeiro que o político deu à Justiça.
O juízo da 40ª Zona Eleitoral entendeu que, por ter circulado apenas em grupo de WhatsApp, o caso não era de propaganda política. A própria decisão, porém, se refere à peça como deepfake. “No caso, a divulgação dessa deepfake, no mínimo, gera controvérsias, sem poder afirmar esta Justiça Especializada, com precisão, que são informações sabidamente inverídicas pelo meio virtual divulgador”, diz o texto.
“É perceptível que o juiz não tem segurança ao fazer um juízo de valor se o vídeo é ou não uma deepfake”, critica o advogado Benno Caldas, envolvido no processo, que aguarda julgamento de recurso.
Já na Grande São Paulo, o tribunal decidiu multar o prefeito de Guarulhos, Gustavo Henric Costa, por ter difundido um vídeo feito com IA no qual ele aparece sobre um palco, como um rockstar, em frente a uma multidão que grita “fora PT”.
O vídeo não foi considerado deepfake pela decisão — que, ainda assim, o considerou irregular. “A manipulação da imagem por inteligência artificial no vídeo postado, em que a figura do representado é inserida em um palco de show com plateia, é evidente ante as falhas de imagem características do uso desta ferramenta. Todavia, não existe informação explícita e destacada de que o conteúdo foi manipulado, nem da tecnologia utilizada”, justificou o juiz eleitoral Gilberto Azevedo de Moraes Costa.
Lembrada no julgamento de Guarulhos e prevista na resolução do TSE, a exigência de que o uso da IA precisa ser informado com destaque havia sido ignorada tanto pela decisão do Maranhão como pela montagem com o prefeito de São Paulo.
O advogado Bruno Cesar de Caires, que representou o PT no caso de Guarulhos, concorda com a avaliação de que o conteúdo não é uma deepfake. “Deepfake, na minha interpretação, é manipular com a finalidade de distorcer a realidade”, diz.
Da sátira ao discurso de ódio
Muitas das ações que estão mobilizando os recursos da Justiça Eleitoral hoje têm como alvo combater peças humorísticas, com prefeitos colocados para fazer “dancinhas”, por exemplo.
Caso se repita no Brasil o que se passou nas eleições deste ano na Índia — onde a IA foi mais usada para “trollagem” que para desinformação — não é possível descartar o risco de sobrecarga dos tribunais. Uma enxurrada de processos poderia dificultar não apenas o combate à desinformação política, mas também à propagação de discurso de ódio contra minorias durante a campanha com o uso de IA.
Essa situação já é uma realidade no município de São Pedro da Aldeia (RJ), onde o PL entrou com ação depois que, no dia 15 de maio, o prefeito da cidade e pré-candidato à reeleição, Fábio do Pastel, foi alvo de um vídeo com cunho sexual e ofensivo.
O partido se descreveu ao Judiciário como “surpreendido com postagens em grupos de WhatsApp e rede social Facebook de montagens com a utilização de inteligência artificial”. Em seguida, apresentou prints de um perfil onde o vídeo foi publicado e de um grupo com 7,9 mil membros.
A defesa do partido, porém, não juntou provas do uso da inteligência artificial em si, apenas descreveu o conteúdo agressivo do vídeo. Ao analisar o caso, a juíza Anna Karina Francisconi considerou que o conteúdo era, de fato, lesivo, determinou a derrubada das postagens mais multa de R$ 10 mil em caso de descumprimento. A magistrada, porém, não levou em consideração o uso do recurso de inteligência artificial.
Cobrança por regulação
Para o pesquisador na área de sociologia digital Leonardo Nascimento, professor da UFBA (Universidade Federal da Bahia), o combate à desinformação gerada por IA poderia ser reforçado pela aprovação de novos marcos regulatórios, cujo debate está travado no Congresso.
“O processo de polarização no Brasil paralisou as ações nesse sentido. Todos os PLs, toda discussão sobre esse assunto acabam sendo alvo de disputas políticas e questionamentos sobre liberdade de expressão. Um debate que deveria ser sobretudo técnico não consegue avançar”, critica Nascimento.
“Diante de tudo que aconteceu em 2018 com o WhatsApp e do que tentaram fazer com o Telegram em 2022, esse seria o momento de a gente estar vendo ações concretas para regular a inteligência artificial e tomar decisões importantes”, avalia.
Em abril, o presidente da Câmara dos Deputados, Arthur Lira (PP-AL) anunciou a criação de um grupo de trabalho para rediscutir o “PL das Fake News” (PL 2.630/2020), após constatar com as lideranças da Casa que o relatório apresentado em 2023 pelo deputado Orlando Silva (PC do B-SP) não teria condições de ser aprovado.
O texto havia sido alvo de forte pressão das big techs e de uma campanha de desinformação, que deturpou seu propósito para atribuir a ele uma suposta intenção de “censurar” as redes.
A mesma distorção aconteceu em julho deste ano, na discussão da regulação da IA (PL 2.338/2023), cuja votação já foi adiada várias vezes pela comissão especial do Senado que analisa o tema.
O caminho da apuração
Esta reportagem foi produzida com auxílio de inteligência artificial: foi criado um robô para fazer o download dos Diários da Justiça eletrônicos de todos os Tribunais Regionais Eleitorais, a partir de palavras-chave definidas previamente pelos jornalistas. O mecanismo extraía o texto dos PDFs e identificava decisões que poderiam ter relação com a IA, informando a página em que se encontravam as palavras-chaves.
O levantamento gerou uma tabela preenchida, que passou por revisão manual, para descartar falsos positivos. Os dados restantes, com a listagem dos processos, foram analisados pela reportagem. Também procuramos advogados envolvidos nos casos para obter mais detalhes e consultamos especialistas para avaliar os resultados do levantamento.
Uma investigação jornalística que busca desvendar a desinformação política no “super ano eleitoral” de 2024 na América Latina. Liderado pelo Centro Latino-americano de Investigação Jornalística (CLIP) em aliança com ICL Notícias, Aos Fatos e Intercept (Brasil), El Faro (El Salvador), Lab Ciudadano (Honduras), Animal Político e Mexicanos Contra la Corrupción (México), La Prensa e Foco Panamá (Panamá), IDL Reporteros e Ojo Público (Perú), Diario Libre (República Dominicana), El Observador (Uruguai), Fake News Hunters, Cocuyo Effect, ProBox, C-Informa e Medianalisis (Venezuela).