Méuri Elle/ Aos Fatos

Redes prometem fazer nada mais que o mínimo durante eleições

Por Tai Nalon

26 de janeiro de 2024, 14h24

Aviso: este texto é uma análise e foi publicado originalmente na newsletter O Digital Disfuncional.


Assine de graça e receba análises exclusivas.


#24 | 🤏 Nada mais que o mínimo

Ainda que plataformas e representantes de partidos políticos tenham sinalizado, em audiência pública realizada pelo TSE (Tribunal Superior Eleitoral) nesta quinta-feira (25), até onde pretendem atuar para coibir ilegalidades em propagandas eleitorais, ainda há um longo caminho para entender se haverá mudanças em suas relações com a Justiça Eleitoral. Esse caminho passa por Washington, Nova Délhi e Jacarta — para ficar nas capitais de países cujo tamanho do eleitorado é mais eloquente.

As mais de 70 eleições deste ano impõem às plataformas caminhos mais ou menos uniformes para combater ilegalidades, já que, com equipes de integridade esfaceladas por demissões e interpretação criativa sobre o que é liberdade de expressão, é difícil acreditar que haverá estratégias ajustadas sob medida para as diversas realidades locais. O mais provável é que haja uma operação-padrão por parte das empresas — uma atuação limitada a procedimentos estabelecidos pelas matrizes.

Exemplo disso é que, na semana passada, o TikTok lançou uma ofensiva de relações públicas dizendo que, “com mais de 2 bilhões de pessoas” indo às eleições neste ano, fez parcerias com “17 organizações de checagem de fatos”. De acordo com a plataforma, 17 parceiros têm a capacidade de cobrir 60 mercados e mais de 50 idiomas. Sei lá, poderia ser pior.

A OpenAI, por sua vez, também anunciou que “trabalha para antecipar e prevenir abusos”, impedindo que suas ferramentas de inteligência artificial criem, entre outras possibilidades de enganação, personalização para campanhas políticas e lobby. Resta saber para quais idiomas essa regra vale — no Brasil, o ChatGPT não viu problemas em afirmar, num panfleto gerado artificialmente a pedido deste Digital Disfuncional, que o ex-presidente Jair Bolsonaro considera importante respeitar instituições democráticas, “o Congresso Nacional e o Supremo Tribunal Federal”.

Leia mais
BIPE Com eleições e ‘PL das Fake News’ estagnado, regulação de IA ganha força para 2024

Enquanto isso, em Brasília, as cerca de 3h30 da audiência pública foram tomadas por discussões sobre qual a medida da responsabilidade de campanhas e plataformas sobre publicações (e mentiras) sintéticas. Para O Digital Disfuncional, a repórter do Aos Fatos Ethel Rudnitzki narrou a audiência pública desta quinta-feira. Veja abaixo:


O principal tema de discussão foi em torno do artigo 9ºB da minuta, que propõe a sinalização de conteúdos eleitorais gerados por inteligência artificial. De representantes de plataformas a integrantes da sociedade civil, os expositores elogiaram a medida, mas discordaram a respeito da maneira que ela deve ser aplicada.

A representante do YouTube Brasil, Alana Rizzo, sugeriu que fosse acrescentado um parágrafo explicitando que a responsabilidade de sinalização de conteúdo manipulado seja do anunciante, não das plataformas.

“Destacamos que a sugestão também busca adequar a regra eleitoral ao regime de responsabilização previsto no Marco Civil, segundo o qual incide responsabilidade das plataformas apenas quando há o descumprimento da ordem judicial”, disse.

Rodrigo Ruf, representante da Meta, e Taís Cristina Tesser, do Google, pediram alterações nas regras que tratam do período de veiculação de anúncios, deixando a cargo dos anunciantes a desativação de seus impulsionamentos nesse período.

“Qualquer mudança que pretenda alterar o regime de responsabilidade atribuída aos anunciantes, no caso eleitoral, aos partidos, candidatos, candidatas, coligações e federações, avançaria contra o regime legal da lei das eleições e fora do espaço democrático de deliberação”, disse a representante do Google.

A Meta também pediu mudanças nos requisitos para decisões de remoção de conteúdo desinformativo vindas do TSE, entre elas a inclusão de precedentes jurídicos para remoção de conteúdos idênticos e explicitação de URLs.

Por outro lado, representantes da sociedade civil cobraram maior transparência das plataformas em anúncios nelas veiculados, com a criação e atualização permanente de Bibliotecas de Anúncios.

A representante do Internet Lab, Heloisa Massaro, sugeriu que as exigências de transparência em anúncios políticos sejam estendidas também ao período de pré-campanha. Paloma Rocilo, do Iris (Instituto de Referência em Internet e Sociedade), propôs que os provedores devem fornecer ferramentas para sinalização de conteúdo manipulado em anúncios.

Maria Paula Almada, do Alafia Lab, defendeu a abertura de mais dados sobre anúncios políticos nas bibliotecas, entre elas a disponibilização, para consulta. de conteúdos excluídos por anunciantes ou por decisão judicial, além de informações sobre a segmentação de público de cada anúncio. “Nossa preocupação se refere ao impulsionamento de desinformação, discurso de ódio e violência nesses espaços. Nesse sentido, a transparência dos anúncios é primordial para o monitoramento e, eventualmente, a responsabilização de possíveis ilícitos”, disse.

Além da responsabilização das plataformas, outros participantes também levantaram a necessidade de regulamentação da atividade de influenciadores digitais durante a campanha e de maior explicação sobre as regras de uso de conteúdos de lives de candidatos.

Participaram da audiência mais de 30 representantes de instituições e cidadãos, entre eles:

  • Representantes das plataformas Meta — responsável por Facebook, Instagram e WhatsApp — Google e YouTube;
  • Dos partidos políticos PT e PSDB;
  • De associações de empresas de comunicação;
  • E de organizações da sociedade civil que tratam de dados pessoais e direito digital.
Leia mais
WHATSAPP Inscreva-se no nosso canal e receba as nossas checagens e reportagens
Topo

Usamos cookies e tecnologias semelhantes de acordo com a nossa Política de Privacidade. Ao continuar navegando, você concordará com estas condições.