Com eleições e ‘PL das Fake News’ estagnado, regulação de IA ganha força para 2024

Compartilhe

Com o impasse que travou a tramitação do “PL das Fake News” (PL 2.630/2020) completando oito meses, o presidente da Câmara dos Deputados, Arthur Lira (PP-AL), estuda passar na frente uma parte da discussão sobre a regulação do uso de modelos de inteligência artificial. O objetivo é tentar impedir a proliferação de deep fakes — fotos, vídeos ou áudios falsos, gerados com o auxílio da tecnologia — durante as eleições municipais de 2024.

Lira declarou a interlocutores seu desejo de antecipar o debate sobre a regulação das IAs, segundo publicaram os jornais Folha de S.Paulo e O Globo. Entretanto, para que o intento se concretize, seria necessário encontrar uma fórmula consensual com pouco tempo de discussão sobre o tema — uma meta ousada, dado o histórico de impasses no Congresso sobre a regulação das plataformas digitais.

A regulação de IA é discutida no Senado desde agosto, quando foi instalada a CTIA (Comissão Temporária Interna sobre Inteligência Artificial). O uso da tecnologia nas eleições, porém, não está no centro da atenção dos senadores, cujo foco é estabelecer os princípios gerais da regulação, conforme o Aos Fatos mostrou em outubro.

Especificamente sobre as deep fakes eleitorais, existem pelo menos quatro projetos em tramitação na Câmara dos Deputados. Todos, porém, foram apresentados em 2023 e ainda não tiveram tempo de ser debatidos:

  • O PL 1.002/2023, do deputado Kim Kataguiri (União-SP), que tramita desde março;
  • Os PLs 5.241/2023 e 5.242/2023, apresentados em outubro pelo deputado Rafael Brito (MDB-AL);
  • E o PL 5.931/2023, proposto pelo deputado Carlos Chiodini (MDB-SC) no dia 7 de dezembro;

Com diferentes graus de detalhamento, esses projetos têm como objetivo geral transformar em um crime específico o ato de criar e distribuir deep fakes no período das eleições, prevendo punições como detenção e multa para quem descumprir a regra.

Os quatro PLs tramitam junto a uma série de outras propostas que tratam do combate à desinformação e a falsas promessas em campanhas eleitorais. Todos estão apensados ao PL 3.453/2004, que quase não avançou na Câmara apesar de estar em tramitação há praticamente dez anos.

A desinformação eleitoral é considerada um tema polêmico pelos parlamentares, o que pode dificultar uma aprovação rápida da matéria. Ao menos foi essa a justificativa apresentada pelo relator da minirreforma eleitoral, deputado Rubens Pereira Júnior (PT-MA), quando optou por não incluir o tema no projeto que estava em discussão na Câmara.

Rubens Júnior respondia a uma sugestão do relator do “PL das Fake News”, Orlando Silva (PC do B-SP), que queria transferir para a minirreforma eleitoral o trecho do PL 2.630/2020 que prevê punição para candidatos que fizerem uso indevido das plataformas digitais durante a campanha eleitoral.

Leia mais
Investigamos Marqueteiros vendem serviços de IA para eleições de 2024 em anúncios no Facebook

Mesmo deixando de fora questões controversas, a minirreforma eleitoral aprovada pela Câmara não conseguiu passar pelo Senado a tempo de valer para as eleições de 2024. Isso porque a Constituição determina que uma lei que mude o processo eleitoral só é válida para o pleito seguinte se for aprovada ao menos um ano antes da data em que a população deve comparecer às urnas — no caso das eleições de 2024, o prazo se encerrou em 5 de outubro.

Como os quatro projetos de lei sobre deep fakes em tramitação alteram ou o Código Eleitoral ou a Lei das Eleições, eles dificilmente valeriam para as eleições de 2024, ainda que sejam discutidos e aprovados com celeridade. Como o Aos Fatos mostrou em outubro, apenas mudanças apresentadas via emendas constitucionais poderiam contornar essa regra.

O objetivo de Lira em querer debater as deep fakes eleitorais na Câmara é tentar evitar que a regulação do tema fique sob a responsabilidade da Justiça Eleitoral, o que deve ocorrer caso o Congresso não encontre uma solução a tempo.

DEBATE TRAVADO

Quando sugeriu que a minirreforma eleitoral abordasse uso indevido das plataformas digitais durante as campanhas, Orlando Silva tinha entre seus objetivos tornar mais leve o “PL das Fake News”. A expectativa era que, fatiando o projeto, ficaria mais fácil sair do impasse em que ele entrou.

Em sua última versão, o “PL das Fake News” cria uma série de regras para as plataformas digitais, como a exigência de publicação de relatórios de transparência e a obrigação de que elas atuem para combater a prática de crimes por meio das redes sociais, dentre outras medidas.

Leia mais
Explicamos Cinco perguntas e respostas para entender o que está em jogo no ‘PL das Fake News’

Silva trabalha em uma nova versão do relatório apresentado no primeiro semestre. Os ajustes visam chegar mais perto do consenso e, como o Aos Fatos antecipou, podem incluir uma alteração no regime de responsabilização das plataformas no caso de conteúdo patrocinado. O relator, porém, pode acabar deixando a decisão sobre quem será a entidade responsável por acompanhar a regulação para o Plenário.

No intuito de reduzir os pontos de atrito, a discussão sobre o pagamento de direitos autorais para artistas e de remuneração para o jornalismo pelas plataformas digitais foi retirada do “PL das Fake News” e passou a tramitar no PL 2.370/2019.

Inicialmente otimistas com a possibilidade de o projeto fatiado ser aprovado com mais facilidade no Congresso, as lideranças da Câmara acabaram frustradas por mais um impasse: empresas de mídia e os artistas não conseguiram chegar a um acordo sobre o pagamento de direitos autorais para obras antigas. Agora, não é certo que o PL 2.370/2019 volte para a pauta antes do PL 2.630/2020.

Apesar das dificuldades para a aprovação do “PL das Fake News”, Renata Mielli — coordenadora do CGI.br (Comitê Gestor da Internet do Brasil) — considera que “já há um debate bastante maduro” em torno do projeto, que é discutido há três anos, apesar de reconhecer que alguns de seus aspectos ainda têm divergências. A avaliação foi feita durante apresentação dos resultados da consulta pública organizada pelo CGI.br sobre a regulação das plataformas digitais, no dia 13 de dezembro.

No mesmo evento, Bia Barbosa — conselheira que representa o terceiro setor no comitê — prevê que, mesmo que o debate sobre o “PL das Fake News” destrave em 2024, “a gente ainda vai seguir nessa agenda de regulação de plataformas por muito tempo”, porque o que está no Congresso é apenas “uma parte” do que precisa ser discutido.

A consulta pública do CGI.br colheu contribuições de pesquisadores, representantes da sociedade civil, associações empresariais e cidadãos comuns para enriquecer o debate sobre a regulação das plataformas digitais. A iniciativa abrange não apenas os temas que são discutidos no “PL das Fake News”, mas toda a agenda regulatória que o Brasil precisará enfrentar nos próximos anos — debate no qual se insere também a inteligência artificial.

O QUE HÁ SOBRE IA

Enquanto a Câmara estava em volta do “PL das Fake News”, o Senado buscou avançar na regulação das IAs em 2023, mas também há controvérsias.

  • A CTIA (Comissão Temporária Interna sobre Inteligência Artificial), criada no Senado Federal para discutir projetos de lei sobre o assunto, teve o prazo postergado por mais 120 dias, encerrando em maio de 2024.
  • Entre agosto e novembro, a comissão realizou 14 reuniões, entre elas 10 audiências públicas das quais participaram mais de 70 expositores de diferentes setores da sociedade (academia, governo, empresas).

A multiplicidade de agentes ouvidos durante as reuniões foi vista como salutar tanto por representantes de empresas de softwares quanto da sociedade civil ouvidos pelo Aos Fatos. Apesar disso, não foi possível chegar a um consenso sobre uma proposta ideal a todos os lados.

As discussões acabaram ficando estagnadas no embate entre regulação e inovação – assunto que marcou também os trabalhos da comissão de juristas que deu origem ao PL 2.338/23, de autoria do presidente do Senado, Rodrigo Pacheco (MDB-SP).

De um lado, empresas de tecnologia e laboratórios pioneiros no uso e desenvolvimento de ferramentas de IA no país defendiam que era mais importante criar incentivos para o setor e temem que a regulação possa atrapalhar o investimento na área. De outro, pesquisadores em proteção de dados, veículos de comunicação e representantes da sociedade civil defendem que a regulação pode trazer mais segurança jurídica tanto para usuários quanto para desenvolvedores de sistemas de IA no país.

Leia mais
Investigamos Pacheco concentra debate sobre IA e freia PL aprovado na Câmara com apoio de big techs

Em meio a essas disputas, o senador Marcos Pontes (PL-SP), vice-presidente da comissão, apresentou emenda de substitutivo ao PL 2.338/23 que altera radicalmente sua estrutura, com foco no fomento da tecnologia.

“O fato de haver emenda apresentada com estrutura bastante distinta a do texto original do PL sob análise mostra que os trabalhos realmente precisam ser aprofundados”, defendeu Eduardo Paranhos, líder do grupo de trabalho sobre IA da Abes (Associação Brasileira de Empresas de Software), em nota enviada à reportagem.

Para o advogado Bruno Bioni, diretor do Data Privacy e membro da CJSUBIA, a emenda tem como ponto positivo para a inovação a criação de um conselho multissetorial para ajudar na formulação de políticas públicas, mas “para por aí”. “É um ponto único que é positivo para o debate, mas os 95% restantes dessa proposta são bastante inclusive temerárias para fins do desenvolvimento econômico social tecnológico das ferramentas de inteligência artificial no país”, diz.

Entre as mudanças sugeridas está a inclusão do princípio do consentimento informado e explícito de titulares de dados para tratamento de suas informações por sistemas de IA, que segundo o especialista seria pouco escalável para os diferentes usos da tecnologia. A própria LGPD (Lei Geral de Proteção de Dados) prevê situações de dispensa desse consentimento.

A emenda também altera a classificação de sistemas de riscos proposta pelo PL 2.338/23 em conformidade com a legislação europeia, permitindo o uso (antes proibido) de sistemas considerados de alto risco.

Outras duas emendas, apresentadas pelo presidente da comissão, senador Carlos Viana (PODE-MG), também sugerem alterações na classificação de riscos proposta pelo PL 2.338/23. Uma delas propõe a retirada de “sistemas biométricos de identificação usados pelo Poder Público para investigação criminal e segurança pública” do rol de sistemas de alto risco. Outra, acaba com a possibilidade de atualização dessa lista.

Autoridade reguladora. No texto original do PL 2.338/23, essa atribuição seria de responsabilidade de uma autoridade reguladora para o tema no país, outro alvo de disputas durante os trabalhos da comissão.

  • Desde julho, a ANPD (Agência Nacional de Proteção de Dados) reclama a função para si;
  • Logo nas primeiras reuniões, foram ventilados para ocupar o espaço o LNCC (Laboratório Nacional de Ciência da Computação) e a Anatel (Agência Nacional de Telecomunicações);
  • Também foi discutida a possibilidade da criação de um novo órgão regulador, exclusivo para IA — o que ficaria a cargo do Executivo.

Por outro lado, representantes de empresas de tecnologia argumentam que a regulação deve ser setorial, não centralizada. “Sob a ótica da eficiência, tanto em relação aos objetivos da regulação, quanto da alocação de recursos, faz mais sentido prestigiar o papel dos reguladores existentes do que criar uma agência responsável por regular toda a IA”, defende Paranhos.

O argumento é rebatido por integrante da comissão de juristas que produziram minuta que deu origem ao PL 2.338/23. “É necessário que haja uma autoridade que possa fazer uma visão geral, para que não tenha assimetria entre as regulações setoriais a ponto de ter distorção nessa produção regulatória”, defende Bioni.

Leia mais
BIPE ANPD sugere mudanças em projeto de lei sobre IA e reivindica poder para regular o tema
Análise ANPD atua por orçamento maior em meio a PLs no Congresso para regular economia digital e IA

Sem atualizações. Além disso, até agora a CTIA não foi capaz de atualizar pontos já defasados nos projetos de lei que pretendem regular IA, entre eles o detalhamento dos agentes envolvidos.

“A cadeia de valor e de desenvolvimento, sobretudo de implementação e aplicação dos sistemas de IAs é relativamente complexa, e aí a previsão de apenas dois agentes hoje tem se mostrado insuficiente. Daí a necessidade de ampliar para pelo menos três agentes, que poderiam ser desenvolvedor, operador e aplicador, de modo a facilitar a divisão de responsabilidades e de papéis, para daí poder fazer justamente a materialização e a concretização de todas as ferramentas de governança”, explica Bioni

Leia mais
Investigamos Projeto de lei sobre IA já nasceu defasado e representa desafios de regular novas tecnologias

Esse é um dos pontos que ficará para 2024, quando as emendas devem ser votadas e o relatório final será produzido. Na última reunião da CTIA, o senador Eduardo Gomes (PL-TO) anunciou que a proposta deverá passar ainda por debates temáticos no Plenário do Senado antes de ir à votação. “O presidente Rodrigo Pacheco priorizou o assunto, e está claro aqui que a sociedade brasileira e mundial está discutindo o tema”, disse, encerrando os trabalhos deste ano.

Referências

  1. Aos Fatos (1, 2, 3, 4, 5, 6, 7, 8 e 9)
  2. Folha de S.Paulo (1 e 2)
  3. O Globo
  4. Câmara dos Deputados (1, 2, 3, 4, 5 e 6)
  5. Senado Federal (1, 2, 3, 4, 5, 6 e 7)
  6. Planalto
  7. Tribunal Superior Eleitoral (1, 2 e 3)
  8. Comitê Gestor da Internet do Brasil

Compartilhe

Leia também

Relator suaviza texto, e comissão adia votação de projeto sobre IA mais uma vez

Relator suaviza texto, e comissão adia votação de projeto sobre IA mais uma vez

falsoCriminosos usam IA para adulterar vídeo do senador Cleitinho e aplicar golpe

Criminosos usam IA para adulterar vídeo do senador Cleitinho e aplicar golpe

falsoÉ falso que Carrefour suspendeu boicote ao Brasil após CEO falar com Musk e Bolsonaro

É falso que Carrefour suspendeu boicote ao Brasil após CEO falar com Musk e Bolsonaro