Relator de projeto sobre IA ignora recomendações e autoriza reconhecimento facial na segurança pública

Por Ethel Rudnitzki

10 de junho de 2024, 19h12

Ainda sem definir a autoridade que será responsável por fiscalizar o uso de inteligência artificial, o senador Eduardo Gomes (PL-TO) entregou na última sexta-feira (7) o relatório final da comissão especial sobre o tema no Senado. Com prazo apertado, o texto será debatido no plenário nesta terça-feira (11) e deve ser votado na comissão já no dia seguinte. A falta de tempo para discussão foi alvo de críticas.

O relatório tem poucas mudanças em relação ao que já havia sido apresentado, com destaque para a maior competência atribuída a autoridades setoriais — uma demanda do setor privado — e a manutenção da autorização para o uso de sistemas de reconhecimento facial em casos ligados à segurança pública. A última medida contraria pedidos do terceiro setor, que aponta a tecnologia como ineficaz e responsável por perpetuar estereótipos racistas.

Assim como sua versão preliminar, o documento final usa como base o PL 2.338/2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG). O texto prevê uma regulação baseada em riscos e a designação de uma autoridade para fiscalização e implementação da lei. Durante a tramitação, também foram incorporados aspectos de outros projetos e emendas.

{%leia-mais-e13%}

Demandas da sociedade civil. O novo texto atendeu em parte a pedidos da sociedade civil ao incluir sistemas de armas autônomas no rol de “risco excessivo”, cujo uso seria vedado. O relatório preliminar previa exceções para o uso dessa tecnologia, que foram retiradas após pressão de organizações sociais.

Por outro lado, a principal demanda do terceiro setor foi ignorada: a remoção das exceções para uso de sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público. O texto manteve a permissão para o uso da tecnologia em casos de:

  • instrução de inquérito ou processo criminal;
  • busca de vítimas de crimes;
  • flagrante delito de crimes punidos com pena privativa de liberdade máxima superior a dois anos;
  • E recaptura de réus em fuga.

A remoção dessas exceções havia sido demandada pela Coalizão Direitos na Rede e pelo Idec (Instituto de Defesa do Consumidor) em cartas enviadas ao relator. “O uso da tecnologia a serviço da segurança pública acarreta no aprofundamento do racismo, uma vez que a maioria das pessoas que são reconhecidas pela IA são pessoas negras”, diz nota publicada pela coalizão após o relatório preliminar, que cita casos em que a tecnologia falhou.

{%leia-mais-4748,4959%}

Demandas do setor privado. Na nova versão estão dois acenos ao setor empresarial:

  • A criação de critérios diferentes para aplicação da lei em micro e pequenas empresas;
  • Maior competência a autoridades setoriais na fiscalização e na implementação da lei — para editar a lista de sistemas de alto risco ou definir casos em que há dispensa de avaliação de riscos para introdução de uma nova tecnologia, por exemplo. Algumas funções, no entanto, ainda ficam sob responsabilidade de uma autoridade central ainda não definida.

A indicação de novas atribuições a reguladores setoriais atende em parte a um pedido feito pela Abes (Associação Brasileira de Empresas de Software) e por outras entidades do setor privado. O novo relatório, no entanto, não deixou o setor completamente satisfeito.

“⁠Acreditamos que o processo legislativo detalhista é verticalizado e não é adequado para regular IA no Brasil. O ideal seria um texto mais principiológico, na linha do que foi aprovado pela Câmara dos Deputados. Tratar de direitos, deveres e obrigações que aumentem o custo de transação nacional não colaboram para incrementar a ciência, a tecnologia e a inovação”, afirmou a Abes em nota.

‘Falta de transparência.’ Além dessas contribuições, Eduardo Gomes afirma ter recebido mais de 3.000 páginas de sugestões — segundo ele, motivo pelo qual pediu a prorrogação da comissão e atrasou a entrega do relatório final, que havia sido prometido para 5 de junho.

O teor dessas contribuições, no entanto, não foi divulgado, o que gerou críticas. “Temos uma divergência frontal com a falta de transparência com a qual a CTIA vem conduzindo os trabalhos”, afirmou Raquel Saraiva, fundadora do IP.rec (Instituto de Pesquisa em Direito e Tecnologia do Recife), à reportagem na semana passada, antes de o texto final ser divulgado.

Uma fonte que representa outra entidade do terceiro setor opinou ao Aos Fatos, em condição de anonimato, que o relatório foi produzido “na surdina, com nada público, e a sociedade civil escanteada”.

Entre os 13 convidados para debater o texto no Senado nesta terça (11), há apenas dois representantes da sociedade civil. “O processo das discussões foi opaco e pouco inclusivo. Não houve tempo hábil para convite para pessoas da sociedade civil, que pouco foram incluídas no debate”, afirmou Paula Guedes, porta-voz do grupo de trabalho para inteligência artificial do CDR.

A expectativa é que o texto seja aprovado na comissão na quarta-feira (12) e pautado para votação no plenário na semana que vem.

Referências:

1. Aos Fatos
2. UOL
3. Senado Federal
4. Coalizão Direitos Na Rede


CORREÇÃO: Esta reportagem foi atualizada às 13h03 do dia 11 de junho de 2024 para corrigir a informação referente à filiação partidária do senador Eduardo Gomes. O parlamentar do PL elegeu-se senador por Tocantins, não por Goiás, como afirmado anteriormente.

Topo

Usamos cookies e tecnologias semelhantes de acordo com a nossa Política de Privacidade. Ao continuar navegando, você concordará com estas condições.