Após mais de um ano, a comissão criada no Senado para discutir a regulação de inteligência artificial marcou a votação do relatório sobre o projeto para a próxima terça-feira (3). O texto final foi apresentado na última quinta-feira (28) pelo relator, o senador Eduardo Gomes (PL-TO), e traz poucas mudanças em relação à versão anterior, divulgada em julho.
Apesar de preservar o cerne do PL 2.338/2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), o texto sofreu alterações pontuais que indicam acenos ao setor privado:
- O texto mantém a ideia de criar um sistema de regulação baseado em riscos, como no projeto original;
- Mas a nova versão torna opcional uma avaliação preliminar para determinar o grau de risco antes de lançar uma nova ferramenta de IA no mercado — antes, essa avaliação era obrigatória;
- Também houve flexibilização nas medidas de governança exigidas a sistemas considerados de alto risco;
- Foram retirados trechos de proteção aos direitos dos trabalhadores, como o que coibia a “demissão em massa ou substituição extensiva da força de trabalho”;
- E foram acrescentados mecanismos de estímulo à implementação de data centers no Brasil, tirando “serviços que se limitem ao provimento de infraestrutura de armazenamento e transporte de dados” do escopo da regulação.
A porta-voz da Coalizão Direitos na Rede, Paula Guedes, manifestou preocupação com a última medida em entrevista ao Aos Fatos. “A pergunta que fica é como conciliar esses data centers com a proteção do meio ambiente e sustentabilidade, já que é sabido e comprovado que isso gera muitos problemas ambientais e consumo de recursos, energia, água, além de degradação dos territórios”, ela diz.
A mudança — que partiu de uma emenda do presidente da comissão, senador Carlos Viana (PODE-MG) — atende aos interesses do Executivo, que prepara uma política nacional para data centers no país.
As outras alterações no texto também foram criticadas por representantes da sociedade civil. “O texto do dia 28 é o mínimo necessário”, diz uma nota assinada por mais de 35 organizações. “Retrocessos e novas ameaças ao texto podem tornar a lei inócua e limitada a poucos tipos de sistemas de IA.”
Fora do rol de interesses da indústria, foi mantido da versão anterior do PL o trecho que categoriza como sistemas de alto risco os modelos de recomendação de conteúdo automatizado. Com isso, esse tipo de mecanismo terá que obedecer a regras mais severas.
“Embora o debate tenha demorado a receber a devida atenção dos setores impactados, quando finalmente se engajaram, puderam enriquecer com suas valiosas contribuições. Representantes dos setores financeiros, de telecomunicações, artistas, dubladores, editoras, audiovisual, jornalismo, saúde, infraestrutura digital, indústria, tecnologia e sociedade civil, todos foram ouvidos e as suas preocupações, consideradas”, disse o senador Eduardo Gomes ao apresentar o relatório na quinta (28).
No relatório final, Gomes optou por manter a indicação da ANPD (Autoridade Nacional de Proteção de Dados) como entidade fiscalizadora do futuro SIA (Sistema Nacional de Regulação de Inteligência Artificial).
Expectativa e realidade
Ainda que sejam de interesse da indústria, as alterações propostas por Gomes ficaram aquém do que representantes do setor privado esperavam frente às estratégias de lobby desenvolvidas.
Na primeira semana de novembro, circulou entre grupos de parlamentares e ativistas um substitutivo não oficial para o PL 2.338/2023, formulado pela CNI (Confederação Nacional da Indústria) em parceria com associações setoriais, como a Abes (Associação Brasileira das Empresas de Software).
O documento propunha mudanças profundas no texto para restringir o escopo da regulação. Marcelo Almeida, diretor de relações governamentais da Abes, disse ao Aos Fatos que o objetivo era pensar em uma “legislação mais soft, não no sentido de autorregulação e ausência de regulação, mas no sentido de dar uma conotação menos incisiva, dirigista”.
A não incorporação da maior parte dessas demandas foi a primeira derrota parcial do lobby que tem tentado com sucesso atrasar as discussões sobre regulação da IA na comissão desde o início do ano.
Agora, depois de quatro prorrogações de prazo e apresentação de quatro versões diferentes de relatório, o tempo para negociações parece ter se esgotado. O senador Carlos Viana estabeleceu esta segunda-feira (2) como prazo máximo para apresentação de emendas ao projeto.
Até a publicação desta reportagem, apenas cinco emendas haviam sido entregues: uma de autoria do senador Laércio Oliveira (PP-SE) e quatro do senador Marcos Rogério (PL-RO) — ambos que, durante a tramitação, propuseram textos alinhados aos interesses de big techs:
- A emenda nº 150, de Oliveira, propõe a adição de três representantes de confederações sindicais representativas das categorias econômicas do setor produtivo na composição do SIA.
- Já as apresentadas por Marcos Rogério pedem a supressão de diversos artigos que tratam de direitos autorais, proteção aos trabalhadores e atribuições da autoridade reguladora.
O número não chega perto da enxurrada de emendas recebidas em junho pelo projeto, que levaram ao adiamento das discussões na época. Questionado pela reportagem, a assessoria do relator confirmou que a votação será feita amanhã e que “as emendas que chegaram estão sendo analisadas sobre a possibilidade ou não da sua admissibilidade”.
Novas pressões
Isso não quer dizer que o lobby saiu derrotado, já que a votação na comissão temporária é apenas o primeiro passo. Fontes ouvidas pelo Aos Fatos esperam que as pressões voltem a ocorrer quando o texto alcançar o plenário do Senado.
Entre os pontos que o setor privado deve defender estão a retirada de algoritmos de recomendação de conteúdo da listagem de alto risco e a flexibilização das regras para assegurar a proteção e a compensação de titulares de direitos autorais que têm seus conteúdos usados para treinar sistemas de IA.
A primeira parte pode sofrer influência da votação do Supremo Tribunal Federal sobre o artigo 19 do Marco Civil da Internet, que deve ser retomada na próxima quarta-feira (4). O caso trata da responsabilidade civil das plataformas por conteúdos publicados por terceiros e sobre a possibilidade de remoção de posts sem ordem judicial.
“Se o Supremo Tribunal Federal passar um recado no sentido de que as plataformas digitais precisam ter uma responsabilidade maior no que diz respeito ao monitoramento de conteúdo, isso vai ser transferido para o contexto da inteligência artificial”, avalia Marcelo Almeida.
Já a questão do direito autoral depende de discussões com o Ministério da Cultura e com associações de artistas. “Não podemos diminuir as pressões do lado da sociedade civil, porque ainda não tem nada garantido”, conclui Paula Guedes, porta-voz da Coalizão Direitos na Rede.
O caminho da apuração
Aos Fatos acompanhou, pelo canal da TV Senado, a apresentação do texto final do relatório de inteligência artificial na CTIA, em 28 de novembro.
A reportagem também entrou em contato com integrantes da comissão e representantes de setores interessados na regulação de inteligência artificial para questionar sobre o andamento das discussões.
Por fim, contextualizamos a tramitação do projeto de regulação frente ao lobby de setores interessados.