Convidados da comissão do PL da IA divergem sobre direitos autorais e órgão de governança

Compartilhe

Após quatro meses de discussão, os convidados das audiências públicas promovidas pela comissão da Câmara dos Deputados que discute o PL 2338/2023, o PL da IA, não conseguiram alcançar um consenso em temas como o pagamento de direitos autorais e a criação de um órgão de governança.

Esse é o resultado de um levantamento conduzido pelo Aos Fatos, que analisou as falas dos 95 participantes — entre eles pesquisadores, representantes do governo, membros de ONGs e porta-vozes de empresas de tecnologia — que participaram das 14 audiências públicas realizadas pela comissão desde junho.

A análise contabilizou quais trechos do PL aprovado no Senado foram alvo de sugestões. Veja a seguir quais foram os principais pontos de divergência e convergência.

Na imagem, um grupo de pessoas está participando de uma reunião. À frente, à esquerda, um homem com cabelo escuro e curto usa óculos e um terno cinza, com uma camisa de tom azul e uma gravata azul claro. Ele está focado no que é discutido, com as mãos na mesa. Ao lado dele, a deputada Luísa Canziani, uma mulher com cabelo loiro preso em um coque solto, usa um vestido de manga curta e gola alta, de cor escura, e está gesticulando enquanto fala. À direita, um homem de cabelo grisalho usa um terno escuro, com uma camisa rosa e gravata prata. Ao fundo, uma mulher de cabelo castanho, solto e volumoso, usa uma blusa verde e observa a conversa. O ambiente parece ser uma sala de reuniões, com equipamentos de tecnologia visíveis ao fundo.
Comissão é presidida pela deputada Luísa Canziani (PSD-PR) e tem relatoria do deputado Aguinaldo Ribeiro (PP-PB) (Pablo Valadares/Câmara dos Deputados)

Direitos Autorais

O maior ponto de discordância foi o trecho do texto que trata dos direitos autorais (artigos 62 a 66). Atualmente, o PL prevê que o detentor dos direitos de uma obra pode proibir seu uso em sistemas de inteligência artificial e assegura, inclusive, a remuneração do autor em caso de descumprimento dessa regra.

Dezesseis convidados defenderam a manutenção ou o fortalecimento desse capítulo, por entenderem que o uso de obras para treinamento de IA constitui uma violação da legislação atual.

“A falta de remuneração equivale à expropriação de riqueza gerada pela indústria cultural e criativa por outra, o que vai impactar negativamente a produção e a diversidade cultural brasileira”, argumentou Marcos Alves de Souza, do Ministério da Cultura.

Muitos deles apontam, inclusive, que é necessário que o PL regule esse tema para evitar a judicialização da questão. Carla Egydio, diretora de relações institucionais da Ajor (Associação de Jornalismo Digital), por exemplo, lembrou que outros países têm sido inundados por processos de titulares de direitos questionando o uso de seus conteúdos por ferramentas de IA.

No início de setembro, por exemplo, a Anthropic foi condenada a pagar US$ 1,5 bilhão em direitos autorais — cerca de US$ 3.000 para cada obra pirateada baixada e usada para treinar sua ferramenta.

Outros 19 convidados, no entanto, ou pediram a remoção do trecho ou uma alteração completa. Segundo os críticos, o projeto, da forma que está, seria tecnicamente inviável e impediria o desenvolvimento e a inovação no Brasil.

A representante da Meta, Margareth Kang, por exemplo, afirmou que o treinamento extrai padrões de linguagem e fatos, e não expressões protegidas por direito autoral, e que a quantidade de dados é tão grande que não é possível falar sobre valor intrínseco de uma determinada obra.

Para a porta-voz da big tech, a única solução possível seria um sistema de opt-out — uma opção de controle para que os autores proíbam que sua obra seja usada para treinamento de modelos de IA.

Houve ainda, no entanto, pessoas que defenderam que não poderia haver nenhum tipo de impedimento para o uso de dados, porque mesmo o sistema de opt-out seria tecnicamente custoso e atrapalharia o desenvolvimento de ferramentas:

“A premissa deve ser fomento ao treinamento de dados aberto e livre. Essa deve ser a premissa central, porque isso, como foi falado anteriormente, é que gera conhecimento, gera a capacidade de a IA realmente atingir todo o seu potencial transformador”, argumentou Wagner Lenhart, do Instituto Millenium.

De acordo com os que defendem essa vertente, uma das soluções poderia ser garantir algum tipo de remuneração sobre direitos autorais no final da cadeia produtiva da IA, e não durante a fase de treinamento. O pagamento aos autores, nesses casos, deveria incidir sobre o lucro da empresa de desenvolvimento. Também poderiam ser responsabilizados eventuais plágios realizados pelo produto final.

Governança e papel da ANPD

A redação atual do PL prevê a criação do SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial), que seria coordenado pela ANPD (Autoridade Nacional de Proteção de Dados) e composto por autoridades setoriais e comitês de especialistas.

Dez convidados se posicionaram contrariamente à organização proposta e defenderam um modelo descentralizado para evitar que um órgão esteja em uma posição superior aos outros.

“Me parece contraproducente a criação de uma autoridade centralizada, porque vai gerar, para riscos heterogêneos, uma sobreposição regulatória. O processo regulatório deve incluir debates de verdade, multidisciplinares de verdade para cada ponto crítico”, salientou Rodrigo da Silva Ferreira, representante da Casa da Moeda.

Outros seis convidados, no entanto, defenderam o modelo de governança proposto, argumentando que a presença de um órgão coordenador seria essencial para harmonizar as regras e resolver questões não reguladas.

“Em vez de a gente olhar para a sobreposição de potenciais atribuições entre agências setoriais, acho que a ANPD tem o papel, sim, de trazer essa harmonia para o sistema como um todo, para ganho de eficiência, para fomentar esse espaço no qual os agentes setoriais vão ter quase uma mesa única para trocas”, argumentou Lillian Manoela de Melo, secretária de Direitos Digitais do Ministério da Justiça.

Regulação baseada em riscos

O texto aprovado no Senado — mais especificamente o Capítulo III — divide os sistemas de inteligência artificial em níveis de risco e prevê uma regulamentação diferente para cada nível. O projeto também determina que sistemas que apresentem risco excessivo, como ferramentas de avaliação de traços de personalidade ou armas autônomas, tenham seu desenvolvimento vedado.

Da forma como está atualmente, o texto foi defendido por oito convidados. Já outros 20 concordaram com a ideia geral da regulação proporcional ao risco, mas sugeriram alterações:

  • O porta-voz da OpenAI (responsável pelo ChatGPT), por exemplo, defendeu que a categorização de riscos deve ser harmonizada com a de outros países;
  • Dois especialistas sugeriram exatamente o contrário: que a classificação deve ser ajustada ao contexto brasileiro e não se basear na legislação britânica;
  • Seis sugeriram que o texto deveria ser mais rígido — obrigando, por exemplo, que haja uma avaliação de risco preliminar, ou que essas avaliações sejam contínuas e periódicas;
  • E onze disseram que a regulação deveria ser menos rígida e abarcar apenas o uso de sistemas de alto risco.

Apenas uma pessoa — Gabriel Renault, da Dharma.AI — defendeu um modelo completamente diferente: para ele, deveria haver uma regulação “a posteriori”, que entraria em vigor apenas depois de uma denúncia.

Necessidade de regulação

Apesar de terem visões diversas sobre o assunto, todos os convidados defenderam a necessidade de algum tipo de regulação para o mercado da inteligência artificial.

A maior parte deles (76) acredita que deve haver algum tipo de regulação governamental, que protegeria os direitos fundamentais da população e garantiria a segurança jurídica do setor.

Durante suas falas, 20 dos convidados relataram, inclusive, problemas que já estariam ocorrendo no país por conta do cenário desregulado, como a concentração econômica do setor na mão das big techs e a geração de conteúdos sintéticos criminosos, como deepfakes e deepnudes.

Outros 19 especialistas e empresários, no entanto, defenderam um modelo de regulação mais flexível ou até uma autorregulação, argumentando que uma legislação muito detalhada pode se tornar uma trava para a inovação.

O caminho da apuração

Aos Fatos transcreveu as falas dos convidados da comissão especial por meio do Escriba. Com a ajuda da ferramenta de IA NotebookLM, destacamos quais mudanças foram sugeridas pelos participantes e as dividimos nas categorias discordâncias e convergências. Os resultados obtidos pela ferramenta foram rechecados pela nossa equipe.

Também conferimos o texto original do PL 2338/2023 e as informações sobre a comissão especial no site da Câmara dos Deputados.

Referências

  1. Câmara dos Deputados
  2. Wired
  3. Aos Fatos (1, 2 e 3)

Compartilhe

Leia também

falsoCena de tornado no Paraná foi gerada por IA

Cena de tornado no Paraná foi gerada por IA

falsoFoi criada por IA gravação que mostra passagem de tornado pelo Paraná

Foi criada por IA gravação que mostra passagem de tornado pelo Paraná

O que os dados dizem sobre as metas do Acordo de Paris para conter o aquecimento global

O que os dados dizem sobre as metas do Acordo de Paris para conter o aquecimento global

fátima
Fátima