O Idec (Instituto de Defesa de Consumidores) pediu ao governo federal que impeça a Meta de usar dados de usuários do Facebook e do Instagram para treinar ferramentas de inteligência artificial até que a empresa cumpra a legislação brasileira. De acordo com o instituto, a nova diretriz desrespeita a LGPD (Lei Geral de Proteção de Dados Pessoais) e o Código de Defesa do Consumidor.
A notificação foi enviada à Senacon (Secretaria Nacional do Consumidor), ligada ao Ministério da Justiça, à ANPD (Autoridade Nacional de Proteção de Dados) e ao Cade (Conselho Administrativo de Defesa Econômica) na última quarta-feira (26).
No documento, o Idec cita reportagem do Aos Fatos publicada em 19 de junho na qual a ANPD informa que iria questionar a Meta sobre a falta de comunicação aos usuários brasileiros sobre o uso de suas publicações para alimentar modelos de IA.
“Até o momento do envio desta notificação, não há informações públicas sobre o envio de tais questionamentos. No entanto, considerando a ilicitude do fato — que vai além da falta de informações — e os riscos de dano a que são submetidos os titulares-consumidores, é essencial que as autoridades competentes e responsáveis atuem de forma célere para evitá-los”, disse o órgão de defesa do consumidor às autoridades.
O Idec argumenta que a plataforma desrespeitou a legislação brasileira ao não informar os usuários de forma clara sobre a adoção da nova política, diferentemente do que fez na União Europeia. A Meta enviou comunicado no início de junho aos usuários do bloco de países para informar sobre a mudança. Mesmo com a notificação, a empresa acabou recuando após ser pressionada por ONGs e órgãos reguladores locais.
Outro ponto levantado pelo instituto é que a big tech teria usado um “design manipulativo” para dificultar o acesso dos consumidores ao formulário em que poderiam vetar o uso de seus dados.
Por isso, o instituto cobra que o governo emita uma medida cautelar para obrigar a plataforma a interromper o uso de dados de brasileiros para o treinamento de ferramentas de IA e a informar os consumidores tanto sobre a mudança de política quanto sobre a suspensão da medida.
“Se a empresa está usando os dados de forma secundária, ela deve informar os consumidores, seus usuários, de forma ostensiva”, defende a advogada do Programa de Telecomunicações e Direitos Digitais do Idec, Marina Fernandes.
A pesquisadora disse ao Aos Fatos que a expectativa do instituto é que as autoridades atuem para obrigar a Meta a se adequar à lei, para que o caso sirva de exemplo para outras plataformas. “A legislação já existe, o que falta é o enforcement, para obrigar a cumprir”, analisa.
Especialistas ouvidos pela reportagem já haviam afirmado que os desafios no processo de estruturação da ANPD, que é relativamente nova, têm impactado sua atuação e beneficiado as big techs, que agem sem temer sanções.
Procurada, a Meta disse que não comentaria o caso.
LEGÍTIMO INTERESSE
A política de privacidade da Meta diz que o tratamento de dados para o treinamento de IA responde a um “legítimo interesse” da empresa — situação que, segundo a LGPD, isentaria a plataforma de obter consentimento prévio dos usuários para usar os dados.
Entretanto, Marina Fernandes considera que a empresa fez uma “leitura ilícita” do conceito de “legítimo interesse”, porque não demonstrou que o treinamento da IA teria uma “finalidade legítima” e corresponderia a uma “expectativa legítima” dos usuários afetados pelo tratamento de dados.
Em vez disso, segundo a advogada, a política da plataforma não explicita como o modelo está sendo alimentado com os dados dos usuários e qual sua relação com as redes sociais onde estão as informações coletadas.
“O tratamento dos dados não está relacionado à funcionalidade do aplicativo”, destaca a pesquisadora do Idec, explicando que o treinamento da IA generativa é um caso diferente do uso dos dados para aperfeiçoar um sistema de moderação de conteúdo, por exemplo.
Outro fator que levou o Idec a enviar a notificação aos órgãos do governo é o fato de a política de tratamento de dados da Meta não prever medidas para mitigação de riscos. “São dados sensíveis, que não poderiam ser usados com base no ‘legítimo interesse’”, argumenta a especialista, justificando que fotografias de usuários contêm informações biométricas e podem expor crianças e adolescentes.