ANPD cobra X por uso de dados para treinar IA, mas ignora Google e LinkedIn

Compartilhe

A ANPD (Autoridade Nacional de Proteção de Dados) informou na última sexta-feira (18) que convocará o X a prestar esclarecimentos sobre as mudanças de regulamento que, a partir de 15 de novembro, ampliarão o uso de dados de usuários para treinar modelos de inteligência artificial.

A atuação da autarquia no caso contrasta com a conduta adotada com o LinkedIn e o Google:

  • A rede de perfis profissionais alterou sua política há um mês para permitir a coleta de dados para o treinamento de IA generativa, mas não foi alvo de cobrança;
  • A ANPD também informou em nota enviada ao Aos Fatos que não há procedimento de fiscalização aberto em relação à plataforma de buscas, que é alvo de investigação na União Europeia para averiguar se houve descumprimento da legislação local de proteção de dados no desenvolvimento do modelo de IA PaLM 2.

O caso das duas big techs também contrasta com a pressão colocada sobre a Meta, cujo treinamento de IA com dados do Facebook e do Instagram chegou a ser suspenso em julho e liberado apenas depois de a empresa prometer mais transparência.

O caso do X

O tratamento de dados de usuários do X já é investigado pela ANPD desde julho, como Aos Fatosmostrou.

A empresa vinha atendendo aos pedidos de informação feitos pelo órgão estatal. Na semana passada, porém, a rede modificou seus termos de uso, tornando obrigatório o consentimento ao tratamento de dados para treinar modelos de IA da própria empresa ou de terceiros.

O X não informou como os usuários brasileiros poderão recusar que seus dados sejam usados, direito que é garantido pela LGPD (Lei Geral de Proteção de Dados). Na prática, quem não quiser que suas informações sejam captadas terá que deixar a plataforma.

“A fiscalização convocará a empresa para prestar esclarecimentos especificamente quanto aos impactos da alteração na proteção dos dados pessoais dos usuários da plataforma”, anunciou a ANPD, que também disse que, “caso seja percebido risco de grave dano à proteção de dados ou à privacidade dos titulares, outras medidas poderão ser tomadas”.

A ANPD — que é cotada no Congresso para ser órgão regulador da IA no Brasil — não explicou por que o procedimento adotado no caso da Meta e do X não se repetiu com outras plataformas.

A autarquia informou, porém, que segue acompanhando a IA da Meta no Brasil e que está com um canal formal de diálogo aberto também com a OpenAI, responsável pelo ChatGPT.

Dois pesos, duas medidas

Aos Fatos já havia questionado no dia 19 de setembro se a ANPD estava ciente da mudança nos termos de uso do LinkedIn para permitir o tratamento de dados.

Como resposta, a autarquia disse que “o tratamento de dados pessoais para finalidade não prevista na política de privacidade” violava princípios da LGPD, mas ponderou que, a partir das notícias disponíveis à época, não era possível estabelecer um paralelo com as iniciativas da Meta e do X.

“O LinkedIn não enviou comunicado, plano de conformidade ou qualquer outro documento relacionado ao tema para a fiscalização da ANPD”, informou a autarquia em setembro. Ao ser questionado se iria pedir essas explicações, o órgão não respondeu.

Novamente cobrada no dia 17 de outubro, a ANPD confirmou que não havia instaurado processo de fiscalização sobre o LinkedIn e o Google.

A imprensa internacional reportou em setembro que a rede de perfis profissionais havia começado o treinamento de sua IA antes mesmo de atualizar seus termos de uso e comunicar ativamente os usuários sobre a mudança.

A plataforma disponibiliza um campo para que usuários se recusem a ceder dados para o treinamento da IA:

  • No computador, no menu do alto da tela, clique em “Eu” e, na sequência, na opção “Configurações e privacidade”;
  • Em seguida, na lista à esquerda, escolha o item “Privacidade de dados”;
  • Clique no link “Dados para aprimoramento da IA generativa” e desative o uso dos dados.
print mostra trecho de configurações de conta do LinkedIn no qual o usuário pode desativar botão sobre uso de dados
Usuários do LinkedIn que não quiserem fornecer dados para o treinamento de IA precisam desativar opção na plataforma (Reprodução/LinkedIn)

Outro lado

Procurado pelo Aos Fatos, o LinkedIn diz que atualizou o Contrato de Usuário, a Política de Privacidade e o Hub Regional de Privacidade no dia 18 de setembro, informando a mudança em blog e por email, e que disponibiliza a opção de desativar o treinamento da IA.

“Sempre usamos formas de automação nos produtos do LinkedIn e sempre deixamos claro que os usuários podem escolher como seus dados serão usados”, declarou a empresa, acrescentando que seus serviços de geração de conteúdo por IA ajudam em tarefas como escrever currículos, perfis e mensagens para recrutadores.

Em nota, o Google afirmou que “a privacidade está no centro do desenvolvimento e utilização das nossas tecnologias de IA”.

Segundo a empresa, “uma parte fundamental desse compromisso envolve ser transparente sobre o uso de dados pessoais e pedir o seu consentimento, de forma alinhada ao estabelecido pelas legislações locais em mercados onde atuamos, além de investir continuamente em tecnologias que protejam a privacidade de seus dados e permitam que as pessoas estejam no controle de suas informações”.

O Google também enviou exemplos de como isso é praticado em seus produtos, leia na nota completa.

Leia a íntegra da nota do Google

Como estabelecido em nossos Princípios de AI, a privacidade está no centro do desenvolvimento e utilização das nossas tecnologias de IA. Uma parte fundamental desse compromisso envolve ser transparente sobre o uso de dados pessoais e pedir o seu consentimento, de forma alinhada ao estabelecido pelas legislações locais em mercados onde atuamos, além de investir continuamente em tecnologias que protejam a privacidade de seus dados e permitam que as pessoas estejam no controle de suas informações.

Alguns exemplos de como isso ocorre na prática nos nossos produtos:

— Os modelos de linguagem do Google são treinados principalmente em dados disponíveis publicamente na Internet, extraídos de fontes como postagens de blogs e fóruns públicos.

— Oferecemos aos editores de sites controle sobre seus conteúdos com o Google-Extended, que permite gerenciar se seus sites ajudam a melhorar o aplicativo Gemini e as APIs de AI generativa da Vertex AI.

— Para os produtos Workspace, como Gmail ou Google Docs, temos sido claros que o uso de IA generativa não altera nossas proteções básicas de privacidade, inclusive com nossas ofertas gratuitas ao consumidor. Não usamos os dados do Workspace para treinar ou melhorar a IA generativa subjacente e os grandes modelos de linguagem que alimentam o Gemini, a Busca e outros sistemas fora do Workspace sem permissão.

O X não respondeu aos pedidos de posicionamento enviados pela reportagem.


ATUALIZAÇÃO: Este texto foi atualizado às 19h05 de 22.out.2024 para incluir o posicionamento do Google.

O caminho da apuração

Aos Fatos vem, desde junho, acompanhando os anúncios das plataformas de uso de dados para treinamento de IA e enviando questionamentos à ANPD sobre sua atuação em cada caso.

Após a última resposta da autarquia, a reportagem também procurou as empresas para dar a oportunidade de se posicionarem sobre o tema.

Compartilhe

Leia também

falsoVídeo que mostra fraude na entrega de merendas não foi gravado na Venezuela

Vídeo que mostra fraude na entrega de merendas não foi gravado na Venezuela

falsoUsaid não financiou revista em quadrinhos sobre pessoas trans no Peru

Usaid não financiou revista em quadrinhos sobre pessoas trans no Peru

falsoÉ falso que governo Lula destinou R$ 15 bilhões para a Lei Rouanet

É falso que governo Lula destinou R$ 15 bilhões para a Lei Rouanet