A ANPD (Autoridade Nacional de Proteção de Dados) informou na última sexta-feira (18) que convocará o X a prestar esclarecimentos sobre as mudanças de regulamento que, a partir de 15 de novembro, ampliarão o uso de dados de usuários para treinar modelos de inteligência artificial.
A atuação da autarquia no caso contrasta com a conduta adotada com o LinkedIn e o Google:
- A rede de perfis profissionais alterou sua política há um mês para permitir a coleta de dados para o treinamento de IA generativa, mas não foi alvo de cobrança;
- A ANPD também informou em nota enviada ao Aos Fatos que não há procedimento de fiscalização aberto em relação à plataforma de buscas, que é alvo de investigação na União Europeia para averiguar se houve descumprimento da legislação local de proteção de dados no desenvolvimento do modelo de IA PaLM 2.
O caso das duas big techs também contrasta com a pressão colocada sobre a Meta, cujo treinamento de IA com dados do Facebook e do Instagram chegou a ser suspenso em julho e liberado apenas depois de a empresa prometer mais transparência.
O caso do X
O tratamento de dados de usuários do X já é investigado pela ANPD desde julho, como Aos Fatos já mostrou.
A empresa vinha atendendo aos pedidos de informação feitos pelo órgão estatal. Na semana passada, porém, a rede modificou seus termos de uso, tornando obrigatório o consentimento ao tratamento de dados para treinar modelos de IA da própria empresa ou de terceiros.
O X não informou como os usuários brasileiros poderão recusar que seus dados sejam usados, direito que é garantido pela LGPD (Lei Geral de Proteção de Dados). Na prática, quem não quiser que suas informações sejam captadas terá que deixar a plataforma.
“A fiscalização convocará a empresa para prestar esclarecimentos especificamente quanto aos impactos da alteração na proteção dos dados pessoais dos usuários da plataforma”, anunciou a ANPD, que também disse que, “caso seja percebido risco de grave dano à proteção de dados ou à privacidade dos titulares, outras medidas poderão ser tomadas”.
A ANPD — que é cotada no Congresso para ser órgão regulador da IA no Brasil — não explicou por que o procedimento adotado no caso da Meta e do X não se repetiu com outras plataformas.
A autarquia informou, porém, que segue acompanhando a IA da Meta no Brasil e que está com um canal formal de diálogo aberto também com a OpenAI, responsável pelo ChatGPT.
Dois pesos, duas medidas
Aos Fatos já havia questionado no dia 19 de setembro se a ANPD estava ciente da mudança nos termos de uso do LinkedIn para permitir o tratamento de dados.
Como resposta, a autarquia disse que “o tratamento de dados pessoais para finalidade não prevista na política de privacidade” violava princípios da LGPD, mas ponderou que, a partir das notícias disponíveis à época, não era possível estabelecer um paralelo com as iniciativas da Meta e do X.
“O LinkedIn não enviou comunicado, plano de conformidade ou qualquer outro documento relacionado ao tema para a fiscalização da ANPD”, informou a autarquia em setembro. Ao ser questionado se iria pedir essas explicações, o órgão não respondeu.
Novamente cobrada no dia 17 de outubro, a ANPD confirmou que não havia instaurado processo de fiscalização sobre o LinkedIn e o Google.
A imprensa internacional reportou em setembro que a rede de perfis profissionais havia começado o treinamento de sua IA antes mesmo de atualizar seus termos de uso e comunicar ativamente os usuários sobre a mudança.
A plataforma disponibiliza um campo para que usuários se recusem a ceder dados para o treinamento da IA:
- No computador, no menu do alto da tela, clique em “Eu” e, na sequência, na opção “Configurações e privacidade”;
- Em seguida, na lista à esquerda, escolha o item “Privacidade de dados”;
- Clique no link “Dados para aprimoramento da IA generativa” e desative o uso dos dados.
Outro lado
Procurado pelo Aos Fatos, o LinkedIn diz que atualizou o Contrato de Usuário, a Política de Privacidade e o Hub Regional de Privacidade no dia 18 de setembro, informando a mudança em blog e por email, e que disponibiliza a opção de desativar o treinamento da IA.
“Sempre usamos formas de automação nos produtos do LinkedIn e sempre deixamos claro que os usuários podem escolher como seus dados serão usados”, declarou a empresa, acrescentando que seus serviços de geração de conteúdo por IA ajudam em tarefas como escrever currículos, perfis e mensagens para recrutadores.
Em nota, o Google afirmou que “a privacidade está no centro do desenvolvimento e utilização das nossas tecnologias de IA”.
Segundo a empresa, “uma parte fundamental desse compromisso envolve ser transparente sobre o uso de dados pessoais e pedir o seu consentimento, de forma alinhada ao estabelecido pelas legislações locais em mercados onde atuamos, além de investir continuamente em tecnologias que protejam a privacidade de seus dados e permitam que as pessoas estejam no controle de suas informações”.
O Google também enviou exemplos de como isso é praticado em seus produtos, leia na nota completa.
Leia a íntegra da nota do Google
Como estabelecido em nossos Princípios de AI, a privacidade está no centro do desenvolvimento e utilização das nossas tecnologias de IA. Uma parte fundamental desse compromisso envolve ser transparente sobre o uso de dados pessoais e pedir o seu consentimento, de forma alinhada ao estabelecido pelas legislações locais em mercados onde atuamos, além de investir continuamente em tecnologias que protejam a privacidade de seus dados e permitam que as pessoas estejam no controle de suas informações.
Alguns exemplos de como isso ocorre na prática nos nossos produtos:
— Os modelos de linguagem do Google são treinados principalmente em dados disponíveis publicamente na Internet, extraídos de fontes como postagens de blogs e fóruns públicos.
— Oferecemos aos editores de sites controle sobre seus conteúdos com o Google-Extended, que permite gerenciar se seus sites ajudam a melhorar o aplicativo Gemini e as APIs de AI generativa da Vertex AI.
— Para os produtos Workspace, como Gmail ou Google Docs, temos sido claros que o uso de IA generativa não altera nossas proteções básicas de privacidade, inclusive com nossas ofertas gratuitas ao consumidor. Não usamos os dados do Workspace para treinar ou melhorar a IA generativa subjacente e os grandes modelos de linguagem que alimentam o Gemini, a Busca e outros sistemas fora do Workspace sem permissão.
O X não respondeu aos pedidos de posicionamento enviados pela reportagem.
ATUALIZAÇÃO: Este texto foi atualizado às 19h05 de 22.out.2024 para incluir o posicionamento do Google.
O caminho da apuração
Aos Fatos vem, desde junho, acompanhando os anúncios das plataformas de uso de dados para treinamento de IA e enviando questionamentos à ANPD sobre sua atuação em cada caso.
Após a última resposta da autarquia, a reportagem também procurou as empresas para dar a oportunidade de se posicionarem sobre o tema.