A ANPD (Autoridade Nacional de Proteção de Dados) determinou que a Meta suspenda a coleta de dados de publicações de brasileiros no Facebook e no Instagram com o intuito de treinar modelos de inteligência artificial.
A decisão cita reportagem do Aos Fatos que mostrou que a empresa estava dificultando a localização do formulário que permite aos usuários discordarem do uso de seus dados para alimentar a tecnologia, o que desrespeita o princípio de transparência da LGPD (Lei Geral de Proteção de Dados).
A medida preventiva que obriga a big tech a interromper o uso de dados pessoais de brasileiros foi publicada nesta terça-feira (2) no Diário Oficial da União e estabelece uma multa diária de R$ 50 mil em caso de descumprimento.
O relatório da decisão da ANPD apontou “risco iminente de dano grave e irreparável ou de difícil reparação” caso a suspensão não fosse efetuada e apontou quatro irregularidades que teriam sido cometidas pela Meta:
- A inadequação do uso do conceito de “legítimo interesse” para justificar a realização do tratamento;
- A falta de transparência na divulgação da mudança na política de privacidade;
- A dificuldade de acesso dos usuários ao direito de se opor ao uso de seus dados;
- O tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas.
Aos Fatos havia antecipado que a ANPD pediria explicações à Meta após especialistas afirmarem que a empresa descumpriu a LGPD. No dia 26, com base na reportagem, o Idec (Instituto de Defesa de Consumidores) notificou três órgãos do governo, incluindo a ANPD, cobrando providências.
Com o anúncio da suspensão, a Meta emitiu nota dizendo estar “desapontada” com a decisão da ANPD. A empresa alegou que não é a única a realizar o treinamento de IA. “Somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, afirmou a empresa.
A big tech declarou ainda que “cumpre com as leis de privacidade e regulações no Brasil” e chamou a decisão da ANPD de “retrocesso para a inovação e a competividade no desenvolvimento de IA”, afirmando que a medida vai atrasar “a chegada de benefícios da IA para as pessoas no Brasil".
DADOS SENSÍVEIS
A política de privacidade da Meta embasou o tratamento de dados para o treinamento de IA ao conceito de “legítimo interesse” da empresa. A decisão da ANPD, porém, afirma que a aplicação desse conceito ao caso é “inadequada”.
Para a autarquia, “a LGPD não admite o uso da hipótese legal do legítimo interesse para o tratamento de dados pessoais sensíveis, tal como ocorre neste caso concreto, notadamente diante da possibilidade de uso de imagens, áudios, textos e vídeos, que possam revelar vinculações políticas, religiosas e sexuais dos titulares”.
A autoridade também avalia que, para que houvesse o “legítimo interesse”, o treinamento da IA deveria corresponder a expectativas concretas dos usuários.
A decisão, porém, considerou que as publicações no Facebook ou no Instagram são feitas para “relacionamento com amigos, comunidade próxima ou empresas de interesse”.
“É razoável supor que, a princípio, não há a expectativa de que todas essas informações, inclusive as compartilhadas muitos anos atrás, sejam utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas”, justifica o texto.
O relatório também destaca que, entre as publicações coletadas pela Meta para o treinamento de modelos de IA, estão dados de crianças e adolescentes, o que exigiria a adoção “uma série de salvaguardas e medidas de mitigação de risco”.
A ANPD também destacou que, na Europa, a Meta anunciou que não estava usando contas de usuários com menos de 18 anos para o treinamento de seus modelos e que “não foi encontrada qualquer indicação sobre adoção de cautela similar” em relação aos usuários brasileiros.
Falta de transparência. O conselho diretor da ANPD avaliou ainda que o risco de a empresa não estar atendendo as expectativas dos usuários seria ainda maior em virtude de “insuficiência das informações prestadas aos titulares e de limitação ao exercício de seus direitos”.
Sobre o primeiro ponto, a decisão informa que a área técnica da ANPD constatou "a falta de comunicação clara, ampla e específica pela Meta quanto à alteração de sua política de privacidade” e ressaltou que a divulgação da atualização da política no Brasil foi “consideravelmente mais limitada” do que a realizada na União Europeia, onde os usuários das plataformas da Meta foram “previamente informados por email e notificações no aplicativo, proporcionando mais transparência”.
A decisão considerou também que a empresa não informou os usuários sobre as possíveis consequências do tratamento de seus dados para o desenvolvimento de modelos de IA generativa.
“A empresa limita-se a expressar, de forma genérica, em seu Canal de Privacidade, a ideia de que a IA generativa trará muitas possibilidades futuras para pessoas, criadores de conteúdo e empresas”, afirma nota técnica citada no relatório.
A ANPD apontou que a Meta teria dificultado o direito dos usuários de se opor ao uso de seus dados, que é assegurado pela LGPD. E citou tutorial do Aos Fatos que mostrou que o usuário “precisa passar por diversas etapas, chegando à necessidade de clicar em oito opções no caso do aplicativo Facebook”, para ter acesso ao formulário em que podem informar sua objeção.
"A opção de opt-out fornecida aos usuários, que permitiria aos titulares se oporem ao tratamento de seus dados pessoais, não é disposta de maneira evidente, e a complexidade para exercício dessa opção assemelha-se a um padrão obscuro de mascaramento de informações”, afirma nota técnica citada pelo texto.
A decisão também comparou o procedimento adotado no Brasil com o que ocorreu na Europa, onde a plataforma encaminhou o link diretamente aos usuários, e ressaltou que a ANPD já havia recomendado à Meta “a necessidade de simplificar o acesso aos canais de atendimento e facilitar o exercício dos direitos dos titulares”, durante a análise de uma alteração na política de privacidade do WhatsApp, em março de 2021.