Com demissões e sem ‘PL das Fake News’, ‘big techs’ aprofundam apagão de dados sobre moderação

Compartilhe

Sem nenhuma obrigação de prestar contas a autoridades sobre os procedimentos de moderação adotados e o número de funcionários envolvidos no trabalho, as empresas responsáveis pelas redes sociais mais populares no Brasil adotam sigilo absoluto em torno do assunto.

Num mercado gigante como o brasileiro, a falta de transparência é mais um fator de risco em meio a demissões nas plataformas — realizadas meses antes das eleições municipais, que serão as primeiras no país após a popularização de ferramentas de inteligência artificial generativa.

No caso das demissões no TikTok em março, por exemplo, nem os funcionários da rede sabiam ao certo o tamanho do corte. “O RH nunca foi muito transparente quanto ao tamanho exato das operações em São Paulo”, disse ao Aos Fatos um dos moderadores demitidos, sob condição de anonimato.

O “PL das Fake News” (PL 2.630/2020), que a Câmara deixou de votar a tempo para a disputa eleitoral deste ano, buscava obrigar as empresas a publicarem informes de transparência periódicos, à semelhança do que ocorre hoje na União Europeia. O projeto previa relatórios semestrais com:

  • o número de usuários ativos na plataforma;
  • a quantidade de denúncias recebidas;
  • informações sobre o uso de automação;
  • e o tamanho das equipes, entre outros dados.

Sem uma lei que promova a transparência, especialistas em direito digital se queixam de que a falta de dados sobre a moderação no Brasil impede que se avalie se o investimento das empresas em segurança é compatível com os riscos — maiores em período eleitoral.

“A Meta afirma ter 40 mil moderadores, mas não revela a distribuição geográfica deles nem os idiomas, de modo que não sabemos o percentual de moderação feito no Brasil”, critica Thiago Tavares, presidente da Safernet, ONG que combate violações de direitos nas redes.

“A gente não tem os dados, e as empresas se protegem dizendo que são informações muito sensíveis”, explica Yasmin Curzi, professora e pesquisadora do Centro de Tecnologia e Sociedade da FGV.

A principal sensibilidade em torno do dado, porém, é para a reputação das próprias empresas. No caso do Telegram, sequer está claro se a plataforma possui hoje qualquer equipe de moderação formada por fluentes em português.

A mesma dúvida pairava até o ano passado em relação ao X (ex-Twitter), quando o relatório que a empresa publicou na Europa informou que são 41 os moderadores nativos no idioma. Ainda que todos se dedicassem ao mercado brasileiro, o número seria pequeno se considerar que a empresa abriga 22 milhões de contas só no Brasil, segundo dados compilados pelo DataReportal.

Já a Meta, no relatório apresentado na Europa, informou ter 58 moderadores fluentes em português, mas manteve o mistério em relação às equipes para o Brasil ao ressalvar que, “para línguas amplamente faladas fora da União Europeia, existem revisores de conteúdo adicionais”, sem dizer quantos.

Os números relativos ao YouTube são de difícil interpretação, já que o Google diz no relatório que eles não refletem a quantidade de moderadores contratados para fazer análise apenas em um idioma, mas sim “quantos funcionários revisaram pelo menos dez vídeos” em determinada língua.

Os 464 moderadores de português informados pela plataforma, portanto, podem incluir funcionários que dividem a jornada com outros idiomas. A forma como o dado é apresentado também não exclui que conteúdos em português sejam analisados com o auxílio de ferramentas de tradução.

O segredo em torno da moderação de conteúdo afeta a rotina dos contratados para a tarefa, segundo funcionários das empresas ouvidos pelo Aos Fatos — cujos nomes são mantidos em sigilo porque seus contratos de trabalho têm cláusulas de confidencialidade.

“A maioria dos moderadores vive numa paranoia”, diz um funcionário da unidade da Teleperformance em Bogotá, uma das terceirizadas da Meta.

Todos os dias, ele e os demais brasileiros que trabalham para a big tech na Colômbia precisam chegar dez minutos antes do início do turno para dar tempo de passar por portas giratórias, detectores de metal e pela revista de seus pertences. O único objeto permitido na sala onde é feita a moderação é uma garrafa d’água.

Faixa com formas abstratas em tons de rosa, preto, branco e verde abacate.

BABILÔNIA

Um dos funcionários terceirizados da Meta afirma que nem todas as linhas de moderação da empresa na Colômbia possuem brasileiros na equipe, citando como exemplo os anúncios, que são analisados por “colombianos que falam português e recebem consideravelmente menos”.

Com menor fluência na língua, avalia, esses moderadores teriam menor capacidade de identificar problemas nos conteúdos pagos. “Acredito que seja uma estratégia da Meta, pois isso reduz a chance de postagens com muito impulsionamento serem removidas”, opina.

Anúncios de golpes — que deveriam ser derrubados pela moderação — são fonte relevante de faturamento para a empresa, correspondendo a 11% das receitas da Meta com anúncios "políticos e sociais" nos últimos três meses de 2023, como o Aos Fatos mostrou.

Identificar conteúdos desinformativos ou discurso de ódio nas redes, porém, não depende apenas da capacidade do moderador de compreender o idioma das publicações — é preciso que o revisor entenda também o contexto.

“Já tive que explicar o significado de ‘Pix’, ‘FGTS’, ‘CPF’ e outros termos brasileiros que precisamos entender para revisar um conteúdo ”, relata um prestador de serviços do YouTube em Lisboa, que diz que a maior parte dos seus colegas de trabalho são portugueses.

“A falta de compreensão acerca do contexto em que determinado conteúdo foi produzido pode gerar a proliferação de conteúdo impróprio ou, ainda, a restrição excessiva de discursos legítimos”, alerta um estudo produzido pela Safernet.

Embora as plataformas ofereçam seus serviços em quase todo o mundo, a moderação tende a priorizar o inglês, deixando em segundo plano a segurança em países que falam outros idiomas. A falha já foi denunciada por uma ex-funcionária da Meta e por investigações da imprensa.

Se a falta de diversidade dos funcionários já era um problema, a situação tende a se agravar com a substituição de humanos por ferramentas de IA. De acordo com especialistas, essa tem sido uma das motivações para as demissões no setor nos últimos anos. Outro problema, aponta Curzi, é que mesmo que garanta escala e velocidade à moderação, a tecnologia ainda não é capaz de compreender nuances e contextos dos discursos.

Para tentar contornar a falta de dados, a Safernet sugere a criação, pelo Ministério do Trabalho, de um código no catálogo de ocupações para designar a profissão de moderador de conteúdo, que hoje não existe.

Em tese, a medida tornaria possível acompanhar, por meio das estatísticas de emprego, se as equipes estão aumentando ou diminuindo.

A especificação da ocupação, porém, dificilmente acabaria com a falta de dados nacionais, já que a maior parte das equipes de segurança que cuidam das redes brasileiras se encontra em outros países.

“A minha equipe foi uma das últimas do Facebook no Brasil”, disse um trabalhador que assistiu à saída da moderação da atual Meta do país, em abril de 2020, e agora trabalha para outra plataforma.

  • Hoje, a empresa fundada por Mark Zuckerberg mantém contratos com outsourcings que empregam moderadores brasileiros pelo menos em Bogotá, Lisboa, Barcelona e Atenas;
  • No caso do YouTube, o Aos Fatos apurou que existem projetos de moderação em Lisboa, onde também estão alguns analistas do Google Ads, mas não conseguiu identificar outras empresas prestando esse tipo de serviço para a Alphabet — que, entretanto, garante ter equipes atuando no Brasil;
  • Kwai e TikTok têm moderadores tanto no Brasil como no exterior;
  • Enquanto o Kwai usa moderadores na China com foco nas operações brasileiras, o TikTok opera também no Uruguai, Colômbia, Peru e Índia.

Em 2022, o estudo da Safernet identificou vagas de emprego para a contratação de moderadores que falam português em 39 cidades de 22 países do mundo. Para os pesquisadores, essa “globalização” do serviço aumenta o risco de os analistas não compreenderem o conteúdo, já que podem estar em países “com tradições e noções completamente distintas”.

Para as plataformas, no entanto, a localização das equipes é motivada sobretudo por redução de custos. “As empresas são transnacionais e podem estar onde quiserem, e a ausência de regulação no Brasil permite que elas possam agir dessa forma”, avalia Curzi.

OUTRO LADO

O Aos Fatos perguntou a todas as empresas citadas nesta reportagem quantos moderadores fluentes em português elas empregam hoje para o mercado brasileiro e, desses, quantos são nascidos no país. Nenhuma empresa informou os dados segmentados para o país da forma como foram solicitados.

O YouTube declarou que tem “equipes dedicadas ao mercado brasileiro para garantir que nossos esforços de moderação de conteúdo reflitam o idioma e o contexto local” e que essas equipes “ajudam a desenvolver políticas, fornecem conhecimentos culturais e linguísticos e apoiam a rede global de mais de 20.000 revisores de conteúdo em todo o mundo”. Segundo a empresa, “essa abordagem nos permite garantir que a moderação de conteúdo seja consistente em todos os idiomas e regiões” (leia a íntegra).

O TikTok, por sua vez, afirmou que possui um Centro de Transparência e que publica trimestralmente Relatórios de Aplicação das Diretrizes da Comunidade, “tornando transparente nossos esforços de moderação”. Em um desses links é possível ver um gráfico que informa que 4,5% dos moderadores humanos da empresa trabalham com o português como idioma principal. A plataforma diz também que, no mundo, emprega mais de 40.000 profissionais na área de Confiança e Segurança, incluindo “moderadores brasileiros que entendem o contexto local” (leia a íntegra).

Já o Kwai não informou número de moderadores nem no Brasil nem no mundo, mas disse que, com foco nas eleições municipais, aumentou sua equipe de moderação em 15% neste ano (leia a íntegra).

A Meta não respondeu.

O caminho da apuração

Em entrevistas com especialistas para reportagens anteriores, o Aos Fatos ouviu queixas sobre a dificuldades de acessar dados referentes às plataformas digitais. A reportagem buscou os relatórios disponibilizados pelas plataformas na Europa para identificar quais informações as empresas divulgam lá, mas omitem aqui.

Ao confirmar a falta de dados sobre a quantidade de trabalhadores que atuam para as redes brasileiras, procuramos — por meio das redes sociais — funcionários das principais plataformas, para tentar obter informações de bastidores. Para proteger quem aceitou falar, os nomes foram omitidos. O quadro foi analisado com a ajuda de estudos e especialistas.

Por fim, a reportagem procurou cada uma das plataformas, fornecendo um relatório detalhado de todas as afirmações e críticas que apareciam no texto, para que as empresas pudessem se posicionar.


Esta reportagem faz parte de uma série investigativa do Aos Fatos sobre moderação em língua portuguesa nas principais redes sociais. Em parceria com o Clip (Centro Latinoamericano de Investigación Periodística), esta reportagem também foi publicada em espanhol.

Compartilhe

Leia também

falsoVídeo do letreiro de Hollywood em chamas foi gerado por IA

Vídeo do letreiro de Hollywood em chamas foi gerado por IA

falsoÉ falso que Haddad disse que plano do governo Lula é ‘taxar tudo’

É falso que Haddad disse que plano do governo Lula é ‘taxar tudo’

Checagem coíbe fraudes e exploração de tragédias em redes da Meta

Checagem coíbe fraudes e exploração de tragédias em redes da Meta