Moderadores relatam pressão de ‘big techs’ e reforçam temor sobre segurança nas eleições

Compartilhe

A meses da eleição municipal, a primeira no Brasil após a popularização de ferramentas de inteligência artificial, profissionais que atuam na moderação de conteúdo em língua portuguesa para as principais redes sociais relataram ao Aos Fatos cobranças por aumento de produtividade e uma piora nas condições de trabalho.

O cenário reforça um alerta entre autoridades e especialistas em direito digital: cortes de custo elevam o risco de desinformação eleitoral.

Os moderadores atuam na linha de frente da segurança das plataformas, em contato direto com desinformação e discurso de ódio, que costumam aumentar durante campanhas eleitorais. Numa rotina desgastante, esses profissionais são responsáveis por avaliar e classificar vídeos, imagens e publicações segundo as regras da empresa para a qual trabalham, para que sejam removidos ou mantidos no ar.

Em conversas com o Aos Fatos, funcionários e terceirizados que atuam para Meta, YouTube e TikTok detalharam o aumento na quantidade de conteúdo para análise e a imposição de metas de produtividade mais ambiciosas, que alguns consideram inatingíveis.

Os relatos sugerem que a onda global de demissões nas empresas pode ter reduzido o tamanho das equipes que trabalham na segurança das redes brasileiras, embora a falta de transparência das big techs — que não são obrigadas a divulgar o número de funcionários encarregados da moderação — impeça um diagnóstico mais preciso.

  • A reportagem conversou com oito moderadores de conteúdo que estão na ativa e quatro ex-colaboradores das plataformas nos últimos meses;
  • Os depoimentos foram colhidos sob a condição de anonimato, já que as empresas impõem cláusulas de sigilo nos contratos de trabalho;
  • A maior parte desses trabalhadores são terceirizados;
  • Todos os entrevistados atuam para o mercado de língua portuguesa e, embora sejam brasileiros, mais da metade está fora do país.

Mesmo moderadores que dizem que suas empresas estão contratando em vez de demitir relatam alta significativa no volume de conteúdos que precisam processar por dia — indício de que as vagas abertas não estão compensando postos de trabalho fechados ou são insuficientes para acompanhar o aumento na demanda.

  • Moderadores que prestam serviço para YouTube, TikTok e Meta dizem que são cobrados a apresentar uma produtividade cada vez maior;
  • Em todos os casos, os trabalhadores disseram que o número de conteúdos que precisam analisar por dia pelo menos dobrou;
  • O número de tarefas de cada moderador varia de acordo com sua complexidade;
  • Análises de conteúdos individuais costumam demandar menos tempo do que avaliações mais complexas de perfis, por exemplo.

“Meu projeto chegou a ter 120 pessoas, mas hoje em dia somos aproximadamente 50 e não sabemos o motivo da redução. Aliás, a empresa tem por hábito mudar tudo repentinamente e não explicar nada, sempre alegando que é decisão do cliente. No caso das demissões, apenas comunicaram que os projetos seriam reduzidos”, relata um empregado em Lisboa da Cognizant, uma das terceirizadas que presta serviços na capital portuguesa para o YouTube — plataforma de vídeos do Google.

O analista afirma que, nas eleições de 2022, foram contratadas equipes temporárias de brasileiros para times de moderação focados no pleito, mas que, em março deste ano, ainda não havia sinais de que o movimento iria se repetir.

“Eles estão reduzindo as equipes sabendo que tem eleições americanas, eleições no Brasil e eleições em Portugal neste ano. Esse assunto é muito importante, influencia completamente a nossa vida, e eu realmente não vejo atenção para isso”, afirma.

As demissões em massa nas empresas de tecnologia começaram em 2022 e não há sinais de reversão na tendência. Com menos funcionários, as big techs estão registrando lucros maiores, mas a imprensa internacional tem alertado para o impacto desse movimento na segurança das plataformas.

“A moderação de conteúdo não está resolvida no Brasil e estamos em um cenário pior do que estávamos nas eleições de 2020 e 2022”, avalia Yasmin Curzi, professora e pesquisadora do Centro de Tecnologia e Sociedade da FGV.

Para a especialista em direito digital, as empresas estão acelerando a substituição dos humanos pela moderação com detecção automatizada de conteúdos, que é feita com inteligência artificial e não tem capacidade de captar nuances dos discursos, sobretudo nos áudios e vídeos. Além disso, ressalta, essas tecnologias foram construídas com base nos Estados Unidos, ignorando as particularidades de outros contextos culturais e idiomas.

Um membro do Ministério Público Federal, que conversou com a reportagem em condição de anonimato, expressou apreensão com o cenário eleitoral deste ano. Para ele, o fato de o governo não ter conseguido aprovar o “PL das Fake News” (PL 2.630/2020) pode ter deixado as empresas menos preocupadas em garantir a segurança das redes.

O procurador lembra que as eleições municipais costumam ser laboratório para novas experiências de disseminação de desinformação, que servem de aprendizado para disputas seguintes. Neste ano, por exemplo, devem ganhar espaço as deepfakes eleitorais.

Além da diminuição nas equipes, o moderador que trabalha para a Cognizant em Lisboa afirma que o volume de trabalho aumentou, com a imposição de metas de qualidade difíceis de alcançar e ameaças de demissão por justa causa para quem não cumpri-las.

“Quando eu comecei, eu tinha 45 contas para analisar dentro de cinco horas e isso foi aumentando até que chegou um momento em que eram 60 contas. É humanamente impossível. Você tem que analisar uma conta em cinco minutos sabendo que, às vezes, ela tem 300 vídeos e precisamos assistir pelo menos 40 vídeos para tomar uma decisão”, queixa-se.

O trabalho é submetido a uma análise de qualidade e, caso o índice de acerto na tomada de decisões fique abaixo da meta de 90%, os moderadores passam por um programa de recuperação e podem até perder o emprego. “A gente acha que estão criando uma forma de demitir a gente sem pagar os direitos ou fazendo pressão psicológica para que a gente peça demissão.”

Procurado pelo Aos Fatos, o YouTube afirma que suas “equipes focadas nas eleições têm trabalhado sem parar para garantir que tenhamos as políticas e os sistemas corretos em vigor para apoiar as eleições ao redor do mundo em 2024”. Segundo a empresa, a quantidade de vídeos removidos mais que triplicou no primeiro trimestre de 2024 (770.000), em comparação com o mesmo período de 2022 (211.580).

A plataforma diz também que a equipe Trust & Safety do YouTube foi menos impactada do que outras equipes nas demissões do Google em janeiro de 2022, que atualmente está contratando para mais de 50 cargos e que continua exigindo que seus parceiros “forneçam os recursos necessários de saúde mental e bem-estar” para seus colaboradores (leia a íntegra).

Ilustração mostra a silhueta de uma cabeça em preto com uma mancha abstrata branca na frente. Ao fundo aparecem figuras geométricas em tons de rosa, preto e verde abacate.

Transtornos psicológicos

Um moderador terceirizado da Meta que trabalha em Bogotá relata que também viu a pressão e o volume de trabalho aumentar no último ano. “Eles estão cobrando cada vez mais ‘jobs’. No começo, fazíamos 100 ao dia e já estamos na marca dos 400”, diz.

Recrutado pelo LinkedIn logo no início da moderação em português da Meta na Colômbia, em 2022, o brasileiro diz que sentiu que “a chave virou depois de um ano” de sua chegada ao país e relata ter testemunhado colegas desenvolverem transtornos psicológicos. “Não vejo a hora de sair daqui. É uma cultura de trabalho tóxica.”

O relato é reforçado por outro trabalhador terceirizado da Meta em Bogotá, que diz que o número de perfis que sua linha de moderação atual precisa analisar por dia dobrou, passando de cerca de 50 para 100. “Não queremos que chegue ao ponto de afetar, de fato, a qualidade”, diz o brasileiro. Segundo ele, o aumento no volume de trabalho não resulta em mais ganhos para os moderadores, já que eles não são remunerados por produção.

A moderação da Meta na Colômbia está a cargo da multinacional Teleperformance. Os funcionários da empresa entrevistados pelo Aos Fatos calculam que, em Bogotá, cerca de 500 brasileiros trabalham na segurança de Facebook, Instagram e WhatsApp, além de um número parecido de falantes nativos do espanhol fluentes em português.

Um dos trabalhadores ouvidos pela reportagem diz que uma nova leva com cerca de 100 brasileiros era esperada em Bogotá no primeiro semestre do ano, para reforçar a operação, mas seu relato é pessimista. “Há sempre falta de moderadores, e creio que seja feito propositalmente.”

A filial colombiana da Teleperformance já foi alvo de denúncias por causa das condições de trabalho a que eram submetidos os moderadores de outra plataforma, o TikTok.

O Aos Fatos não identificou brasileiros fazendo moderação para a plataforma chinesa em Bogotá. Em São Paulo e Lisboa, porém, os prestadores de serviço do TikTok também acumulam queixas.

“O volume do trabalho aumentou bastante”, reclama um moderador que vive no Brasil e viu a demanda mais do que dobrar em um ano. “Eu moderava em torno de 500 vídeos e hoje está em 1.200.”

Segundo o funcionário da plataforma — um dos poucos que não é terceirizado — seu caso não é pontual e, por causa do aumento da pressão, muitos de seus colegas de trabalho “andam com problemas psicológicos, por muita exposição a vídeos bizarros durante o dia”. Embora a empresa forneça atendimento psicológico, o moderador considera que o cuidado não está sendo suficiente.

Nos últimos meses, o TikTok anunciou no LinkedIn a abertura de vagas para moderadores de conteúdo. Em março, porém, a empresa demitiu mais de 50 funcionários do seu time de qualidade. Com salários maiores do que os dos moderadores, esses analistas eram responsáveis por auditar a moderação e identificar tendências que precisam de atenção das equipes — uma nova trend que viole alguma regra, por exemplo.

“Antes, analisávamos qual a política de segurança precisava de melhorias. Por exemplo, quais palavras estão sendo usadas neste momento que caracterizam um discurso de ódio? Ou, nas eleições 2022, quais trends e ataques não estão cobertos pelas nossas políticas, para que elas sejam atualizadas? Hoje essa análise deixou de funcionar”, descreve um dos demitidos no layoff.

Segundo o ex-funcionário da empresa, outro setor afetado por mudanças recentes nas equipes foi o de análise de comentários, que considera “onde grande parte do discurso de ódio reside”.

Também nos projetos para o TikTok tocados pela Teleperformance em Portugal, depoimentos indicam que algumas frentes de moderação foram fechadas nos últimos meses — caso da linha especializada em depressão. Boatos de que outros projetos terão o mesmo destino seguem circulando por lá.

“A gente não sabe de nada, ultimamente nem os supervisores sabem de nada”, desabafa uma funcionária que atua em Lisboa e que, desde meados do ano passado, escuta rumores de que o projeto em que atua pode também ser, como se diz no jargão corporativo, “descontinuado”.

Neste ano, a Teleperformance de Lisboa foi palco de protestos de funcionários por melhores condições de trabalho. A onda de insatisfação na capital portuguesa também motivou uma greve na unidade local da Accenture, onde estão várias linhas de moderação da Meta.

Em posicionamento enviado ao Aos Fatos, o TikTok disse que, em março, reestruturou “uma equipe específica” dentro da organização e que isso “permitiu aprimorar ainda mais os processos de garantia de qualidade”. A empresa afirma que “nenhum moderador de conteúdo foi afetado” e que segue contratando globalmente para sua equipe de segurança.

A plataforma afirma ainda que pretende investir, “apenas neste ano, mais de US$ 2 bilhões em esforços de Confiança e Segurança” e que usa “uma abordagem baseada em evidências para desenvolver programas e recursos que contribuam para o bem-estar psicológico dos moderadores” (leia a íntegra). A Meta não respondeu.

Equipes na China

A moderação do Kwai no Brasil está hoje sob a responsabilidade de duas consultorias especializadas no mercado chinês — IEST Group e Neusoft, instaladas em São Paulo. “Eram três ou quatro empresas, contando com a minha, só que algumas foram cortadas porque não entregavam o serviço como eles queriam”, afirmou um colaborador da plataforma chinesa.

Segundo o funcionário, a mudança ocorreu por causa de cobranças do Kwai em relação à qualidade do serviço prestado. Entretanto, desde então, a moderação das lives e dos comentários dos usuários foi transferida para equipes na China — não foi possível obter informações sobre o número de funcionários ou sua fluência no português.

Os prestadores de serviço do Kwai não se queixaram de aumento no volume de trabalho no último ano, ao contrário — dizem que o número de vídeos diminuiu. Porém, a maior reclamação é sobre as diretrizes da empresa em relação ao que deve ou não ficar no ar. Segundo o relato de um outro moderador da plataforma, as equipes são orientadas, por exemplo, a deixar passar peças de desinformação que simulam conteúdos jornalísticos, sob o argumento de que outros times vão fazer a análise desses conteúdos.

“Falaram que tem uma equipe de segurança, mas é da China. Começou a vir cada vez mais vídeos assim e a gente sentia que a equipe de segurança não estava fazendo nada contra isso, nenhum deles está sendo bloqueado”, critica. “Como é que a equipe de segurança vai ver se a gente passa esses vídeos como ‘allow’? Não dá para entender quem é essa equipe.”

O jovem reporta um aumento da tensão com a proliferação cada vez maior de “conteúdos tendenciosos ou problemáticos”. “Em 2022, a gente tinha certeza que era moderador e cuidava da segurança. Hoje não vejo a gente fazer a segurança, a preocupação é com o engajamento.”

O Kwai é alvo de um inquérito aberto em janeiro pelo MPF (Ministério Público Federal), na sequência de uma reportagem da piauí que revelou, a partir de documentos e entrevistas com funcionários e ex-funcionários, que a plataforma chinesa teria pago pela produção de desinformação, perfis clonados e outros conteúdos desonestos a fim de impulsionar sua operação.

Um dos eixos da investigação do MPF sobre o Kwai trata da promoção de conteúdos que exploram a sexualização de menores de idade, já foi mostrada em reportagens do Aos Fatos e do Núcleo.

Procurado, o Kwai diz fazer varreduras constantes para identificar e remover conteúdos falsos e que, no segundo semestre de 2023, derrubou 4.252.536 vídeos e baniu 577.461 contas em todo o mundo por violar suas políticas. Segundo a empresa, a moderação de conteúdos potencialmente desinformativos passa por três processos distintos de moderação humana, que termina com checagem por agências de verificação de fatos — incluindo o Aos Fatos, com quem o Kwai tem parceria.

A plataforma afirma ainda que, neste ano, com foco nas eleições municipais, aumentou sua equipe de moderação em 15% e baniu anúncios e impulsionamentos de qualquer conteúdo relacionado ao processo eleitoral (leia a íntegra).

Arte no formato de uma faixa que divide o texto, elaborada com formas abstratas nas cores branco, preto, rosa e verde abacate.

Na mira do TSE

Em abril, o “PL das Fake News” — que propõe a regulação das plataformas — voltou quase à estaca zero após o presidente da Câmara dos Deputados, Arthur Lira (PP-AL), anunciar o afastamento do relator do projeto e a criação de um grupo de trabalho para rediscutir a proposta, que estava parada havia um ano na Casa.

Para tentar preencher o vácuo legal decorrente das dificuldades do Congresso em passar o projeto, o TSE (Tribunal Superior Eleitoral) aprovou em fevereiro uma série de resoluções para serem aplicadas nas eleições de outubro.

As normas estipulam, dentre outras medidas, regras para o uso das IAs nas campanhas políticas — inclusive com a previsão de cassação de candidatos que usarem deep fakes contra seus adversários.

Um artigo também coloca pressão sobre as plataformas, dizendo que elas podem ser responsabilizadas solidariamente caso não tirem do ar, por exemplo, posts com discurso de ódio ou ataques ao Estado Democrático de Direito — como os que instigaram a invasão das sedes dos Três Poderes em 8 de janeiro de 2023.

Sem a aprovação do “PL das Fake News”, porém, a regra do TSE entra em choque com o Marco Civil da Internet (lei nº 12.965/2014), que determina que as plataformas só respondem por conteúdo de terceiros caso descumpram ordem judicial para removê-los.

“Enquanto a gente não olhar para os moderadores de conteúdo como uma peça fundamental, não adianta ter resolução do TSE. O que vai ter são casos individuais chegando no Judiciário, mas o problema estrutural será mantido”, avalia Yasmin Curzi.

A pesquisadora da FGV acredita que as plataformas devem firmar acordos com o TSE, prometer melhorias e divulgar campanhas de incentivo ao voto, “mas os compromissos com a moderação de conteúdo continuarão significando ‘custo de contratação de pessoal’, que é tudo o que elas querem reduzir agora”.

“As plataformas não vão fazer nada que implica custo. Cabe ao estado olhar para isso e obrigá-las a se adequar, como faz com qualquer outra empresa”, conclui.

O caminho da apuração

Em entrevista feita para outra pauta, a reportagem ouviu de um representante do Ministério Público preocupações sobre as eleições deste ano, que foram repetidas por especialistas. Os entrevistados também se queixaram da falta de dados para poder avaliar o quadro.

Para suprir a lacuna, a reportagem identificou, por meio das redes sociais, funcionários que trabalham para as principais plataformas e enviou dezenas de pedidos de entrevista, a maioria dos quais foi recusado por causa do sigilo dos contratos. Para proteger quem aceitou falar, os nomes foram omitidos.

Por fim, a reportagem procurou cada uma das plataformas, fornecendo um relatório detalhado de todas as afirmações e críticas que apareciam no texto, para que as empresas pudessem se posicionar.


Esta reportagem faz parte de uma série investigativa do Aos Fatos sobre moderação em língua portuguesa nas principais redes sociais. Em parceria com o Clip (Centro Latinoamericano de Investigación Periodística), esta reportagem também foi publicada em espanhol.

Compartilhe

Leia também

falsoVídeo do letreiro de Hollywood em chamas foi gerado por IA

Vídeo do letreiro de Hollywood em chamas foi gerado por IA

falsoÉ falso que Haddad disse que plano do governo Lula é ‘taxar tudo’

É falso que Haddad disse que plano do governo Lula é ‘taxar tudo’

Checagem coíbe fraudes e exploração de tragédias em redes da Meta

Checagem coíbe fraudes e exploração de tragédias em redes da Meta