“A gente sente que trabalha para alimentar um sistema de inteligência artificial e que um dia vai ser substituído por ele.” O desabafo do funcionário terceirizado do YouTube, que vive em Lisboa e vê sua equipe de trabalho diminuir mês a mês, reflete um processo que preocupa especialistas em segurança digital: a troca da mão de obra humana pela moderação automatizada de conteúdo.
Essencial para dar escala à moderação e agilizar a identificação e remoção de conteúdos inadequados, a IA ainda não é capaz de compreender nuances e contextos, o que torna necessário continuar com a supervisão humana mesmo com o avanço da tecnologia.
Entretanto, a substituição da mão de obra pela IA na moderação tem sido apontada como uma das motivações para as demissões no setor nos últimos anos. Estimativas indicam que ocorreram até 280 mil desligamentos no campo da tecnologia desde 2020. A falta de transparência das empresas impossibilita saber o impacto disso na segurança das redes ou mensurar o avanço da IA na tomada de decisões.
“A máquina está ficando cada vez mais inteligente, então acreditamos que o número de moderadores está sendo reduzido porque estão desenvolvendo algoritmos que não precisam mais da gente”, avalia o prestador de serviços do YouTube, que falou ao Aos Fatos sob a condição de anonimato.
O trabalhador relata que os sistemas automatizados vêm ganhando autonomia para identificar violações mais simples nos conteúdos postados, restando aos moderadores analisar casos mais complexos. Embora o trabalho tenha se tornado mais exigente, os funcionários de sua equipe têm sido obrigados a lidar com metas de produtividade mais altas, devido à redução nos quadros da empresa, o que pode acabar afetando a qualidade das decisões.
O aumento do peso da IA na moderação de vídeos não é exclusivo do YouTube e pode ser mensurado, por exemplo, em um relatório publicado no ano passado pelo TikTok:
- O total de vídeo removidos pela plataforma chinesa triplicou entre o terceiro trimestre de 2020 e o mesmo período de 2023, passando de 43,1 milhões para 136,5 milhões;
- No período, o crescimento dos conteúdos derrubados com intervenção humana foi de 20%, enquanto a moderação automatizada teve 2.532% de aumento.
- Entre julho e setembro de 2020, os vídeos removidos por IA representavam 7,8% do total, percentual que passou para 65% no mesmo intervalo do ano passado.
Além do avanço da tecnologia e da corrida das big techs por cortar custos, a pandemia de Covid-19 também acelerou a substituição dos humanos por máquinas na moderação. Em 2020, tanto o Google como a Meta anunciaram um aumento na moderação automatizada, devido à necessidade de restringir a circulação de pessoas.
Meses depois, o Google chegou a anunciar que voltaria atrás na decisão, por ter constatado que a derrubada de vídeos no YouTube havia dobrado — e que muitas dessas remoções eram indevidas.
Em janeiro deste ano, uma decisão do Comitê de Supervisão da Meta criticou que a empresa ainda mantinha, em maio de 2023, as políticas de automação relacionadas à COVID-19, em um julgamento que concluiu que a IA do Instagram falhou por manter um meme com o personagem Lula Molusco, do desenho Bob Esponja, que havia sido denunciado por negação do holocausto.
No final do ano passado, o comitê já havia alertado que a moderação automática da Meta estava removendo indevidamente conteúdo sobre o conflito entre Israel e o Hamas.
Procurada pelo Aos Fatos, a Meta não respondeu o pedido de posicionamento. Já o YouTube defendeu que a IA “aumenta continuamente a velocidade e a precisão” da análise de conteúdo, mas “o julgamento humano sempre desempenhará um papel central” no seu processo de moderação (leia a íntegra).
O TikTok, por sua vez, disse que investe “na melhoria da precisão de nossos sistemas de moderação automatizados para que possamos remover com maior eficácia e em grande escala conteúdo violador, bem como reduzir o número de remoções incorretas” (leia a íntegra).
Na mesma linha, o Kwai afirmou que “investe permanentemente em sua estrutura de moderação de conteúdo, composta por mecanismos de inteligência artificial e moderação humana e que funciona 24 horas por dia, 7 dias por semana” (leia a íntegra).
Treinadores de IA
A presença da IA é sentida no cotidiano dos moderadores, marcado por atividades que envolvem a seleção de respostas pré-determinadas pelo sistema. No caso do YouTube, o trabalhador ouvido pelo Aos Fatos relata que sua tarefa hoje consiste em responder com “sim” ou “não” a questionários fechados, o que considera servir mais ao treinamento da máquina do que à avaliação do conteúdo específico.
“As perguntas não contemplam a subjetividade dos conteúdos e isso deixa a gente muito estressado, porque às vezes não se encaixam e temos que escolher uma resposta. A gente vê claramente essas perguntas como se fossem do próprio algoritmo”, queixa-se.
Um terceirizado da Meta que vive em Bogotá conta que se tornou comum que, ao apresentar um conteúdo para avaliação, o sistema da empresa forneça uma resposta pré-preenchida, cabendo ao revisor apenas confirmar ou recusar a sugestão. Situação similar é vivida em outras redes, como TikTok e Kwai, nas quais a tarefa de muitos empregados se limita a atribuir tags ou labels já definidos para categorizar os conteúdos que analisam.
Rotular dados e validar os resultados apresentados pela máquina são dois papéis exercidos por humanos no procedimento de aprendizado supervisionado das IAs, explica Lucas Lattari, doutor em ciência da computação e professor do Instituto Federal do Sudeste de Minas Gerais. É por meio dos procedimentos padronizados que os trabalhadores dão feedback para as decisões do sistema ou ajudam os robôs a identificar padrões.
“Algoritmos de IA podem ser aprimorados com novos dados sem que necessariamente sejam treinados desde o início, já que é um processo muitas vezes longo e demorado. Com isso, a IA é atualizada em tempo real e na produção”, esclarece Lattari. “Se algo ofensivo for denunciado para a plataforma, o moderador pode confirmar e excluir a postagem, e isso pode ser automaticamente incorporado na IA”, exemplifica.
O uso dos moderadores no treinamento das IAs do YouTube é citado pelo Google na prestação de contas que apresentou à União Europeia no ano passado. “À medida que os modelos continuamente aprendem e se adaptam com base no feedback dos moderadores de conteúdo, essa abordagem colaborativa ajuda a melhorar a precisão desses modelos ao longo do tempo”, diz o relatório.
Aposta arriscada
Dado o volume de novos conteúdos que chegam diariamente às plataformas, garantir a segurança nas redes seria impossível sem as IAs. Se um vídeo já derrubado voltar a ser subido, por exemplo, a tecnologia pode removê-lo de forma quase instantânea sem passar por nenhum humano. Padrões existentes em imagens pornográficas e de abuso infantil também já podem ser identificados pelas máquinas, bem como expressões típicas dos discursos de ódio e conteúdo que viole direitos autorais.
“As IAs realizam muito do trabalho ‘braçal’, tornando os moderadores mais eficientes”, ressalta Lattari, ponderando que a tecnologia possui limitações e que “sempre haverá possibilidade de falha e a necessidade de pessoas certificando o processo”, mesmo que em menor número.
O moderador do YouTube tem consciência das fragilidades da tecnologia, afirmando já ter se deparado com vídeos de um homem brincando com a filha que poderia ser enquadrado como abuso infantil por detalhes que passam batido pela IA, como o enquadramento da câmera quando a criança toca nas partes íntimas do pai durante uma brincadeira no parque. “A gente sabe que tem uma intenção maliciosa por trás disso, mas o algoritmo precisa da componente humana para analisar, para tentar entender as nuances. Vai demorar muito até a máquina conseguir perceber tudo.”
Para Yasmin Curzi, professora do Centro de Tecnologia e Sociedade da FGV (Fundação Getulio Vargas), as dificuldades da IA em compreender as nuances é mais acentuada no caso dos conteúdos em áudio e vídeo. “Até dá para colocar técnicas de moderação automatizada, mas precisa de contexto.”
“As IAs possuem bastante dificuldade de entender algumas coisas. Elas não necessariamente compreendem o contexto social, cultural ou político de algumas postagens em redes sociais e isso pode comprometer muito o julgamento”, explica Lattari, citando como exemplo os casos de conteúdos sobre amamentação rotulados como inapropriados pelo Instagram.
Situação similar ocorre com figuras de linguagem, como o sarcasmo e a ironia. “Um perfil pode tratar outro com uma ofensa em tom de brincadeira, algo bastante corriqueiro numa rede social, e a IA não notar isso”, acrescenta.
Há ainda casos em que os próprios usuários utilizam estratégias para despistar a IA, como a alteração de algarismos em palavras que representam discurso de ódio — substituindo as letras “a” por arrobas, por exemplo — para que os conteúdos não sejam identificados pela máquina.
Por causa de fragilidades como essas, Lattari defende a necessidade de que os moderadores humanos sejam mantidos “em número significativo”, o que exige que se encontre um ponto de “equilíbrio entre a força humana e da máquina”.
“O que preocupa é o peso que as empresas darão ao lado humano considerando necessidades de redução de custos e aumento do lucro”, sublinha o professor, defendendo o aumento da transparência do setor para que a sociedade possa acompanhar as mudanças.
O caminho da apuração
Quando estava apurando a primeira reportagem da série, o Aos Fatos ouviu de moderadores como a inteligência artificial estava presente em seu cotidiano. Especialistas também alertaram que a onda de demissões poderia significar um aumento da moderação automatizada.
Com essas informações, a reportagem fez entrevistas e buscou relatórios e reportagens disponíveis online para aprofundar o debate. Também foram enviados pedidos de posicionamento para cada uma das plataformas, fornecendo um relatório detalhado das afirmações e críticas que apareciam no texto.
Esta reportagem faz parte de uma série investigativa do Aos Fatos sobre moderação em língua portuguesa nas principais redes sociais.