A decisão da Meta de rever sua política de discurso de ódio, que passou a autorizar frases como “odeio negros” e “brancos são melhores”, levou a AGU (Advocacia-Geral da União) a convocar uma audiência pública para discutir a mudança. O risco, alertam especialistas, é que a postura da empresa impulsione ataques a minorias no ambiente virtual.
Em redes como X, Kwai e Telegram, porém, sistemas de moderação falhos ou inexistentes já permitem a proliferação de conteúdos extremistas e criminosos, que também estão ganhando mais espaço nas caixas de comentários do YouTube e do TikTok devido aos cortes de custos efetuados pelas big techs nos últimos anos.
Com a redução no controle sobre o que é postado, publicações neonazistas e canais de venda de imagens de abuso sexual infantil deixaram de estar restritos ao submundo da deepweb e se tornaram acessíveis a qualquer usuário.
Antes de tornar sua política mais branda, a própria Meta já era criticada por deixar passar conteúdos que não estavam de acordo com seus termos de uso.
Em julgamento divulgado em abril do ano passado, por exemplo, o Comitê de Supervisão da plataforma considerou que a empresa errou ao manter no ar posts denunciados por difundirem estereótipos racistas contra negros americanos, como a associação desse grupo à criminalidade.
“Se, diante desse anúncio de mudança da Meta, tudo continuar como está, é sinal que a gente já está no fundo do poço”, avalia Alexandre Arns, consultor da Coalizão Direitos na Rede. Para Arns, porém, a tendência é de piora no cenário.
No Brasil, o artigo 19 do Marco Civil da Internet (lei nº 12.965) diz que os provedores de conteúdo não são responsáveis pelo conteúdo criminoso postado por terceiros, salvo se não cumprirem determinação judicial pedindo a remoção.
Até o momento, a regra serviu de salvo-conduto para as empresas. No ano passado, porém, o STF (Supremo Tribunal Federal) iniciou o julgamento da constitucionalidade desse artigo, e os relatórios dos ministros que já apresentaram seus votos indicam uma tendência de aumento da responsabilização das big techs diante do ambiente tóxico das redes.
Redes tóxicas
O processo de deterioração previsto para a Meta foi visto após a compra do então Twitter, em 2022, pelo magnata sul-africano Elon Musk, que trocou o nome da rede para X e dizimou o time de segurança da plataforma.
Uma pesquisa divulgada meses depois da mudança na gestão mostrou que o X havia falhado na moderação de discurso de ódio em 99% dos posts denunciados. Além de permitir que os conteúdos criminosos continuassem no ar, a plataforma chegou a impulsioná-los, exibindo-os para um número maior de usuários.
O problema segue atual. Levantamento feito pelo Aos Fatos encontrou no X mais de 30 perfis que utilizam a expressão “odeio negros” ou variações no nome ou na URL. Também são encontrados ataques similares a mulheres, judeus e à população LGBTQIA+.
Também no Telegram grupos extremistas se mantêm ativos sem que precisem adotar métodos para dissimular os seus propósitos. Expressões de ódio contra negros e a comunidade LGBTQIA+ são comuns na plataforma, sendo usadas inclusive para nomear grupos sem serem barradas pela moderação.
Uma comunidade do Telegram com 400 membros, por exemplo, segue ativa apesar de utilizar uma expressão supremacista branca tanto no nome como na URL.
Nela foi publicado, em 21 de janeiro, um post racista que trazia a mensagem “festa dos macacos” acompanhando vídeo em que um grupo de jovens negros supostamente furtava bicicletas na zona sul do Rio de Janeiro.
Como investigações do Aos Fatos já mostraram, pelo Telegram também circulam — sem qualquer constrangimento — ferramentas para criação de deep nudes, pornografia infantil e até serviço para fraudar cartões de vacinação.
Segundo relatório da SaferNet, grupos que vendem e compartilham imagens de abuso infantil e outros crimes sexuais reúnem 1,25 milhão de usuários na plataforma. A organização acusa o Telegram de omissão e encaminhou os resultados do estudo para o MPF (Ministério Público Federal) e a Polícia Federal, a quem caberia decidir sobre uma eventual abertura de investigação sobre a atuação da big tech no Brasil.
Outra rede na mira das autoridades é o Kwai. Em janeiro do ano passado, o MPF anunciou a instauração de inquérito para investigar possíveis condutas ilícitas da plataforma no Brasil, entre elas suspeitas de criação de perfis falsos, promoção de desinformação e omissão ante a circulação de vídeos com violência contra mulheres e exposição indevida de menores.
O Kwai costuma bloquear as buscas por termos ligados a conteúdo criminoso. Publicações que adotam essas mesmas expressões, porém, são fáceis de encontrar na plataforma.
A reportagem verificou, por exemplo, que um vídeo neonazista era o segundo recomendado pelo Kwai em link gerado pela plataforma ao inserir no Google a expressão “Odeio gay”.
Além da declaração de ódio homofóbica, o conteúdo também trazia a frase “ajude a combater a homofobia: vire hétero” sobre imagens que mostram um homem encapuzado queimando a bandeira do arco-íris e exibindo uma suástica em seu lugar.
O vídeo — que se encerra com a saudação nazista — foi publicado em 22 de dezembro de 2022 e, passados mais de dois anos, nunca foi derrubado pela moderação de conteúdo da plataforma.
Procurado pelo Aos Fatos, o Kwai disse que “o vídeo mencionado na reportagem foi removido imediatamente após a empresa tomar conhecimento da sua existência” e que “o combate à disseminação de discurso de ódio e notícias falsas é um desafio universal para todas as plataformas de mídia social”, reforçando “seu compromisso em promover um ambiente digital seguro”.
Leia a íntegra da nota do Kwai
O Kwai esclarece que o vídeo mencionado na reportagem foi removido imediatamente após a empresa tomar conhecimento da sua existência. A plataforma entende que o combate à disseminação de discurso de ódio e notícias falsas é um desafio universal para todas as plataformas de mídia social e reforça seu compromisso em promover um ambiente digital seguro.
Para evitar a circulação de conteúdos que violem suas Diretrizes da Comunidade, o Kwai investe continuamente na sua infraestrutura de moderação, combinando mecanismos de inteligência artificial e equipes humanas que operam 24 horas por dia, 7 dias por semana. No que se refere à moderação humana, caso uma publicação seja suspeita de incitar ódio ou conter informações enganosas, um processo rigoroso é iniciado, composto por três etapas distintas e complementares: avaliação por moderadores locais, análise por especialistas em risco e, por fim, revisão e checagem de fatos por agências de verificação parceiras do Kwai.
Somente no primeiro semestre de 2024, o Kwai removeu globalmente 5.067.726 vídeos que violavam suas Diretrizes da Comunidade ou Termos de Serviço, representando menos de 1% de todo o conteúdo publicado no período.
Já o Telegram declarou que “tem uma política de tolerância zero para conteúdos ilegais” e que “utiliza uma combinação de moderação humana, ferramentas de inteligência artificial e aprendizado de máquina, além de denúncias de usuários e organizações confiáveis, para combater a pornografia ilegal e outros abusos da plataforma”.
Leia a íntegra da nota do Telegram
O Telegram tem uma política de tolerância zero para conteúdos ilegais, como pornografia ilegal e chamados à violência. O Telegram utiliza uma combinação de moderação humana, ferramentas de inteligência artificial e aprendizado de máquina, além de denúncias de usuários e organizações confiáveis, para combater pornografia ilegal e outros abusos da plataforma.
Todas as mídias enviadas para a plataforma pública do Telegram são verificadas em relação a um banco de dados de hashes de materiais de abuso infantil (CSAM) removidos pelos moderadores do Telegram desde o lançamento do aplicativo. O Telegram consegue fortalecer esse sistema com conjuntos de dados adicionais fornecidos pelo IWF para garantir que o Telegram continue sendo um espaço seguro para seus usuários.
O Telegram está ampliando a lista de organizações confiáveis com as quais colabora. Por exemplo, o Telegram está em negociações para se juntar ao NCMEC.
Relatórios diários sobre os esforços do Telegram para remover CSAM são publicados aqui: t.me/stopca. Até agora, em janeiro, mais de 55.000 grupos e canais foram removidos do Telegram devido a materiais relacionados a abuso infantil.
Na luta contra a propaganda extremista, o Telegram fez parceria com o Centro Global para Combater Ideologias Extremistas (ETIDAL). Essa parceria resultou na remoção de mais de 25,6 milhões de conteúdos extremistas apenas no terceiro trimestre de 2024.
Se você encontrou algum desses conteúdos no Telegram, eu ficaria muito grato se pudesse compartilhar os links para que os moderadores possam investigar.
Mais informações sobre a moderação do Telegram e estatísticas estão disponíveis aqui: https://telegram.org/moderation?setln=pt-br
A Meta não quis comentar a reportagem, e as demais plataformas citadas não responderam ao pedido de posicionamento até a publicação deste texto.
Sem comentários
Em março de 2024, o TikTok demitiu cerca de 50 funcionários do seu time de qualidade. Um dos setores afetados foi o que fazia a moderação das caixas de comentários — “onde grande parte do discurso de ódio reside”, como explicou ao Aos Fatos na época uma das demitidas.
Menos de um ano após as demissões, os ataques a minorias por meio de comentários criminosos tornaram-se comuns na rede chinesa, gerando denúncias por parte dos usuários.
É o caso de um vídeo em que uma mulher negra mostra um “antes e depois” do vitiligo e que foi alvo de uma enxurrada de comentários racistas com a alegação de que “o bem venceu”. Outros usuários que produzem conteúdo sobre a doença — que causa a despigmentação da pele — sofrem o mesmo tipo de ataque.
O mesmo tipo de falha na moderação também existe no YouTube. A caixa de comentários de uma reportagem sobre a denúncia de assédio envolvendo o ex-ministro dos Direitos Humanos, Silvio Almeida, está tomada de ataques à vítima — a ministra da Igualdade Racial, Anielle Franco.
Entre as mensagens mais recentes está um post que lamenta que a ministra “não estava no carro” — uma referência ao assassinato de sua irmã, a ex-vereadora Marielle Franco, baleada dentro de um automóvel.
Ataques também são comuns em conteúdos sobre pessoas trans no YouTube. “Ficou bonita, pena que é homem”, dizia um comentário no canal de uma mulher trans no Shorts.
O caminho da apuração
Aos Fatos fez buscas por palavras-chave e em canais extremistas para verificar a difusão de discurso de ódio nas principais redes sociais.
Denúncias de usuários no X, reportagens anteriores e investigações pelas autoridades foram consultadas para aprofundar o levantamento. Por fim, Aos Fatos procurou as plataformas para pedir posicionamento.