A Meta e o TikTok só se preocuparam em remover convocações para o 8 de Janeiro após as sedes dos Três Poderes serem depredadas, afirmam moderadores de conteúdo que atuaram nas equipes de segurança das duas empresas na época dos ataques a Brasília.
Os relatos dos trabalhadores — que falaram ao Aos Fatos sob a condição de anonimato — reforçam as desconfianças sobre a atuação das big techs no episódio. Os ataques, organizados por meio das redes, impulsionaram as discussões sobre a necessidade de uma regulação do setor.
No caso da Meta — dona do Instagram e Facebook —, um dos moderadores ouvidos pela reportagem relatou ter derrubado “vários perfis como ‘terroristas’ nos dias que sucederam a tentativa de golpe”. Segundo seu relato, porém, a orientação para tirar os perfis do ar veio “só depois” dos ataques em Brasília.
Relatos similares foram feitos por analistas que trabalharam até março para o TikTok — quando ocorreu uma demissão em massa na empresa. Segundo os depoimentos, até os atos antidemocráticos de 8 de janeiro de 2023, a prática adotada foi a de reduzir a visibilidade de conteúdos que instigavam ataques contra autoridades e de manter normalmente no ar os vídeos que visassem instituições.
A regulação das plataformas é discutida no “PL das Fake News” (PL 2.630/2020), que voltou quase à estaca zero após um ano travado na Câmara. Sem a lei, a moderação de ataques à democracia depende hoje das políticas das próprias empresas — que, segundo relatório do InternetLab, são insuficientes. “Se há uma publicação que incita violência a uma instituição democrática, só será possível removê-la caso o moderador entenda que ela se enquadra dentro de regras mais genéricas de ameaças ou incitação de violências”, diz o estudo.
APAGANDO INCÊNDIO
Ainda no dia 8 de janeiro de 2023, a Meta designou a invasão das sedes dos Três Poderes como um “evento violador” de suas políticas, segundo documento interno da plataforma ao qual o Aos Fatos teve acesso. A partir dessa determinação, a empresa enviou aos moderadores instruções sobre como lidar com conteúdos relacionados ao episódio. O documento orientava os funcionários a:
- Remover conteúdos com elogios, apoio substancial ou representações do evento ou de seus perpetradores;
- Permitir conteúdo sobre o evento compartilhado no contexto de reportagens ou de discussões neutras ou acadêmicas;
- Permitir conteúdo condenando os ataques;
- Manter no ar convocações para protestos nos prédios do governo postadas antes dos ataques, exceto se convocassem “expressamente à violência ou à ocupação dos edifícios” ou violassem “de outra forma” as políticas da empresa;
- Remover conteúdo mostrando indivíduos dentro dos prédios, a menos que eles estivessem desaprovando o evento, relatando notícias ou debatendo o evento de forma acadêmica ou factual;
- Permitir imagens “claramente feitas por terceiros”, como espectadores abrigados no local, repórteres ou vindas de câmeras de vigilância, exceto se violarem outra regra.
A política da Meta classifica como "perpetradores" os indivíduos que:
- Invadiram ilegalmente os prédios;
- Foram organizadores ou facilitadores explícitos do evento;
- Se envolveram em destruição significativa de propriedade ou violência contra pessoas no prédio;
- Ou sejam condenados criminalmente por crimes relacionados aos ataques.
O mesmo documento também orienta os moderadores a considerar a expressão “Festa da Selma” como senha para a invasão dos Três Poderes. Com isso, conteúdos com essa referência passariam a ser analisados segundo os mesmos critérios adotados para as menções explícitas a ataques.
“Obviamente a maioria das postagens não vão falar explicitamente em quebrar tudo”, avalia Yasmin Curzi, professora do Centro de Tecnologia e Sociedade da FGV (Fundação Getulio Vargas). Na análise da pesquisadora, a Meta deveria ter olhado para as convocações para os atos de Brasília de forma “mais ampla e não tão permissiva”, já que “tudo indicava que a direita brasileira ia se inspirar no 6 de janeiro nos Estados Unidos para fazer algo parecido”.
Para João Victor Archegas, pesquisador sênior do ITS Rio (Instituto de Tecnologia e Sociedade do Rio), as orientações passadas aos moderadores tornam “ainda mais latente” o erro de moderação analisado em junho do ano passado pelo Comitê de Supervisão da Meta. O órgão reconheceu que a empresa havia errado ao manter no Facebook um vídeo que questionava os resultados das eleições brasileiras e convocava para ataques a Brasília.
Publicado originalmente no dia 3 de janeiro, o vídeo recebeu diversas denúncias de usuários, mas continuou no ar até o dia 20 daquele mês. Conforme o Aos Fatos revelou, cópias do conteúdo golpista continuaram circulando na rede mesmo após o Comitê de Supervisão da Meta anunciar que iria julgar o caso.
DEBAIXO DO TAPETE
Depoimentos de ex-moderadores do TikTok indicam que a empresa evitou apagar vídeos golpistas mesmo quando violavam suas políticas. Inicialmente, relatam os trabalhadores demitidos em março, a orientação recebida era de reduzir o alcance desses conteúdos.
“Sobre o 8 de Janeiro, realmente foi um caos. Muitos dos vídeos eram tagueados como ‘hard to find’, mas não deletados”, diz um dos moderadores demitidos no último layoff.
A tag aplicada a esses conteúdos deveria reduzir sua exposição aos usuários. Entretanto, a estratégia da empresa mostrou-se insuficiente, obrigando que o procedimento fosse revisto. “Passamos a derrubar os vídeos, porque passaram a se espalhar de forma viral”, conta o ex-funcionário.
A ação da plataforma foi ainda mais limitada considerando que boa parte dos vídeos que convocavam para atos antidemocráticos sequer eram alvo de atuação dos moderadores.
“Conteúdos pró-manifestação, sem ataques pessoais a qualquer figura, eram aprovados”, revela o ex-moderador. O vídeo só era tagueado como “hard to find” ou excluído pelo TikTok se “existisse qualquer ataque pessoal”.
Na prática, a regra permitia a circulação de conteúdos que pregavam, por exemplo, ataques ao STF. A plataforma só agiria se a investida fosse direcionada a alguma autoridade específica — por exemplo, a um dos ministros da corte.
Outra ex-funcionária da empresa — também demitida em março — confirmou a orientação. “[Falar que vai] depredar o patrimônio público não é barrado, a não ser que o ato aconteça”. Segundo seu relato, os vídeos com o apelo só passaram a ser derrubados depois do ataque às sedes dos Três Poderes.
A trabalhadora pondera, entretanto, que a medida pode ajudar a preservar manifestações consideradas legítimas, “como dizer para botar abaixo todo monumento escravagista”.
No caso das convocações para protestos no contexto eleitoral, elas só infringem as regras do TikTok se forem acompanhadas “de fake news, insinuação de fraude nas eleições ou argumentos que possam causar pânico na população geral".
Para Curzi, as orientações do TikTok a seus funcionários “ignoraram todo o capítulo de crimes contra o Estado Democrático do Código Penal”. A pesquisadora considerou “muito grave” que vídeos com incitação a ataques não tenham sido deletados, já que “deixar ficar, ainda que com a tag ‘hard to find’, não inibe sua circulação em outros canais”.
A pesquisadora considera que os ataques a Brasília não são um “protesto legítimo”, mas um ato ilícito, por se tratarem de “tentativa assumida de incitar um golpe de Estado”. Por isso, acredita que a empresa deveria ter tido mais cuidado ao diferenciar os contextos, avaliando as proporções que a ameaça assumiu nas redes.
“O que pega mesmo é a escala. Uma pessoa com 100 seguidores, falando basicamente sozinha, não seria preocupante. Preocupante é a ação coordenada e, para esses momentos, ter um protocolo de crise é essencial”, conclui.
OUTRO LADO
Procurada pelo Aos Fatos, a Meta respondeu os questionamentos compartilhando texto do ano passado sobre sua atuação no 8 de Janeiro, no qual diz que, de 16 de agosto de 2022 a 8 de janeiro de 2023, removeu “mais de 1 milhão de conteúdos no Facebook e mais de 960 mil conteúdos no Instagram por violações às nossas políticas de violência e incitação no Brasil”, que incluíam posts pedindo intervenção militar. A empresa não confirmou nem negou a veracidade das diretrizes obtidas pela reportagem.
Também o TikTok respondeu enviando link antigo e não comentou os pontos novos trazidos pela reportagem. Segundo o texto compartilhado pela empresa, a plataforma removeu 66.020 vídeos, entre 16 de agosto e 31 de dezembro de 2022, por violarem sua política de desinformação sobre eleições. Já entre os dias 8 e 15 de janeiro de 2023, foram derrubados 1.304 vídeos por violarem a política de extremismo violento, 5.519 vídeos por transgredirem a política de desinformação com riscos de danos no mundo real e 3.614 vídeos por violação da política de desinformação sobre eleição. Não foram informados números para o período entre 1º e 8 de janeiro daquele ano.
O caminho da apuração
Em janeiro de 2023, o Aos Fatos mostrou que um vídeo convocando para os ataques a Brasília continuou circulando no Facebook mesmo após o Comitê de Supervisão da Meta escolher o caso para ser julgado, o que aconteceu em junho do ano passado. A falha na moderação reforçou as queixas de autoridades quanto à postura das plataformas no episódio.
Em virtude desses indícios, o tema foi incluído nas perguntas aos moderadores entrevistados para esta série, que foram identificados por meio das redes sociais e ouvidos sob condição de anonimato. Um deles copiou a política da Meta de sistemas internos da empresa. Antes da publicação, foi enviado um pedido de posicionamento para as plataformas citadas neste texto.
Esta reportagem faz parte de uma série investigativa do Aos Fatos sobre moderação em língua portuguesa nas principais redes sociais.