🕐 ESTA REPORTAGEM FOI PUBLICADA EM Junho de 2023. INFORMAÇÕES CONTIDAS NESTE TEXTO PODEM ESTAR DESATUALIZADAS OU TEREM MUDADO.

Comitê de Supervisão cobra transparência da Meta após Facebook deixar vídeo golpista no ar no Brasil

Por Gisele Lobato

22 de junho de 2023, 19h01

O Comitê de Supervisão da Meta afirmou nesta quinta-feira (22) que a empresa errou ao manter no Facebook um vídeo que questionava os resultados das eleições brasileiras e convocava para ataques a Brasília. O órgão também demonstrou preocupação com o sistema de moderação da Meta em contextos de violência eleitoral e cobrou a adoção de critérios claros e mais transparentes para que a atuação da empresa possa ser analisada pelo público.

A decisão é resultado do julgamento sobre o caso de um post golpista publicado no dia 3 de janeiro — a poucos dias, portanto, dos atos golpistas que depredaram os Três Poderes. Nele, um usuário fazia um chamado para "sitiar" o Congresso Nacional como "a última alternativa" contra a posse do presidente Luiz Inácio Lula da Silva (PT) e questionava a confiabilidade das urnas. A publicação era acompanhada de um vídeo em que um general pedia que as pessoas fossem às ruas, ao Congresso e ao STF (Supremo Tribunal Federal).

As políticas de comunidade da Meta que tratam sobre violência e incitação proíbem convocações para a invasão de locais considerados de alto risco. Apesar disso, os diversos moderadores que analisaram o vídeo com teor golpista entenderam que ele não deveria ser removido:

  • No dia seguinte à publicação, o post já tinha recebido sete denúncias de quatro usuários do Facebook;
  • A primeira denúncia foi rejeitada. Após contestação do resultado, um segundo revisor de conteúdo também entendeu que o conteúdo não violava as políticas da Meta;
  • Outros cinco moderadores diferentes analisaram as outras seis queixas e também concluíram que o vídeo deveria continuar no ar;
  • Cinco dias após a publicação original, Brasília foi atacada.

O vídeo originalmente denunciado permaneceu no ar até o dia 20 de janeiro, quando a Meta assumiu que as decisões de não remoção haviam sido equivocadas. O mea culpa, porém, só foi feito depois de o comitê — que é financiado pela empresa, mas funciona de forma autônoma — anunciar publicamente que iria julgar o caso.

“Como a postagem era um chamado inequívoco para a entrada forçada em prédios governamentais situados na Praça dos Três Poderes em Brasília (locais "de alto risco" situados em uma "localidade temporariamente de alto risco", o Brasil), as decisões iniciais da Meta de manter esse conteúdo durante um período de violência política intensa representaram uma clara violação de suas próprias regras”, concluiu o órgão autônomo.

Nas explicações que enviou ao comitê, a Meta informou que os sete moderadores que analisaram o vídeo moram na Europa, mas são fluentes em português e têm bagagem cultural para avaliar o contexto brasileiro. No entanto, segundo a empresa, os funcionários podem não ter visto a violação no post ou não ter entendido a gravidade da mensagem devido à falta de pontuação adequada.

Em resposta, o comitê sugeriu que os moderadores podem não ter assistido ao vídeo completo, já que a empresa já havia admitido no passado que essa era uma prática adotada. De acordo com o órgão, no entanto, esse procedimento precisava ser revisto “em situações de maior risco de violência”.

Apesar de a empresa ter admitido seu erro em janeiro, antes do julgamento, o Aos Fatos mostrou que pelo menos cinco posts que continham o vídeo denunciado ainda estavam disponíveis no Facebook no final de março. A reportagem que fez a denúncia é citada na íntegra da decisão do Comitê de Supervisão que apontou as falhas na moderação da Meta.

FALTA DE TRANSPARÊNCIA

O órgão autônomo reconheceu que a big tech tomou medidas para avaliar e reduzir riscos durante as eleições brasileiras, mas que precisa “aumentar seus esforços”, já que suas plataformas podem ser usadas para incitar a violência.

O comitê diz que chegou a pedir informações sobre as reclamações que recebeu relacionadas ao pleito brasileiro, mas que a Meta disse não possuir esses dados. A big tech também alegou que não adota “métricas específicas para medir o sucesso de seus esforços" em garantir a integridade das eleições. O órgão recomendou, então, que a plataforma crie mecanismos para sistematizar e dar maior transparência a seus processos de análise e às suas políticas relacionadas a conteúdos e anúncios.

“É necessário reforçar a transparência para avaliar se as medidas da Meta são adequadas e suficientes em todos os contextos eleitorais. A falta de dados disponíveis para a análise do Comitê prejudicou sua capacidade de avaliar adequadamente se os erros de monitoramento nesse caso e as preocupações levantadas por diferentes partes interessadas são indicativos de um problema sistêmico nas políticas e práticas de monitoramento da empresa”, afirma a decisão.

Em nota ao Aos Fatos, a Meta afirmou que está revisando as recomendações, que promete responder em até 60 dias. Segundo a plataforma, mais de 3 milhões de conteúdos que faziam incitação à violência ou discurso de ódio foram removidos do Facebook e do Instagram entre a campanha eleitoral de 2022 e os ataques de 8 de janeiro deste ano, “incluindo chamados por subversão do Estado democrático de direito e pedidos de intervenção militar”.

Para João Victor Archegas, pesquisador sênior do ITS Rio (Instituto de Tecnologia e Sociedade), a decisão do comitê mostra que a Meta precisa ser mais transparente sobre as políticas que adota em situações de emergência e exceção, como pandemias, conflitos armados e eleições.

“O Board está trilhando um caminho interessante e exigindo que a Meta organize melhor suas políticas de exceção“, avalia o pesquisador. Archegas lembra que a própria criação pela Meta de um protocolo especial para situações de crise ocorreu após recomendações anteriores do comitê, mas que a medida não tem sido suficiente para evitar problemas.

A exigência de mais transparência nos processos adotados pelas big techs é um dos temas incluídos no PL 2.630/2020, conhecido como “PL das Fake News”, que aguarda votação na Câmara dos Deputados. O último parecer divulgado pelo deputado Orlando Silva (PC do B-SP), relator da matéria, inclui a obrigação de plataformas com mais de 10 milhões de usuários no país publicarem relatórios periódicos informando, dentre outros dados, a quantidade de denúncias recebidas e de conteúdos removidos pela moderação.

O relator do projeto está trabalhando em nova versão do texto, que espera terminar na próxima semana, conforme informou ao Aos Fatos. As novas mudanças buscam tentar destravar a tramitação do texto, que está parado desde que perdeu apoio na Câmara.

Referências:

1. Comitê de Supervisão (1 e 2)
2. Meta (1, 2
3. Aos Fatos (1, 2, 3, 4 e 5)
4. Câmara dos Deputados

Topo

Usamos cookies e tecnologias semelhantes de acordo com a nossa Política de Privacidade. Ao continuar navegando, você concordará com estas condições.