Comitê de Supervisão cobra transparência da Meta após Facebook deixar vídeo golpista no ar no Brasil

Compartilhe

O Comitê de Supervisão da Meta afirmou nesta quinta-feira (22) que a empresa errou ao manter no Facebook um vídeo que questionava os resultados das eleições brasileiras e convocava para ataques a Brasília. O órgão também demonstrou preocupação com o sistema de moderação da Meta em contextos de violência eleitoral e cobrou a adoção de critérios claros e mais transparentes para que a atuação da empresa possa ser analisada pelo público.

A decisão é resultado do julgamento sobre o caso de um post golpista publicado no dia 3 de janeiro — a poucos dias, portanto, dos atos golpistas que depredaram os Três Poderes. Nele, um usuário fazia um chamado para "sitiar" o Congresso Nacional como "a última alternativa" contra a posse do presidente Luiz Inácio Lula da Silva (PT) e questionava a confiabilidade das urnas. A publicação era acompanhada de um vídeo em que um general pedia que as pessoas fossem às ruas, ao Congresso e ao STF (Supremo Tribunal Federal).

As políticas de comunidade da Meta que tratam sobre violência e incitação proíbem convocações para a invasão de locais considerados de alto risco. Apesar disso, os diversos moderadores que analisaram o vídeo com teor golpista entenderam que ele não deveria ser removido:

  • No dia seguinte à publicação, o post já tinha recebido sete denúncias de quatro usuários do Facebook;
  • A primeira denúncia foi rejeitada. Após contestação do resultado, um segundo revisor de conteúdo também entendeu que o conteúdo não violava as políticas da Meta;
  • Outros cinco moderadores diferentes analisaram as outras seis queixas e também concluíram que o vídeo deveria continuar no ar;
  • Cinco dias após a publicação original, Brasília foi atacada.

O vídeo originalmente denunciado permaneceu no ar até o dia 20 de janeiro, quando a Meta assumiu que as decisões de não remoção haviam sido equivocadas. O mea culpa, porém, só foi feito depois de o comitê — que é financiado pela empresa, mas funciona de forma autônoma — anunciar publicamente que iria julgar o caso.

“Como a postagem era um chamado inequívoco para a entrada forçada em prédios governamentais situados na Praça dos Três Poderes em Brasília (locais "de alto risco" situados em uma "localidade temporariamente de alto risco", o Brasil), as decisões iniciais da Meta de manter esse conteúdo durante um período de violência política intensa representaram uma clara violação de suas próprias regras”, concluiu o órgão autônomo.

Nas explicações que enviou ao comitê, a Meta informou que os sete moderadores que analisaram o vídeo moram na Europa, mas são fluentes em português e têm bagagem cultural para avaliar o contexto brasileiro. No entanto, segundo a empresa, os funcionários podem não ter visto a violação no post ou não ter entendido a gravidade da mensagem devido à falta de pontuação adequada.

Em resposta, o comitê sugeriu que os moderadores podem não ter assistido ao vídeo completo, já que a empresa já havia admitido no passado que essa era uma prática adotada. De acordo com o órgão, no entanto, esse procedimento precisava ser revisto “em situações de maior risco de violência”.

Apesar de a empresa ter admitido seu erro em janeiro, antes do julgamento, o Aos Fatos mostrou que pelo menos cinco posts que continham o vídeo denunciado ainda estavam disponíveis no Facebook no final de março. A reportagem que fez a denúncia é citada na íntegra da decisão do Comitê de Supervisão que apontou as falhas na moderação da Meta.

FALTA DE TRANSPARÊNCIA

O órgão autônomo reconheceu que a big tech tomou medidas para avaliar e reduzir riscos durante as eleições brasileiras, mas que precisa “aumentar seus esforços”, já que suas plataformas podem ser usadas para incitar a violência.

O comitê diz que chegou a pedir informações sobre as reclamações que recebeu relacionadas ao pleito brasileiro, mas que a Meta disse não possuir esses dados. A big tech também alegou que não adota “métricas específicas para medir o sucesso de seus esforços" em garantir a integridade das eleições. O órgão recomendou, então, que a plataforma crie mecanismos para sistematizar e dar maior transparência a seus processos de análise e às suas políticas relacionadas a conteúdos e anúncios.

“É necessário reforçar a transparência para avaliar se as medidas da Meta são adequadas e suficientes em todos os contextos eleitorais. A falta de dados disponíveis para a análise do Comitê prejudicou sua capacidade de avaliar adequadamente se os erros de monitoramento nesse caso e as preocupações levantadas por diferentes partes interessadas são indicativos de um problema sistêmico nas políticas e práticas de monitoramento da empresa”, afirma a decisão.

Em nota ao Aos Fatos, a Meta afirmou que está revisando as recomendações, que promete responder em até 60 dias. Segundo a plataforma, mais de 3 milhões de conteúdos que faziam incitação à violência ou discurso de ódio foram removidos do Facebook e do Instagram entre a campanha eleitoral de 2022 e os ataques de 8 de janeiro deste ano, “incluindo chamados por subversão do Estado democrático de direito e pedidos de intervenção militar”.

Para João Victor Archegas, pesquisador sênior do ITS Rio (Instituto de Tecnologia e Sociedade), a decisão do comitê mostra que a Meta precisa ser mais transparente sobre as políticas que adota em situações de emergência e exceção, como pandemias, conflitos armados e eleições.

“O Board está trilhando um caminho interessante e exigindo que a Meta organize melhor suas políticas de exceção“, avalia o pesquisador. Archegas lembra que a própria criação pela Meta de um protocolo especial para situações de crise ocorreu após recomendações anteriores do comitê, mas que a medida não tem sido suficiente para evitar problemas.

A exigência de mais transparência nos processos adotados pelas big techs é um dos temas incluídos no PL 2.630/2020, conhecido como “PL das Fake News”, que aguarda votação na Câmara dos Deputados. O último parecer divulgado pelo deputado Orlando Silva (PC do B-SP), relator da matéria, inclui a obrigação de plataformas com mais de 10 milhões de usuários no país publicarem relatórios periódicos informando, dentre outros dados, a quantidade de denúncias recebidas e de conteúdos removidos pela moderação.

O relator do projeto está trabalhando em nova versão do texto, que espera terminar na próxima semana, conforme informou ao Aos Fatos. As novas mudanças buscam tentar destravar a tramitação do texto, que está parado desde que perdeu apoio na Câmara.

Referências

  1. 1
  2. Comitê de Supervisão (1 e 2)
  3. Aos Fatos (1, 2, 3, 4 e 5)
  4. Câmara dos Deputados

Compartilhe

Leia também

Canais usam vídeos fora de contexto e omitem fatos para culpar Irã por bombardeio a escola

Canais usam vídeos fora de contexto e omitem fatos para culpar Irã por bombardeio a escola

falsoÉ falso que vídeo mostra médico contestando negativa de benefícios do INSS

É falso que vídeo mostra médico contestando negativa de benefícios do INSS

falsoVídeo mostra destruição causada por terremoto na Turquia, não ataques do Irã a Israel

Vídeo mostra destruição causada por terremoto na Turquia, não ataques do Irã a Israel

fátima
Fátima