Reprodução/Freepik

🕐 ESTA REPORTAGEM FOI PUBLICADA EM Abril de 2023. INFORMAÇÕES CONTIDAS NESTE TEXTO PODEM ESTAR DESATUALIZADAS OU TEREM MUDADO.

Refúgio de extremistas, redes com menos de 10 milhões de usuários podem escapar de regulação

Por Ethel Rudnitzki, Gisele Lobato e João Barbosa

14 de abril de 2023, 16h20

As propostas em discussão para a regulação das plataformas digitais deixam de fora as redes com menos de 10 milhões de usuários no Brasil e que servem de refúgio para grupos extremistas, comunidades que promovem discurso de ódio e desinformadores recorrentes banidos das mídias sociais tradicionais.

A linha de corte que define quais plataformas serão afetadas pela regulação consta no relatório do PL 2.630/2020, o PL das Fake News, e na proposta entregue pelo governo Lula ao relator da medida na Câmara, deputado Orlando Silva (PCdoB-SP), no final de março.

Especialistas consultados pelo Aos Fatos alertam que, apesar de necessária, a criação de regras diferentes de acordo com o alcance da rede pode fazer com que conteúdos desinformativos ou ilegais migrem mais para plataformas menores. Esse movimento já acontece hoje, como evidencia levantamento Radar Aos Fatos.

  • Mais de 4.300 links das plataformas Rumble, Gettr, Cos.TV, BitChute, Odysee e Truth Social foram compartilhados em grupos públicos que debatem política no WhatsApp e no Telegram desde o início de 2023;
  • Ao analisar os dez links dessas seis plataformas que foram mais compartilhados nos aplicativos, o Radar detectou que, das 60 URLs, 48 continham desinformação e foram encaminhadas 385 vezes;
  • Pelo menos 12 links vinham de páginas de usuários que sofreram punições em outras plataformas e adotaram as redes alternativas para driblar a moderação;
  • Entre os conteúdos compartilhados estão falsas alegações sobre fraude eleitoral e sobre a presença de infiltrados nos atos golpistas de 8 de janeiro, além de posts antivacina e que minimizam a pandemia de Covid-19.

As redes sociais onde esses conteúdos circulam não se enquadram no critério de tamanho previsto na proposta de regulação. Juntas, as seis plataformas — Rumble, Gettr, Cos.TV, Truth Social, Odysee e BitChute — somam cerca de 8,5 milhões de downloads em todo o mundo apenas no Google Play.

A maior delas, o Gettr — criado por um ex-assessor de Donald Trump como alternativa à moderação de conteúdo das grandes plataformas — afirmou em setembro do ano passado que tinha aproximadamente 900 mil usuários brasileiros. Veja o que dizem as plataformas.

Print mostra peça de desinformação publicada na plataforma BitChute que afirma, sem provas, que a violência ocorrida nos atos golpistas de 8 de janeiro foi causada por infiltrados
Desinformação. Vídeo postado na plataforma BitChute usa alegação falsa da presença de infiltrados nos ataques de 8 de janeiro a Brasília (Reprodução)

Outra comunidade que estaria isenta de seguir regras mais duras é o Discord, aplicativo de mensagens que supostamente garante o anonimato e que, por isso, foi usado por comunidades que enaltecem e incentivam ataques a escolas, conforme denunciou reportagem do Aos Fatos.

“Existem vários estudos que já demonstram que, a partir do momento que uma plataforma começa a remover um tipo de conteúdo, esse conteúdo migra para outra plataforma que ainda não está encarando aquilo como um problema”, afirma João Victor Archegas, pesquisador sênior do ITS Rio (Instituto de Tecnologia e Sociedade).

O fenômeno já é notado no Twitter, que acabou com a moderação após ter sido comprado pelo empresário americano Elon Musk. No Brasil, um adolescente recebeu incentivo de usuários da rede para atacar um colégio em São Paulo no fim de março.

A falta de respostas das plataformas, sobretudo do Twitter, em conter a onda de ameaças de novos ataques fez o ministro da Justiça e Segurança Pública, Flávio Dino, se antecipar ao debate no Congresso sobre a regulação e publicar uma portaria nesta semana exigindo que as empresas adotem medidas para conter a veiculação de conteúdos que façam apologia à violência nas escolas.

GARANTIA DE PLURALIDADE

Apesar do risco de pulverização das ameaças, a limitação na aplicação das regras é vista como essencial para proteger a livre concorrência. “Você não pode estabelecer os mesmos parâmetros de obrigações para empresas de tamanhos diferentes, senão você cria uma barreira de entrada no mercado”, diz Archegas.

Apesar de deixar no limbo as plataformas menores, o piso de 10 milhões de usuários é considerado baixo por representantes da sociedade civil que atuam no direito digital. O coletivo Intervozes, por exemplo, lembra que a nova legislação da União Europeia estabelece como parâmetro 10% da população local, enquanto a métrica sugerida no Brasil não chega a 5%.

Para Yasmin Curzi, professora e pesquisadora do Centro de Tecnologia e Sociedade da FGV (Fundação Getúlio Vargas), utilizar o número de usuários para definir a regulação “não é uma boa métrica“ e seria melhor se o governo adotasse um critério baseado nos riscos sistêmicos que determinada plataforma pode representar para a sociedade. Ela cita como exemplo o Pinterest, que embora seja uma das maiores plataformas em atuação no Brasil, é muito pouco usado para o compartilhamento de conteúdo ilegal.

Por outro lado, o próprio Twitter poderia não ser contemplado pelo controle. Estima-se que a rede tenha hoje 19 milhões de usuários brasileiros, mas esse número vem caindo e não se sabe ao certo o tamanho atual.

A proposta de regulação não esclarece como será calculado o porte das plataformas, mas o mais provável é que as próprias empresas devam informar se possuem ou não mais de 10 milhões de usuários no país. Em nota técnica publicada na quarta-feira (12), a Coalizão Direitos na Rede demonstrou preocupação com a possibilidade de autodeclaração e recomendou que seja criado um mecanismo padronizado de autenticação das informações que ajude a evitar possíveis evasões.

TIRANDO O MEGAFONE

Mesmo limitada às grandes redes, a regulação deve ajudar a minimizar a circulação de desinformação, discurso de ódio e incitação à violência. Hoje, a moderação desse tipo de conteúdo depende quase exclusivamente de iniciativas das próprias plataformas, cuja aplicação possui falhas.

Embora as redes pequenas sejam redutos de extremistas, esses grupos dependem das plataformas mais populares para furarem suas bolhas, ressalta Yasmin Curzi. As grandes redes funcionam, assim, como uma espécie de megafone, que aumenta o impacto social de discursos desinformativos ou violentos.

Para a pesquisadora, a legislação atual já permite enquadrar como crime, por exemplo, o conteúdo radical que é claramente ilegal e que circula nas plataformas de nicho. As dificuldades encontradas pelas autoridades para fazer esse controle poderiam ser contornadas com mais investimentos em inteligência. Além disso, a própria redução no volume de conteúdo ilícito decorrente do enquadramento das grandes redes ajudaria a minimizar o problema, permitindo concentrar os esforços de investigação nas comunidades não reguladas.


Radicalismo. Ataques de 8 de janeiro em Brasília levaram governo a priorizar regulação das plataformas digitais, que já era discutida no Congresso há três anos (Joedson Alves/Agência Brasil)

É no que chama de “zona cinzenta” das grandes plataformas que Curzi identifica o maior risco social. Nelas, conteúdos no limite da legalidade não só escapam da moderação, mas têm seu alcance potencializado pelos sistemas de recomendação.

“O problema principal que a regulação precisa lidar é a capacidade de manipulação de pessoas e de vulnerabilidades psicossociais a partir da recomendação algorítmica das grandes plataformas. A lógica de engajamento que fundamenta esses sistemas faz com que as pessoas fiquem capturadas, interagindo com o mesmo conteúdo e se radicalizando cada vez mais”, avalia.

MAIS TRANSPARÊNCIA

A publicação dos parâmetros que as redes usam para recomendar, impulsionar ou priorizar conteúdos é uma das medidas previstas na proposta de regulação entregue pelo governo Lula no final de março ao relator do PL das Fake News. O deputado Orlando Silva (PCdoB-SP) agora avalia as sugestões e trabalha em uma nova versão do relatório. O presidente da Câmara, Arthur Lira (PP-AL), indicou que o texto pode ser votado ainda neste mês.

Além dos parâmetros de recomendação, a proposta do governo prevê que plataformas com mais de 10 milhões de usuários elaborem relatórios semestrais de transparência, informando dados sobre conteúdos removidos, denúncias recebidas e recursos apresentados contra punições. As informações servirão como base para identificar riscos sistêmicos ligados a questões como políticas de moderação, recomendação algorítmica ou regras de publicidade que facilitam a circulação de conteúdo ilegal.

Essa proposta atribui às grandes plataformas um “dever de cuidado”, que determina que elas devem agir “em prazo hábil e suficiente” para prevenir ou mitigar práticas ilícitas, além de se esforçar para combater conteúdos que configurem ou incitem:

  • crimes contra o Estado Democrático de Direito;
  • terrorismo;
  • crimes contra os direitos das crianças e adolescentes;
  • racismo;
  • crimes contra a saúde pública;
  • estímulo ao suicídio e à automutilação.

Se a proposta for aprovada, as empresas poderão ser multadas e até terem seus serviços suspensos caso não ajam para combater os riscos sistêmicos. Entretanto, o fato de um outro conteúdo criminoso ter escapado às medidas de prevenção não tornaria a plataforma automaticamente responsável por ele.

O texto, porém, abre uma brecha que permite a responsabilização das empresas na Justiça caso não removam conteúdos ilegais após receberem uma denúncia justificada, que diga exatamente qual a infração cometida. Para isso, seria necessário o entendimento de que o caso não foi excepcional, mas fruto do descumprimento do “dever de cuidado”.

RISCO DE AUTOCENSURA

Atualmente, o artigo 19 do Marco Civil da Internet estabelece que as plataformas só podem ser responsabilizadas por conteúdos postados por usuários se descumprirem uma ordem judicial que determinou sua remoção. Existem poucas exceções a essa regra:

  • Nos casos de “pornografia de vingança” — o vazamento de fotos íntimas sem consentimento —, a plataforma deve remover o conteúdo quando for notificada pela vítima mesmo sem ordem judicial;
  • A jurisprudência tem entendido que isso vale também para publicações que ferem o ECA (Estatuto da Criança e do Adolescente);

O tema, porém, não está pacificado, e a constitucionalidade do artigo 19 está na pauta de julgamento do STF (Supremo Tribunal Federal ). A depender do resultado, as plataformas podem se tornar corresponsáveis pelos conteúdos que distribuem.

O artigo 19 visa garantir a liberdade de expressão nas redes e o respeito a ele é considerado essencial por ativistas do direito digital. No entanto, existe um entendimento, sobretudo após os ataques de 8 de janeiro, de que as plataformas precisam de mais responsabilidades e não podem usar o dispositivo para lavar as mãos.

“A gente precisa de uma legislação que traga deveres objetivos para as plataformas, para evitar que o conteúdo manifestamente ilegal continue sendo proliferado”, diz Yasmin Curzi. Para a pesquisadora, “é possível especificar quando uma plataforma deve agir para evitar danos que são irreparáveis”.

Imagem com vista geral de uma sala de sessões do STF durante audiência pública para discutir o Marco Civil da Internet
Debate. STF promoveu audiência pública no final de março para discutir constitucionalidade do artigo 19 do Marco Civil da Internet, que será tema de julgamento (Rosinei Coutinho/SCO/STF)

Nos casos em que as empresas recebem pagamentos ou atuam diretamente para promover conteúdos ilegais — com o impulsionamento ou a promoção publicitária, por exemplo — a pressão por responsabilização é ainda maior e já foi defendida pelo ministro do STF (Supremo Tribunal Federal) Alexandre de Moraes.

Algumas organizações, no entanto, demonstram preocupação com a forma como o tema é tratado na proposta apresentada pelo governo e apontam o risco de que as plataformas passem a promover a autocensura para evitar punições.

A Coalizão Direitos na Rede considera que as regras sugeridas “dão poderes do Judiciário às plataformas”, que ficariam responsáveis por analisar se um conteúdo é ou não ilegal. O problema seria agravado porque o texto prevê que as empresas precisam combater não apenas conteúdos criminosos, mas também que “incitem” crimes, o que torna as “hipóteses de remoção absolutamente amplas”. Para a entidade, isso poderia incentivar “a retirada de conteúdos de forma indiscriminada” e potencializar o “poder das plataformas”.

Esse risco é aumentado pelo dispositivo do texto que abre brecha para as empresas responderem na Justiça por conteúdos individuais. “Só de existir essa hipótese já gera um incentivo para a plataforma remover todo e qualquer conteúdo notificado”, considera João Archegas, do ITS Rio.

As propostas do governo tentam mitigar o risco de autocensura prevendo mecanismos para os usuários contestarem as punições que as plataformas aplicam e medidas de transparência, com a inclusão de dados sobre remoções e bloqueios de contas nos relatórios semestrais.

ÓRGÃO REGULADOR

Para analisar os relatórios de transparência, avaliar se as empresas estão agindo de acordo com a lei e aplicar punições, a proposta entregue pelo governo federal prevê a criação de uma “entidade autônoma de supervisão”. Porém, a composição e o funcionamento desse órgão regulador ainda são uma incógnita.

Como a criação dessa entidade teria custos e exigiria o remanejamento de servidores, só o Executivo poderia propor a medida. O texto que está tramitando, porém, teve origem no Legislativo. Por isso, o governo precisa apresentar um segundo projeto de lei ou uma medida provisória estabelecendo o formato e as regras de funcionamento dessa instituição, o que ainda não foi feito.

A indefinição é alvo de críticas de representantes da sociedade civil que atuam no direito digital, como a Coalizão Direitos na Rede e o coletivo Intervozes. “A proposta do governo é confusa em relação ao órgão que será responsável por fiscalizar o funcionamento das plataformas. O texto aponta diferentes direções como auditoria, comissão provisória, auditoria externa, mas, no geral, se exime de criar algum órgão regulador e em qual formato”, avaliou o Intervozes em posicionamento enviado ao Aos Fatos.

“É importante pensar em uma natureza jurídica que garanta a independência e a autonomia para essa autoridade, para que ela não fique eventualmente vinculada a algum poder da República”, diz Archegas.

Para o pesquisador, além de vaga, a proposta apresentada pelo governo também peca por prever apenas mecanismos de punição, sem estimular o diálogo público entre o órgão regulador e as plataformas. “Como a autoridade teria acesso aos relatórios e poderia pedir complementação de dados, ela estaria na posição ideal para sugerir mudanças.

O QUE DIZEM AS PLATAFORMAS

Em nota, o Gettr informou estar “comprometido em cumprir as leis e regulamentos relevantes” e que apoia a liberdade de expressão, mesmo nos casos em que não concorda com as ideias veiculadas por seus usuários. Nesses casos, diz o comunicado, a plataforma conta com sua comunidade “para ajudar a substituir as ideias ruins de uma pessoa por melhores de outra pessoa”.

A empresa informa ainda que suas políticas, incluindo diretrizes da comunidade, são públicas e que elas proíbem tentativas de explorar a plataforma “para tirar proveito da confiança” dos usuários, que são incentivados a reportar suas preocupações.

Rumble, Cos.TV, Truth Social, Odysee e BitChute foram procuradas, mas não se pronunciaram até a publicação desta reportagem, nesta sexta-feira (14).

Referências:

1. Câmara
2. Folha de S.Paulo (1 e 2)
3. Aos Fatos (1, 2, 3 e 4)
4. G1
5. Governo federal
6. Direitos na Rede (1 e 2)
7. O Globo (1 e 2)
8. Planalto
9. STJ

Topo

Usamos cookies e tecnologias semelhantes de acordo com a nossa Política de Privacidade. Ao continuar navegando, você concordará com estas condições.