Governo quer entidade autônoma para supervisionar plataformas

Compartilhe

Após semanas de discussões reservadas, o Palácio do Planalto apresentou nesta quinta-feira (30) uma série de sugestões para alterar a forma como as plataformas digitais operam no país. Dentre as propostas está a criação de uma "entidade autônoma" para supervisionar um "conjunto de esforços e medidas adotadas pelas plataformas digitais", além da ampliação das responsabilidades dessas empresas caso não ajam contra "danos decorrentes de conteúdo gerado por terceiros quando demonstrado conhecimento prévio".

A proposta trata majoritariamente de regular a atuação de plataformas que tenham mais de 10 milhões de usuários no país, o que, na prática, afetaria sobretudo redes sociais como Facebook, Instagram, YouTube e TikTok. O governo trabalha para que as sugestões sejam incorporadas pelo deputado Orlando Silva (PC do B-SP) ao PL 2.630/2020, que pretende estabelecer regras de funcionamento para essas empresas.

O texto é uma resposta do governo ao papel das plataformas na disseminação de conteúdos que levaram aos atentados de 8 de janeiro em Brasília. Sob esse argumento, amplia o escopo de responsabilização dessas empresas e diz que elas devem agir “em prazo hábil e suficiente” para prevenir ou mitigar práticas ilícitas, além de se esforçar para combater conteúdos que configurem ou incitem crimes contra:

  • o Estado Democrático de Direito;
  • os direitos das crianças e adolescentes;
  • e a saúde pública;
  • além de terrorismo;
  • racismo;
  • violência de gênero;
  • e estímulo ao suicídio e automutilação.

A proposta prevê a criação de um órgão autônomo para supervisionar o cumprimento desses deveres, ressaltando que essa avaliação deve ser feita “sempre sobre o conjunto de esforços e medidas adotadas pelas plataformas digitais”, e não “sobre o tratamento de conteúdos individuais”. Esse dispositivo assemelha-se ao conceito de “dever de cuidado”, adotado pelo DSA (Digital Services Act), que engloba uma série de diretrizes de regulação das plataformas aprovadas pela União Europeia no ano passado.

No entanto, ao mesmo tempo, o texto diz que as plataformas podem ser “responsabilizadas civilmente pelos danos decorrentes de conteúdo gerado por terceiros” quando ficar demonstrado que elas tiveram conhecimento prévio da irregularidade e não agiram para mitigá-la. Denúncias de usuários que justifiquem claramente qual a ilegalidade de um determinado conteúdo seriam suficientes para que as plataformas fossem consideradas cientes de uma violação legal.

Esse dispositivo de “notificação e ação”, similar ao mecanismo de adotado pela legislação alemã que regulamenta as plataformas, contraria o artigo 19 do Marco Civil da Internet (lei 12.965/2014), que hoje determina que as empresas não podem ser responsabilizadas por conteúdos de usuários, exceto se descumprirem ordem judicial. A constitucionalidade do artigo 19 está para ser julgada pelo STF (Supremo Tribunal Federal).

IMUNIDADE

O governo também alterou a proposta de extensão da imunidade parlamentar às redes sociais, que constava no relatório do PL das Fake News do Orlando Silva. O texto do Executivo mantém um tratamento diferenciado de autoridades públicas eleitas, impedindo o bloqueio ou a exclusão de contas sem ordem judicial. No entanto, além de não proibir a exclusão de conteúdos desses autores que violem as regras de comunidade, o projeto também abre uma exceção que libera as plataformas de suspenderem, por até 7 dias, contas de políticos “contumazes violadoras dos termos e políticas de uso ou disseminadores de discursos de ódio, conteúdos ilícitos ou com potencial de provocar dano iminente de difícil reparação”.

A proposta do Executivo também proíbe a publicidade e o impulsionamento de conteúdos:

  • manifestamente ilegais;
  • que defendam, promovam ou incitem o ódio, a discriminação e a intolerância;
  • que neguem “fatos históricos violentos bem documentados, com o objetivo de minimizá-los”;
  • que incitem a sublevação contra a ordem democrática;
  • ou que tenham indícios de terrorismo ou contra o Estado Democrático de direito.

O texto diz ainda que o Congresso Nacional deverá criar, em até 45 dias após a aprovação do projeto, uma comissão provisória para elaborar um Código de Conduta de Enfrentamento à Desinformação, que dará as diretrizes para a aplicação da lei. Essa comissão deve incluir representantes das empresas, do Legislativo, da comunidade acadêmica, da sociedade civil e do jornalismo.

CONFLITO

O documento apresentado nesta quinta-feira é o resultado de semanas de debates internos entre setores do Executivo. Desde os ataques de 8 de janeiro, o governo buscava uma fórmula para aumentar a responsabilização das plataformas digitais sobre os conteúdos que distribuem.

Após a depredação das sedes dos Três Poderes, o Ministério da Justiça e Segurança Pública, encabeçado por Flávio Dino (PSB-MA), passou a defender ações enérgicas e imediatas contra as redes. Sua proposta inicial era enviar uma Medida Provisória ao Congresso estabelecendo multas para quem não retirasse do ar, mesmo sem ordem judicial, conteúdos que atentassem contra o Estado Democrático de Direito.

No entanto, essa ideia encontrava resistência em outros setores do governo – como na Secom (Secretaria de Comunicação Social) –, para os quais a responsabilização por conteúdos individuais poderia fomentar a autocensura das plataformas, comprometendo a liberdade de expressão. Para esse grupo, o melhor caminho seria atuar identificando falhas sistêmicas, como brechas na aplicação de regras de comunidade pelas plataformas.

Segundo essa linha de pensamento, as empresas poderiam sim ser responsabilizadas, mas apenas em caso de um descumprimento sistemático do seu “dever de cuidado”, ou seja, da responsabilidade por combater a disseminação de discurso de ódio, ataques à democracia e informações falsas de forma mais ampla.

A falta de consenso entre essas duas correntes é apontada como motivo dos vários adiamentos da divulgação das propostas do Executivo. Para especialistas ouvidos pelo Aos Fatos, a proposta divulgada não resolveu o dilema. Em vez de escolher entre um modelo ou outro de responsabilização, ficou com os dois.

“Parece quase uma proposta Frankenstein”, avalia João Victor Archegas, pesquisador sênior de Direito e Tecnologia do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio). Para ele, ao não se decidir entre a responsabilização por conteúdos individuais e o dever de cuidado associado à análise de risco sistêmico, o texto joga a decisão de qual regra aplicar para a Justiça. “Lei é 50% palavras e 50% interpretação. Do jeito que está, tem abertura para ser uma coisa ou outra, a depender de quem interpreta. Acho isso bem complicado”, critica.

As propostas do governo, porém, ainda precisam passar pelo crivo de deputados e senadores, que poderão alterar o texto.

Compartilhe

Leia também

falsoVídeo com fila de blindados não mostra tropas do Brasil rumo à Venezuela

Vídeo com fila de blindados não mostra tropas do Brasil rumo à Venezuela

falsoÉ falso que Trump elogiou Lula em discurso de vitória

É falso que Trump elogiou Lula em discurso de vitória

falsoÉ falso que Elon Musk comprou a CNN

É falso que Elon Musk comprou a CNN