O deputado Orlando Silva (PCdoB-SP) apresentou na noite de quinta-feira (27) o parecer final do PL 2.630/2020, conhecido como “PL das Fake News”, que prevê regular a ação das redes sociais no país.
Na última terça (25), a Câmara dos Deputados aprovou, por 238 votos a 192, o regime de urgência para a tramitação do projeto, que agora seguirá diretamente para o plenário. O presidente da Casa, deputado Arthur Lira (PP-AL), quer votar o texto já na terça-feira (2).
O parecer do relator fez modificações nas versões anteriores da proposta, para atender às demandas de vários partidos. O principal ponto de divergência era sobre a criação de um novo órgão regulador para aplicar as regras.
A seguir, Aos Fatos responde a cinco perguntas sobre os principais pontos do relatório mais recente. Durante a votação, porém, o projeto poderá sofrer novas modificações para incorporar alterações propostas por parlamentares.
- Quem será afetado?
- O que acontece se a empresa desrespeitar a lei?
- Quais são as punições?
- O que muda no uso de redes por políticos?
- Como será a remuneração ao jornalismo?
QUEM SERÁ AFETADO?
Todas as regras contidas no PL 2.630/2020 se aplicam a redes sociais, ferramentas de busca e serviços de mensageria instantânea com mais de 10 milhões de usuários mensais no país, como Facebook, Instagram, Google, YouTube, TikTok, entre outros.
Não são afetados pela lei:
- comércio eletrônico;
- reuniões fechadas de vídeo, como o aplicativo Zoom;
- enciclopédias sem fins lucrativos, como a Wikipedia;
- desenvolvimento e compartilhamento de software de código aberto;
- jogos e apostas online;
- e repositórios científicos, educativos e de dados do poder público.
COMO AS PLATAFORMAS DEVEM AGIR?
De acordo com o texto, os provedores devem "atuar diligentemente para prevenir e mitigar" práticas ilícitas nos seus serviços e se esforçar para combater publicações ilegais que configurem:
- crimes contra o Estado Democrático de Direito;
- atos de terrorismo e preparatórios de terrorismo;
- estímulo ao suicídio ou à automutilação;
- crimes contra crianças e adolescentes;
- crime de racismo;
- violência contra a mulher;
- infração sanitária, por dificultar a execução de medidas sanitárias quando tiver sido decretada situação de emergência em saúde pública.
O texto afirma que o cumprimento desse "dever de cuidado" será avaliado, embora não deixe claro quem será responsável por essa tarefa — lacuna que os deputados devem voltar a debater antes da votação.
Essa avaliação não se dará sobre conteúdos ilegais isolados, mas sim sobre “o conjunto de esforços e medidas adotadas pelos provedores” para evitar a disseminação em massa de publicações ilegais. Isso significa que serão consideradas falhas sistemáticas e recorrentes nas políticas de moderação ou nos mecanismos de recomendação, e não algum post específico.
Embora a regra geral diga que as empresas não podem ser punidas por conteúdos individuais, o texto traz exceções. Uma delas é no caso de conteúdos ilegais distribuídos mediante pagamento — caso de anúncios e impulsionamentos. Nessa situação, a empresa será considerada corresponsável pelos danos provocados.
Análise de riscos. O projeto de lei prevê ainda obrigação de as plataformas analisarem e corrigirem “riscos sistêmicos” dos serviços que oferecem e que podem estar facilitando a propagação de conteúdo ilegal ou ameaçando a liberdade de expressão, por exemplo. A análise precisa englobar:
- os sistemas de recomendação e outros algoritmos;
- os sistemas de moderação de conteúdos;
- os termos de uso e a sua aplicação;
- os sistemas de exibição de anúncios publicitários;
- a possibilidade de manipulação desses sistemas de forma intencional, com o uso, por exemplo, de contas falsas.
As análises deverão ser publicadas uma vez por ano ou sempre que as plataformas passarem por mudanças significativas. O novo texto também prevê a obrigação de as empresas elaborarem relatórios de transparência e serem submetidas a auditorias externas independentes.
Caberá ao CGI.br (Comitê Gestor da Internet no Brasil) elaborar as diretrizes para as regras de comunidade das plataformas, fazer estudos e relatórios para avaliar o cumprimento de alguns dos princípios da lei e emitir recomendações. O órgão, porém, não terá a capacidade de punir as empresas.
o que acontece se a empresa desrespeitar a lei?
Em casos de "risco iminente de danos", se uma plataforma for considerada negligente ou se não estiver tomando medidas suficientes para combater a propagação de conteúdo ilegal, poderá ser instaurado um protocolo de segurança com duração inicial de 30 dias, prorrogáveis.
O relatório não informa que órgão poderá instaurar o protocolo, dizendo apenas que o tema será regulamentado. Emitir as diretrizes e critérios para a instauração desse procedimento emergencial é atribuição do CGI.br.
Na vigência do protocolo, as plataformas poderão ser responsabilizadas civilmente pelos danos causados por conteúdos criados por terceiros, desde que fique demonstrado que tinham conhecimento prévio da ilegalidade e não agiram contra a propagação. Essa possibilidade ficaria restrita aos casos específicos abrangidos pelo protocolo e a conteúdos publicados individualmente durante sua vigência.
Para ficar comprovado o “conhecimento prévio”, bastará que o conteúdo tenha sido denunciado por usuários. Os provedores deverão criar mecanismos para as denúncias, que precisam ser justificadas.
Essas medidas se assemelham às da Portaria nº 351/2023, que obriga as plataformas a avaliar e mitigar riscos da propagação de conteúdos ilícitos sobre ataques em escolas e o acesso de crianças e adolescentes a esses conteúdos.
Se não agirem para combater conteúdo ilegal, as empresas ficam sujeitas a sanções administrativas. O mesmo ocorrerá caso os provedores abusem da moderação para cumprir as exigências do protocolo de segurança.
O relatório não estabelece qual órgão será responsável pelo processo administrativo, mas cita as seguintes punições em caso de descumprimento da lei:
- advertência, com indicação de prazo para correção do problema;
- multas, que podem chegar a até R$ 50 milhões por infração;
- exigência de publicação da decisão pelo infrator;
- proibição de tratamento de determinadas bases de dados;
- Suspensão temporária das atividades.
O QUE MUDA NO USO DAS REDES POR POLÍTICOS?
O texto apresentado por Orlando Silva também estende às plataformas a imunidade parlamentar — dispositivo constitucional que impede que políticos respondam por crimes comuns em decorrência de discursos. A versão do relator, porém, não deixa claro se essa imunidade valeria apenas para decisões judiciais ou se impediria também as plataformas de fazer a moderação de conteúdos.
Especialistas ouvidos pelo Aos Fatos temem que a inclusão da imunidade parlamentar no projeto da forma como está colocada possa incentivar as plataformas a deixar de moderar as contas de políticos para evitar questionamentos na Justiça.
A imunidade parlamentar é um direito garantido apenas a deputados e senadores. Já o conceito de “contas de interesse público”, previsto na proposta, é mais amplo e engloba páginas institucionais ligadas ao governo e a perfis pessoais de:
- políticos eleitos, como presidente, governadores, prefeitos, vereadores, deputados e senadores;
- ministros, secretários e equivalentes;
- altos dirigentes de entidades da administração pública indireta da União, dos estados, do Distrito Federal e dos municípios.
Pelo projeto, esses perfis também ficariam proibidos de restringir o acesso de usuários, para garantir que todos tenham acesso às informações ali divulgadas. No final de 2022, um balanço da Abraji (Associação Brasileira de Jornalismo Investigativo) mostrou que ao menos 53 autoridades haviam bloqueado 390 perfis de profissionais e veículos de imprensa. O então presidente Jair Bolsonaro (PL) era o campeão.
O texto também determina que, se os provedores agirem de forma ilícita ou abusiva na moderação de conteúdo das contas de interesse público, o Judiciário deverá intervir e dar prazo de 24 horas para a reversão da medida.
COMO SERÁ A REMUNERAÇÃO AO JORNALISMO?
O projeto também prevê que as plataformas devem remunerar empresas de mídia pelo conteúdo jornalístico que utilizam, tema que é alvo de uma disputa de bastidores.
O texto atual determina que os valores a serem pagos pelas plataformas serão negociados entre as empresas. Ainda serão criadas as regras para essas negociações, mas elas deverão garantir a equidade e evitar prejuízos para companhias de menor porte.
Caso plataformas e empresas de mídia não cheguem a um acordo, haverá um mecanismo de arbitragem. O texto prevê que o Cade (Conselho Administrativo de Defesa Econômica) — autarquia responsável por garantir a livre concorrência — pode interferir para evitar que os provedores “abusem de sua posição dominante na negociação com as empresas jornalísticas”.
O relatório diz ainda que as big techs não poderão remover conteúdo jornalístico de suas plataformas para evitar o pagamento a seus produtores nem poderão repassar o custo aos usuários.
O modelo de negociação presente no projeto assemelha-se ao adotado na Austrália e é defendido pelas empresas de grande porte e por instituições como a ANJ (Associação Nacional de Jornais) e a Abert (Associação Brasileira de Emissoras de Rádio e Televisão), que afirmam que os repasses têm beneficiado empresas de grande e de pequeno porte e possibilitado a contratação de mais profissionais.
Por outro lado, a Ajor (Associação de Jornalismo Digital) teme que a negociação direta entre as empresas seja instituída sem a criação de mecanismos de transparência. A entidade defende a discussão sobre a criação de um fundo público de financiamento da atividade.
Além da remuneração de conteúdos jornalísticos, o projeto de Orlando Silva também estabelece que as plataformas precisarão negociar o pagamento de direitos autorais pelos conteúdos musical e audiovisual que distribuem. A inclusão dos direitos autorais era defendida pelo Ministério da Cultura.