Descaso com ‘deep nudes’ expõe cumplicidade do Telegram com assédio e pornografia infantil

Compartilhe

Aviso: este texto é uma análise e foi publicado originalmente na newsletter O Digital Disfuncional.


Assine de graça e receba análises exclusivas.


#19 |🦋 O silêncio do Telegram e os inocentes

Em setembro de 2021, Jair Bolsonaro (PL) tentou lançar sua própria proposta de regulação das plataformas, com a medida provisória nº 1.068. Na contramão da tendência mundial, o então presidente queria restringir as possibilidades de moderação de conteúdo, deixando de fora — não por acaso — a desinformação. A intenção foi barrada pelo Senado.

Sob o argumento de que queria proteger a liberdade de expressão, a MP colocava poucas exceções para a proibição de remoção de perfis ou conteúdos das redes. Entre elas estavam as violações ao Estatuto da Criança e do Adolescente (lei nº 8.069/1990), a nudez ou representações de atos sexuais e a prática ou promoção de pedofilia, pauta de costumes que é cara aos parlamentares que se dizem conservadores.

Esses três pontos convergiam na proteção dos direitos das crianças, permitindo que as plataformas fizessem o mínimo caso a MP fosse ratificada no Congresso e se tornasse lei: combater a pornografia infantil e impedir o acesso a conteúdos impróprios para menores de idade. Nas últimas semanas, o Telegram nem o mínimo fez, demonstrando não se adequar nem a um cenário de vale-quase-tudo que Bolsonaro tentou emplacar.

No começo da semana, o Aos Fatos mostrou que pelo menos 14 bots identificados na plataforma permitem a criação de “deep nudes” a partir de fotos reais de menores de idade, prática que é proibida pelo ECA. As simulações de nudez feitas com inteligência artificial generativa haviam ganhado o noticiário após alunas de um colégio de elite no Rio de Janeiro serem vítimas da prática.

A reportagem procurou o Telegram duas vezes para comentar o caso e teve como resposta o silêncio. Enviamos uma lista de links com todos os bots – e todos continuam no ar.

A disseminação de pornografia infantil no Telegram não é novidade. Em 2018, o aplicativo chegou a ser banido da Apple Store devido aos crimes cometidos lá dentro. Em junho deste ano, um estudo do Stanford Internet Observatory que abordou as políticas das plataformas sobre o material de abuso infantil (CSAM, na sigla em inglês) deixa notório o descontrole do Telegram.

O relatório explica que, embora os termos de uso da plataforma não permitam postar conteúdo pornográfico ilegal em canais publicamente visíveis, eles implicitamente permitem que a pornografia infantil “seja compartilhada em grupos privados ou mensagens diretas”.

No caso do Telegram, esses grupos privados podem ter milhares de usuários, como era o caso das comunidades em que a reportagem do Aos Fatos identificou os links dos bots. Na prática, isso significa que o aplicativo de mensagens transfere para a comunicação de massas o princípio da privacidade que norteia a comunicação pessoal.

Como se isso já não fosse grave, o estudo mostra que a questão pode ser ainda pior, ao revelar que o Telegram falha na moderação desse tipo de conteúdo até mesmo em canais públicos. Com base nessa descoberta, os pesquisadores veem indícios de que a empresa pode não estar usando tecnologias padrão da indústria para rastrear e combater pornografia infantil.

O motivo para o Telegram ignorar esses métodos, de acordo com os pesquisadores, é porque isso implicaria repassar os casos às autoridades, o que violaria a promessa feita pela empresa aos usuários de não fornecer nenhum dado a terceiros.

Até os maiores interessados em banir a moderação, como Bolsonaro, sabem da necessidade de se proteger as crianças no ambiente virtual. O tema preocupa as famílias, os educadores e é consenso em todo o espectro político. Nesse contexto, a inação do Telegram diante do problema da pornografia infantil surpreende até quem já não espera lá muita coisa da empresa.

Vale lembrar que, só neste ano, o Telegram foi suspenso pela Justiça por não entregar dados de grupos neonazistas envolvidos em ataques a escolas e voltou a ser ameaçado de suspensão dias depois, caso não cumprisse determinação de tirar do ar comunicado que deturpava o “PL das Fake News” (PL 2.630/2020). Além disso, foi acionado pela AGU (Advocacia-Geral da União) após reportagem do Aos Fatos mostrar que certificados fraudulentos de vacina contra a Covid-19 eram vendidos livremente na plataforma. Na ocasião, esta newsletter comentou como o episódio expunha as falhas de moderação da empresa.

Em geral, as big techs costumam responder a denúncias de falhas de moderação apelando para o grande volume de dados que processam. A partir do momento em que a reportagem enviou a lista com todos os bots e o Telegram optou por mantê-los no ar, abriu mão de poder repetir a desculpa de sempre. Em vez de falho, torna-se cúmplice.

Compartilhe

Leia também

Pablo Marçal descumpre lei eleitoral ao remunerar seguidores na pré-campanha, dizem especialistas

Pablo Marçal descumpre lei eleitoral ao remunerar seguidores na pré-campanha, dizem especialistas

Atentado contra Trump aponta riscos de uma moderação enfraquecida nas ‘big techs’

Atentado contra Trump aponta riscos de uma moderação enfraquecida nas ‘big techs’

falsoServiço Secreto não desautorizou disparo em autor de atentado contra Trump

Serviço Secreto não desautorizou disparo em autor de atentado contra Trump