Por um uso ético da IA no jornalismo

Compartilhe

Aviso: este texto é uma análise e foi publicado originalmente na newsletter O Digital Disfuncional.


#36 | 🤖 Por um uso ético da IA no jornalismo

Dentre os vários lançamentos por ocasião de seu nono aniversário, Aos Fatos publicou no último dia 7 sua política de uso de inteligência artificial. Usadas internamente para o desenvolvimento dos produtos editoriais e de tecnologia da organização, as diretrizes dão transparência ao desenvolvimento de novas ferramentas sem constranger o potencial inovador do Aos Fatos.

Com elas, Aos Fatos compromete-se a, por exemplo:

  • não usar inteligência artificial generativa para criar conteúdo original sem supervisão humana;
  • aplicá-la na adaptação de textos originais produzidos por jornalistas do Aos Fatos para novos formatos ou linguagens — por exemplo, para resumir reportagens, fazer traduções e criar as respostas do chatbot Fátima;
  • só tornar públicas ferramentas de geração automática de conteúdo após análise de riscos da tecnologia e criação de processos de controle de qualidade editorial que minimizem erros e garantam a confiabilidade do sistema.

Com um compromisso renovado com a transparência radical, a missão do Aos Fatos inclui prestar contas detalhadas à sua audiência sobre a metodologia empregada na produção jornalística e no desenvolvimento de projetos de inovação. Nesse contexto, explicar a incorporação da IA à rotina da empresa é tão fundamental quanto seguir uma política editorial rigorosa.

O jornalismo tradicional, ao longo do século passado, habituou-se a preservar uma certa opacidade sobre seus métodos e processos. Essa prerrogativa, contudo, já não encontra lugar numa era em que o esforço para capturar a atenção da audiência depende de desviar de ataques sistemáticos à atividade jornalística. O escrutínio permanente do público não vai desaparecer, e cabe ao jornalismo transformar crítica em diálogo.

Quem consome jornalismo hoje demanda clareza sobre o financiamento das organizações, sobre os processos de produção de notícias e, inevitavelmente, sobre a aplicação de tecnologias como a IA em suas rotinas produtivas. Para que a audiência possa criar uma relação de familiaridade e confiança com essas novas tecnologias, faz sentido demonstrar que é possível desenvolver um uso ético, com limites bem definidos e uma avaliação de riscos contínua.

O Aos Fatos, que conta com cerca de 100 mil usuários nos seus produtos baseados em IA – incluindo Fátima, Radar e Escriba –, agora tem uma política que salvaguarda não só seus jornalistas, mas também sua audiência e seus clientes. As diretrizes atendem às necessidades dos produtos já existentes e contemplam projetos futuros, sem limitar o potencial de inovação. Estudar o comportamento dos usuários e compreender as possibilidades oferecidas por uma tecnologia emergente como a IA é uma tarefa permanente.

Assumir um compromisso com o uso ético da IA implica reconhecer suas limitações e criar processos internos robustos. Isso significa também que lançar uma política aberta para esse tipo de tecnologia demanda planejamento prévio e conhecimento, uma vez que é necessário saber aplicá-la.

A implementação de LLMs (grandes modelos de linguagem) na Fátima, a robô checadora do Aos Fatos, é uma ilustração desse cuidado. Sua versão atual, em fase beta para WhatsApp, Telegram e o site da empresa, usa IA generativa baseada no modelo GPT-4, assegurando respostas mais precisas às dúvidas mais comuns dos usuários. A adoção de uma metodologia que reduz riscos permitiu que Fátima operasse com uma taxa de erro inferior a 1%.

O modelo usado pela Fátima responde aos prompts dos usuários com resumos concisos, baseados exclusivamente em reportagens e checagens do Aos Fatos. A integração com um framework chamado RAG (Retrieval-Augmented Generation) conecta o modelo de linguagem à nossa base de dados. Essa combinação, junto a testes de risco, limitações de tema e condicionantes, reduz significativamente as chances de alucinações e erros.

Desde o lançamento da versão com IA generativa, Aos Fatos tem documentado o feedback dos usuários, sem registro de respostas incorretas. Quando o banco de dados não contém a resposta para uma pergunta, Fátima simplesmente informa que não possui tal informação.

As potencialidades da inteligência artificial são insondáveis, mas a inovação, sobretudo num campo que não se permite errar, não deve vir a todo custo. A aplicação de tecnologia no jornalismo é ampla e diversificada na mesma medida que criar processos de integridade da informação também é trabalhoso. Conhecer a audiência e entender seu nível de familiaridade com tecnologias específicas é essencial para evitar estranhamento ou quebra de confiança. Uma política de IA não se encerra em sua publicação; ela é o meio entre a experiência e a aplicação responsável da tecnologia.

Compartilhe

Leia também

falsoÉ falso que Maduro foi condenado à morte nos EUA

É falso que Maduro foi condenado à morte nos EUA

falsoRegra que adia aposentadoria de professores foi aprovada em 2019, não agora

Regra que adia aposentadoria de professores foi aprovada em 2019, não agora

falsoVídeo em que homem anuncia greve de fome por liberdade de Maduro é gerado por IA

Vídeo em que homem anuncia greve de fome por liberdade de Maduro é gerado por IA

fátima
Fátima