O lançamento de ferramentas de IA (inteligência artificial) generativa como o ChatGPT trouxe aos professores preocupações e resistências similares às levantadas com a popularização das calculadoras. Muito além do receio antigo de que alunos deixassem de aprender operações básicas, no entanto, o temor atual lida com tecnologias capazes de redigir textos similares aos produzidos por humanos sobre praticamente qualquer assunto.
Pelo mundo, a “nova ameaça” provocou reações divergentes. Nos Estados Unidos, por exemplo, a rede de ensino de Nova York proibiu o uso do chatbot da OpenAI. Já o governo de Singapura anunciou que suas escolas devem ensinar alunos e professores a usar a ferramenta.
No Brasil, enquanto a inteligência artificial ainda aguarda regulação no Senado, a falta de formação adequada dos professores para o uso da tecnologia já é responsável por conflitos. Como o Aos Fatos mostrou, a adoção do ChatGPT para detectar plágios em trabalhos escolares provocou queixas de alunos.
Especialistas ouvidos pelo Aos Fatos, porém, afirmam que, em que pese os desafios que representa para a educação, a inteligência artificial não pode ser ignorada e precisa ser incorporada à sala de aula. Sua absorção, no entanto, pode esbarrar em problemas como falta de capacitação, ausência de pesquisas voltadas à inovação no setor e até ao apego a métodos antigos de ensino.
Enquanto as pesquisas amadurecem, a adoção da tecnologia no ensino pode começar de forma experimental, avalia Marina Meira, líder de projetos da Associação Data Privacy Brasil de Pesquisa. Nesse contexto, o Aos Fatos reuniu reflexões sobre o uso da inteligência artificial nas escolas e sugestões práticas de especialistas sobre como isso pode começar a ser feito.
1. Repensar modelo de ensino e avaliação
2. Criar estratégias para uso transparente
3. Estimular criatividade e capacidade de questionamento
4. Checar informações produzidas pelas ferramentas
5. Mostrar limitações e preconceitos da IA
6. Ensinar a identificar imagens geradas por IA
1. Repensar modelo de ensino e avaliação
De acordo com o sociólogo Glauco Arbix, um dos coordenadores do Centro de Inteligência Artificial da USP, o ChatGPT não é bem visto por uma parcela dos educadores porque os obriga a questionar seus processos de avaliação. Essa reflexão, entretanto, seria inevitável à medida que a tecnologia começa a ser capaz de realizar parte das tarefas que antes cabiam apenas a seres humanos.
Neste ano, por exemplo, foi noticiado que a versão mais recente do chatbot da OpenAI se saiu melhor que 90% dos candidatos humanos no exame da ordem dos advogados nos Estados Unidos. Aqui no Brasil, a tecnologia também conseguiria passar na primeira fase da prova da OAB (Ordem dos Advogados do Brasil).
Como professor universitário, Arbix decidiu mudar o sistema de avaliação de seus alunos por conta da evolução tecnológica. “Não adianta pedir resumo de livro. Existem ferramentas que fazem isso muitas vezes melhor do que a gente, o que significa que nós temos que avaliar outro tipo de capacidade.”
O sociólogo considera que, nesse contexto, o professor ganha o papel de “grande supervisor” do uso da tecnologia. Ainda assim, ele pondera que o papel da ferramenta será sempre complementar, já que o objetivo da escola é formar cidadãos, e não “pessoas que sabem responder a testes ou que respondem de forma mecânica”.
A pesquisadora Marina Meira também afirma ser necessário repensar estratégias de ensino, substituindo modelos baseados em repetição por um sistema mais crítico. Nesse quadro, afirma ser essencial abraçar as diretrizes da educação digital e capacitar estudantes a usarem a tecnologia e refletirem sobre seus possíveis problemas. “Da mesma forma que a gente não acha que crianças podem atravessar a rua sozinhas, o fato de elas saberem mexer em um celular desde cedo não significa que tenham a dimensão total dos riscos.”
A pesquisadora lembrou ainda que, mesmo que não sejam autossuficientes no tema, crianças e adolescentes têm muito a ensinar sobre tecnologia. Por isso, disse considerar importante que os professores promovam ambientes de escuta e de troca com os estudantes.
2. Criar estratégia de uso transparente
Especialistas também ressaltaram ser fundamental que os professores estabeleçam com seus alunos uma política de transparência em relação ao uso da inteligência artificial, sobretudo porque as ferramentas existentes hoje para a detecção de plágios não são confiáveis.
“Os alunos têm que ser orientados não só a fazer um bom uso da ferramenta, como precisam ser educados para registrar as partes dos seus trabalhos construídas a partir do ChatGPT”, afirmou Glauco Arbix.
O pesquisador diz ter adotado esse sistema no último curso que ministrou, no qual incentivou o uso do ChatGPT. Segundo seu levantamento, entre 15% e 20% dos alunos aplicaram a tecnologia no trabalho final da disciplina.
“Achei que aqueles que registraram nos trabalhos [a utilização da tecnologia] fizeram um bom uso do ChatGPT, que ajudou esses alunos a melhorar suas atividades, comparando o trabalho final com prova intermediária. A qualidade do texto melhorou, a estrutura de apresentação das ideias melhorou, a maneira como eles buscaram relações com outros temas melhorou”, relata.
O sociólogo ressalta, no entanto, que a estratégia não pode ser generalizada para todos os níveis de ensino. Assim como acontece com as calculadoras, a introdução da inteligência artificial na sala de aula precisa ser feita de forma gradual, acompanhando a maturidade dos alunos.
“Evidentemente que, se mal utilizados, os recursos do ChatGPT podem atrofiar, pelo menos por um período, a capacidade dos alunos de escrever textos e fazer resumos”, avalia o professor. “Mas um aluno que leu o livro, absorveu o livro, gostou do livro e quer ter uma opinião diferente da sua, tem todo o direito — e seria extremamente salutar — que pedisse um resumo para o ChatGPT para ver se bate com as ideias que teve.”
3. Estimular a criatividade e a capacidade de questionamento
As ferramentas de inteligência artificial também podem exercer um importante papel no ensino da formulação de perguntas, estimulando a criatividade e o debate.
Marina Meira relatou ao Aos Fatos o caso de um professor do ensino médio que usou a tecnologia em sua aula de filosofia. O educador realizou um exercício em que cada estudante escolheu um filósofo e pediu ao ChatGPT que apresentasse suas ideias. “No exercício, o estudante precisava fazer perguntas para o ChatGPT, extraindo o máximo do pensamento desse filósofo”, conta.
Segundo a pesquisadora, com esse tipo de exercício, o professor consegue “colocar os estudantes para perguntar em vez de só responderem”. O incentivo ao questionamento seria uma forma importante de desenvolver tanto a curiosidade quanto o senso crítico.
4. Checar informações produzidas pelas ferramentas
A inteligência artificial tem tido sucesso em imitar a linguagem humana, com textos coerentes e gramaticalmente corretos. O problema é que nem sempre as informações disponibilizadas pelas ferramentas são verdadeiras: a tecnologia pode, por exemplo, inventar dados e gerar referências falsas. Por isso, afirmam os especialistas, é preciso que os estudantes aprendam a desconfiar.
O ChatGPT, por exemplo, constrói suas respostas calculando quais palavras têm maior probabilidade de aparecer em um contexto após estudar os padrões de escrita de milhões de publicações da internet. A falta de qualidade dos textos da base de dados, a ausência de conteúdos sobre determinados assuntos, as limitações para idiomas que não sejam o inglês e a incapacidade da tecnologia de entender o que está escrevendo podem levar a erros graves nas respostas, fenômeno denominado “alucinação”.
“Quem toma o que o ChatGPT fala como verdade vai dar com a cabeça na parede. É por isso que é fundamental a supervisão humana. Cada vez que você faz uma consulta, você tem a obrigação de cotejar com textos mais consolidados e cientificamente comprovados”, alerta Arbix.
Diante dessa situação, demonstrar as limitações da ferramenta e estimular os alunos a buscarem informações corretas pode ser uma possibilidade de emprego benéfico da tecnologia.
“Os professores podem pedir aos alunos para fazerem perguntas específicas ao ChatGPT e aí verificarem quando ele responde de forma correta e quando não responde”, sugere a pesquisadora do DataPrivacy Marina Meira. Ela ressalta que ensinar os estudantes a lidar com a IA generativa pressupõe que aprendam a usá-la com senso crítico.
5. Mostrar outras limitações e preconceitos da IA
As bases de dados nas quais as IAs são treinadas refletem padrões existentes na nossa sociedade, inclusive preconceitos. Ainda que os desenvolvedores das tecnologias tentem fazer ajustes, investigações já demonstraram que as ferramentas frequentemente reproduzem racismo, machismo, etarismo e xenofobia.
Marina Meira lembra que as tecnologias disponíveis hoje não necessariamente foram pensadas levando em conta a realidade local brasileira. Por isso, trabalhos que envolvem o uso da IA devem “questionar o modelo hegemônico de tecnologia e muitas vezes de ensino, que é um modelo estadunidense, muito masculino, muito branco”.
Exercícios com programas de IA que geram imagens podem ser um bom caminho para revelar esses padrões sociais, fomentando a discussão sobre esses temas com os alunos. Para isso, o professor pode propor a tarefa de os estudantes gerarem imagens de reuniões de negócios ou de ambientes que representem determinadas profissões, por exemplo, para, em seguida, refletirem sobre o que é mostrado nas cenas.
Outra limitação da tecnologia que pode ser explorada para gerar debate em sala de aula é decorrente da falta de informações nos bancos de dados sobre contextos locais. A reportagem pediu, por exemplo, para que o ChatGPT citasse as comunidades indígenas existentes no município de São Paulo; a ferramenta respondeu que não havia nenhuma, o que é falso. A partir de exercícios como esse, é possível solicitar que os alunos busquem as informações que a tecnologia não foi capaz de fornecer, inclusive com trabalhos de campo.
6. Ensinar a identificar imagens geradas por IA
Conforme já mostrado pelo Aos Fatos, as ferramentas de inteligência artificial — em especial as especializadas em geração de imagens — têm sido usadas para produzir desinformação. Ainda que não sejam tecnicamente perfeitos, esses conteúdos podem enganar usuários desatentos — exemplo disso foram as fotos falsas do papa Francisco geradas com a ferramenta Midjourney, que viralizaram em março. A educação digital crítica também pode procurar oferecer aos alunos ferramentas para identificar essas montagens.
“Modelos de que criam imagens baseadas em IA generativa têm muita dificuldade de reproduzir a quantidade certa de dedos, por exemplo. Pode ser legal propor de identificar esses indícios, tipo jogo dos sete erros”, sugere Meira.
Além de errar a quantidade de dedos nas mãos, as ferramentas de IA generativa também podem falhar em detalhes como proporções de membros do corpo, formato das orelhas, entre outros, como o Aos Fatos já explicou.