Boas práticas para implementar a Inteligência Artificial na Educação
Professor Fernando Osório, do Center for Artificial Intelligence (C4AI), da USP, analisa o ChatGPT e dá sugestões de como usá-lo adequadamente
Ainda não há como mensurar se a Inteligência Artificial (IA) vai apenas ajudar na automatização de tarefas cotidianas, liberando tempo para outras atividades, como acreditam os otimistas, ou se vai se sobrepor ao domínio, conforme as previsões pessimistas. Certo, neste momento, é que tal recurso tem ganhado adeptos e despertado atenção de curiosos ao passo que suscita alguma polêmica. Concomitantemente, estabelece-se um debate pertinente entre defensores e detratores, sobre as possíveis consequências da IA à sociedade. A educação é um dos setores em que o uso da nova ferramenta não está pacificado.
No cerne das discussões, atualmente, está o ChatGPT, robô de conversação capaz de articular e produzir textos convincentes, porém não necessariamente com conteúdo 100% assertivo. A ferramenta ganhou visibilidade, tornando-se o programa de computador de maior aceitação na história da computação: foi lançado em novembro de 2022 e atingiu 100 milhões de usuários em janeiro de 2023.
Há o entendimento de que é possível usar Inteligência Artificial para transmitir conhecimento, mas ainda é preciso compreender melhor como fazer isso. Inclusive, já há projetos voltados à Educação que trabalham com IA.
O professor Dr. Fernando Osório, do Instituto de Ciências Matemáticas e de Computação (ICMC) e integrante do Center for Artificial Intelligence (C4AI), ambos da Universidade de São Paulo (USP), estuda sobre o tema.
Na entrevista a seguir, para o Educação em Pauta, o especialista contextualiza o que é Inteligência Artificial, análise prós e contras do ChatGPT, avalia impactos da IA na educação e dá dicas de como usá-la da melhor maneira possível.
Leia também:
>> Inteligência Artificial impactará significativamente a Educação
>> Prós e contras: a Inteligência Artificial aplicada no ensino
Educação em Pauta – O senhor já pontuou em artigos que é importante entender o que é a Inteligência Artificial, um recurso ainda novo. De que forma podemos contextualizar isso?
Fernando Osório – A Inteligência Artificial (IA) está presente em toda parte, por tudo (parece aquele filme premiado no Oscar: “Tudo Em Todo Lugar ao Mesmo Tempo”). A IA está presente nas buscas do Google (algoritmos de recomendação e “ranking”), no táxi de aplicativo (estimativa de preços, de rotas, gestão inteligente), no comércio eletrônico (sites de vendas, sugestão de produtos, como anúncios da Amazon, Mercado Livre, Magazine Luíza, etc), nos sites de filmes e músicas (recomendações de Netflix e Spotfy), no aspirador de pó robótico, no reconhecimento de digitais e rostos/faces, nos bancos, nas “Smart” TVs, nos “Smart” Phones, nos “Smart” Watches, e por aí vai. Já está presente no dia a dia de nossas vidas, em várias coisas.
É claro que a Inteligência Artificial também está presente no ensino, em consultas aos materiais instrucionais. E aí aparecem novamente os mecanismos de busca como o Google, em sistemas “tutores inteligentes” que atuam como uma espécie de auxiliar do professor, corrigindo provas e textos automaticamente, inclusive produzindo textos. É nesse contexto que aparece o tal ChatGPT: uma Inteligência Artificial capaz de produzir textos, de conversar com as pessoas e de responder perguntas.
A IA vem sendo muito discutida e tem se destacado principalmente devido ao surgimento do ChatGPT, criado pela empresa OpenAI. É claro que, como toda tecnologia nova, chamou atenção, ainda mais por ser uma ferramenta que foi disponibilizada de forma gratuita na Internet, onde bastava criar um login (nome de usuário e senha) e sair usando (no computador ou celular). Esta IA escreve muito bem em diferentes línguas (Inglês, Português, Francês, Espanhol, entre outras). Os textos são bem escritos, sem erros de ortografia ou gramática, e muito coesos e convincentes, como se tivessem sido escritos por uma pessoa. O ChatGPT se tornou o aplicativo/programa de computador mais rapidamente adotado na história da computação: foi lançado em novembro de 2022 e atingiu 100 milhões de usuários em janeiro de 2023 (crescimento mais rápido que o Facebook, Youtube, TikTok e outros)
Se você consultar no Google por “ChatGPT”, uma palavra que não existia antes de novembro de 2023, vai obter mais de 700 milhões de resultados (google Search), sendo mais badalado e mais citado do que famosos presidentes, personalidades e artistas conhecidos. Só se fala nisso.
O que é afinal o ChatGPT? É um chatbot, ou seja, um robô de conversação. Um programa capaz de conversar (fazer um “chat”) por meio de textos, usualmente digitados na tela do computador ou smartphone. Você escreve uma pergunta, um pedido de informações, um texto de conversação, e ele vai responder. Os chatbots são um tipo de Inteligência Artificial, mas existem diversos outros tipos de aplicações e programas de Inteligência Artificial, usados até mesmo para prever o clima/tempo por exemplo, e que não tem nada a ver com o ChatGPT. O ChatGPT é inclusive um modelo específico de robô de conversação do tipo baseado na tecnologia “GPT” (Generative Pre-Trained Tranformer) que faz uso de tecnologias de Deep Learning (aprendizado de máquinas) para ser (ou parecer) tão “inteligente”.
A tecnologia GPT é um sistema que gera textos que ele cria usando os “transformers” (transformações) e, assim, é capaz de criar textos completamente novos, e não apenas uma cópia “falando” sobre diferentes assuntos. Então, inicialmente o ChatGPT é um programa que é capaz de escrever textos, e faz isso muito bem. Sobre o que ele escreve? É aí que entra o “Pre-Trained”. Ele foi treinado com centenas de milhões de textos (usualmente extraídos da Internet, de sites como a Wikipedia), e usa esses materiais para criar suas respostas. O ChatGPT cria novos textos “inspirado” naquilo que leu e “aprendeu”, mas isso não quer dizer que as informações que ele fornece são sempre corretas: a ferramenta juntou tudo o que viu e aprendeu, colocou em uma representação numérica (um grande “saco de palavras e números”) e depois foi capaz de criar frases bonitas sobre esses textos, mas que podem ser pura invenção ou baseadas nos textos, mas não necessariamente verdadeiras. O ChatGPT é ótimo em gerar e inventar textos, mas não é muito bom em garantir que esses textos são corretos e exatos.
Esse é o problema: ele pode até responder bem algumas perguntas, mas quando não sabe, inventa. Quando a pergunta é mais complicada ele cria uma resposta “convincente”, mas que não necessariamente representa a verdade. Ele pode “alucinar” (inventar coisas absurdas) e, inclusive, responder incorretamente por ter sido treinado com dados “antigos” (seu conhecimento é basicamente limitado ao final de 2021), pois foi “pré-treinado” e esse treinamento custa centenas de milhões de dólares para ser realizado. Por isso, o ChatGPT não foi “retreinado” completamente com dados mais atualizados. Ele não sabe, por exemplo, quem foi o último presidente eleito no Brasil.
Atualmente, ele avisa que está desatualizado. Na primeira versão disponibilizada, nem isso ele fazia, ele dizia que era o Jair Bolsonaro e não dava mais detalhes, por exemplo. O Google Search ainda é bem melhor que o ChatGPT, mas o problema é que para usar o Google você tem que analisar as respostas, ver se estão corretas, ir atrás da informação. No ChatGPT é mais conveniente, pois ele já traz a resposta pronta na forma de texto (ótimo para quem não quer perder tempo, ou para aquele aluno mais preguiçoso).
Educação em Pauta – E isso pode ser perigoso, certo?
Fernando Osório – Sim, pois aí que começam os problemas na educação. Se você usar o ChatGPT como uma fonte de consulta, uma espécie de oráculo que sabe de tudo e tem sempre uma resposta pronta, provavelmente vai aprender e obter muitas respostas incorretas. O ChatGPT é um ótimo gerador de textos, mas não é um ótimo professor ou “sábio”. Quando ele responde, ele não diz de onde tirou a resposta, e se insistirmos, ele é capaz de inventar um livro, uma fonte de onde obteve a resposta (no saco de palavras, não se tem mais a “origem” de onde veio cada conhecimento, cada palavra). É comum ver o ChatGPT inventando livros, artigos, obras acadêmicas que não existem.
Educação em Pauta – E agora, como fica a Educação?
Fernando Osório – Nas escolas e universidades, costumamos ensinar os alunos a consultar boas fontes (de boa reputação), mas o ChatGPT não diz de onde tirou suas respostas. Costumamos ensinar os alunos para buscar informações atualizadas, mas o ChatGPT tem seu conhecimento “congelado” e desatualizado, pois não é capaz de estar constantemente reatualizando seus conhecimentos (só faz ajustes pequenos e “manuais” dos conhecimentos) – custaria milhões para atualizações diárias (aliás, como seu concorrente, o Google Search faz, pois está sempre atualizado). Costumamos ensinar os alunos a buscar informações em múltiplas fontes, juntar, comparar, questionar as informações. O ChatGPT oferece uma única resposta como se fosse a “verdade absoluta”, sem mostrar uma lista variada de links, referências e fontes (como o Google faz, por exemplo). Mas o que é mais fácil: pegar a resposta pronta (que pode estar certa ou errada) ou “perder tempo” pesquisando, comparando, analisando a validade, reputação, atualização dos dados obtidos?
É por causa disso que foi descrito aqui que muitos educadores (que entendem do modo como o ChatGPT funciona) tem criticado essa ferramenta. Quem não entende como ele funciona, os erros que pode cometer, os riscos que ele representa com a difusão de informações falsas ou incorretas, e que “só quer ganhar tempo”, acaba caindo no “canto da sereia”, e se encantando com este “pseudo-intelectual” gerador “culto” de textos (que escreve muito bem) e que é bem convincente. Porém, até mesmo um charlatão ou golpista humano tem uma boa lábia, fala bem, mas não necessariamente diz a verdade. O problema do ChatGPT é esse: ele gera textos, algumas vezes interessantes e mesmo corretos, mas outras vezes, completamente falsos e inventados.
Educação em Pauta – O senhor também já mencionou em seus artigos que é preciso saber como e onde usar a Inteligência Artificial. Em sua avaliação, quais as respostas adequadas para essas questões?
Fernando Osório – O ChatGPT é ótimo para gerar textos, sem um compromisso com a verdade, sem um compromisso com os fatos. Ele pode escrever boas novelas e contos, escritos de ficção, e até mesmo compor a letra de uma música. Ele domina muito bem a linguagem, pode corrigir uma redação, traduzir, e de um modo geral, escrever um bom texto — inclusive “original”, pois não é a cópia exata de outro texto já existente. Por outro lado, quando se trata do conteúdo do texto, este deve ser sempre revisado, avaliado pela pessoa que está usando o ChatGPT para verificar se ele não criou algo inventado, se ele não alucinou, se ele não gerou textos falsos e inadequados (fakes, discurso de ódio e discriminatório, contendo informações ilegais).
Como usar: a pessoa deve entender e conhecer previamente o assunto tratado, para que possa revisar e corrigir as respostas.
Onde usar: na redação de textos, onde o curador, o especialista, é quem está revisando o material. Jamais use o ChatGPT como um oráculo, como um especialista que conhece e domina qualquer assunto que você não conheça. Principalmente, evite usar ele se você não souber verificar se a resposta está correta, ou, se você não puder “revisar” a resposta dada por ele.
O ChatGPT é ótimo para quem possui um conhecimento e deseja usar ele para escrever melhor, de modo mais claro e coeso, para sugerir como escrever ou complementar um texto. Ou mesmo ajudando a traduzir e revisar textos em outra língua. Para inventar textos ele é muito bom. Ele sabe “agradar” na forma como escreve.
Onde não usar: no aprendizado, sem uma adequada supervisão. Crianças que usam o ChatGPT sem controle de alguém que possa ter um olhar mais crítico sobre as respostas, podem aprender coisas erradas. Mesmo estudantes de nível superior correm risco de fazer um mau uso ChatGPT para preparar trabalhos, pois sabemos que um bom trabalho consulta múltiplas, boas e atualizadas fontes. Não use ele como um conselheiro amoroso (não tem sentimentos), como um consultor financeiro (desatualizado), como um médico/psiquiátrico/psicológico (perigoso), como um professor “sabe-tudo” (ele não sabe de “tudo”). Em muitas situações, o ChatGPT devia ser como aqueles remédios tarja preta: use apenas se tiver a receita certa ou se tiver certeza de que não vai fazer mal. Crianças e pessoas desavisadas ou despreparadas não deveriam usar.
Educação em Pauta – De que maneira, até o momento, pode-se avaliar o impacto da IA na educação brasileira?
Fernando Osório – Ainda é cedo para se ter uma noção do impacto do ChatGPT, e de outras ferramentas de IA como essa na educação brasileira. O ChatGPT tem apenas “alguns meses” de existência e não sabemos bem como ele está sendo adotado e usado nas escolas e no Ensino Superior. Mas já é certo que poderá ter impactos negativos se for mal usado. Pode ser útil no ensino de Português, de línguas, e mesmo para estimular a criação de textos, mas como “base de consulta de conhecimentos”, eu considero que pode ser muito perigoso.
O principal seria preparar os pais, educadores e professores para entenderem melhor sobre essa ferramenta e sobre as vantagens e desvantagens de seu uso, sobre quando usar e sobre quando não usar. Na educação, sempre precisamos ter um olhar crítico sobre as informações e conhecimentos (e sobre as ferramentas que se “dizem” educadoras).
Educação em Pauta – Então, ainda não há elementos, em sua avaliação, para mensurar se a ligação entre IA e educação é mais positiva ou negativa?
Fernando Osório – A IA, de um modo geral, pode trazer grandes contribuições para a educação. Já o ChatGPT, em minha opinião, pode gerar mais problemas na Educação Básica, mas também pode ser positivo para aumentar a produtividade de quem já domina os conhecimentos sobre um determinado tema que deseja tratar.
Educação em Pauta – Existem estudos ou projeções de como a Inteligência Artificial pode ser usada, no futuro, para melhorar a educação ou mesmo o aprendizado?
Fernando Osório – Sim, existem muitas outras ferramentas, já disponíveis ou em desenvolvimento, que podem contribuir para melhorar a educação e o aprendizado. Sistemas tutores inteligentes, gamificação na educação, uso de simuladores e laboratórios virtuais (realidade virtual + inteligência artificial) são exemplos de tecnologias que podem contribuir significativamente no processo de ensino/aprendizagem. De um modo geral, as ferramentas que permitem ampliar o acesso aos conhecimentos, sistematizar, organizar, estruturar e armazenar grandes bases de conhecimentos (como as enciclopédias, e no caso digital, a Wikipedia), ajudam a ampliar nossas capacidades de armazenar e manipular conhecimentos. Sistemas inteligentes podem, inclusive, ajudar a questionar informações, validá-las e descobrir novos conhecimentos.
As máquinas usualmente são usadas para “expandir” nossas capacidades, como ocorreu com o automóvel que nos permite ir mais longe e mais rápido, ou o telefone/internet, que nos permite a comunicação instantânea a grandes distâncias. A Inteligência Artificial é justamente uma tecnologia capaz de contribuir significativamente para “ampliar” a nossa capacidade cognitiva e intelectual humana, dando apoio a tomada de decisões complexas, a gestão de grandes bases de conhecimentos, a previsão de eventos (predição, estimativas), entre tantas outras possibilidade que permitem “expandir” nossas capacidades humanas.
Educação em Pauta – Teria dicas para educadores de quando seria interessante o uso de ferramentas como o ChatGPT?
Fernando Osório – Primeiro, aprenda um pouco mais sobre como ele funciona. Existem ótimos vídeos que explicam como o ChatGPT funciona, divulgados por Centros de pesquisa como o C4AI (Centro de IA da USP):
>> Playlist ChatBots e ChatGPT
Sabendo como o ChatGPT funciona, você vai dominar essa ferramenta e não ser dominado por ela.
Segundo, use o ChatGPT como um complemento, um ajudante, e não como fonte de conhecimentos. O educador é quem deve deter o conhecimento e validar os textos produzidos pelo ChatGPT. Nunca aceite um texto do ChatGPT sem depois revisar o conteúdo fornecido.
Terceiro, mostre para os usuários em potencial do ChatGPT os erros absurdos que ele comete, mostre exemplos de informações erradas, falsas, desatualizadas que ele fornece. Somente apresentando, vendo e conhecendo bem os problemas do ChatGPT é que vamos poder usar ele de modo “consciente”.
Quarto, o ChatGPT não devia ser chamado de “ele”, mas de “esta coisa” ou “este programa”. O ChatGPT escreve como um humano (parece humano), mas ele não é, não tem sentimentos, não tem consciência, não entende o significado do que escreve (por exemplo, não sabe o que é gostar, amar, sentir). O ChatGPT não tem intencionalidade, não vai querer dominar o mundo, não mente por vontade própria, não é capaz se ter uma iniciativa própria. A ferramenta não tem consciência ou sentimentos, mesmo sendo capaz de expressar em textos sentimentos que ele não possui e não entende o que significam. Um papagaio também é capaz de dizer a um estranho “Eu te amo”, sem saber o que significa isso.
Não acredite na ficção-científica que apresenta máquinas conscientes que querem dominar o mundo. Isso não existe. Se o ChatGPT escrever que quer dominar o mundo, ele só escreveu, mas sem saber o que disse! Ensine isso, para acabar com essa visão distorcida sobre a existência de uma IA ultra poderosa e do mau.
Educação em Pauta – O que diria ser importante que educadores avaliem quando se decidem pelo uso de IA para passar conhecimento?
Fernando Osório – É muito importante considerar que as informações e as respostas podem não ser corretas, atualizadas e adequadas. É o que diz a tela inicial do ChatGPT: LIMITATIONS – Incorrect, Harmful, Limited to 2021.
Sempre revisar, discutir, analisar, criticar as respostas. O ChatGPT não é um oráculo e pode ser um grande mentiroso.
Educação em Pauta – Quais pesquisas referentes à IA o Centro de Inteligência Artificial da USP (C4AI) desenvolve no momento?
Temos pesquisas em modelos de linguagem, como o ChatGPT, mas também considerando especificamente a língua Portuguesa (e línguas indígenas) que são “menos bem tratadas” se comparado ao Inglês. Isso envolve reconhecimento de voz, análise de textos, tradução etc, que precisam de recursos específicos (e dados para um melhor aprendizado) focados em linguagens. Temos um projeto sobre línguas indígenas tratadas por IA em desenvolvimento no Centro C4AI. Também temos pesquisas sobre representação e estruturação de conhecimentos, com GNN (Graph Neural Network), ontologias, mecanismos avançados de aprendizado-representação-uso de conhecimentos, extração e explicitação de conhecimentos.
TAGS
E fique por dentro das novidades