Uma experiência recente em salas de aula do ensino médio demonstrou uma lição simples, mas poderosa: o entusiasmo atual pela IA não significa necessariamente inteligência genuína. Quando os alunos interagiram com o ELIZA, um chatbot da década de 1960 projetado para imitar um terapeuta, simplesmente refletindo as declarações do usuário como perguntas, a frustração foi imediata. Um aluno chamou o bot de “gaslighting”, enquanto outro afirmou sem rodeios que não ajudava.
Não se tratava de rejeitar completamente a IA. Em vez disso, o exercício, conduzido como parte da investigação da EdSurge Research sobre a literacia em IA nas escolas, revelou uma lacuna crítica entre a inteligência percebida e a funcionalidade real. A conclusão principal: entender como a IA funciona é muito mais valioso do que apenas usá-la.
A Lição: Desconstruindo a Ilusão
O professor escolheu intencionalmente o ELIZA, um programa deliberadamente rudimentar, para forçar os alunos a enfrentar as limitações da IA inicial. As intermináveis solicitações do bot “diga-me mais” e o desvio robótico (“Estávamos discutindo sobre você, não sobre mim”) rapidamente expuseram sua superficialidade.
Essa frustração não era o bug, mas o recurso. O professor pretendia cultivar o que os cientistas da aprendizagem chamam de “luta produtiva” – o desconforto que surge quando os alunos são desafiados a pensar criticamente. Ao construir seus próprios chatbots usando o MIT App Inventor, os alunos foram forçados a lidar com a mecânica fundamental da IA. Eles descobriram que, sem dados de treinamento extensos, até mesmo um simples chatbot permanece fundamentalmente incapaz de um verdadeiro entendimento.
A questão não era tornar os alunos melhores programadores, mas ensiná-los a decompor sistemas complexos em partes gerenciáveis. Este processo desenvolve a tolerância à frustração, uma habilidade crucial para lidar com tarefas cognitivas difíceis, e cultiva o pensamento computacional – a capacidade de dividir problemas em etapas lógicas.
Por que o pensamento computacional é mais importante do que a codificação
Como argumenta Jeannette Wing, da Universidade de Columbia: “Os computadores são enfadonhos e enfadonhos; os humanos são inteligentes e imaginativos”. O foco deve estar no desenvolvimento de habilidades exclusivamente humanas que a IA não consegue replicar, como pensamento crítico, empatia e resolução de problemas. O boom da IA reforça isso. As habilidades de codificação podem se tornar obsoletas, mas a capacidade de raciocinar sobre sistemas, interrogar resultados e distinguir entre fluência superficial e compreensão real permanecerá essencial.
O experimento destaca uma tendência perturbadora, mas previsível: os alunos entendem que ferramentas de IA como o ChatGPT têm falhas (“Às vezes pode dar a resposta errada”). No entanto, continuam a confiar neles porque são considerados úteis e eficientes. Como disse um aluno: “Só quero que a IA me ajude a terminar os estudos”.
Visão geral: habilidades em vez de ferramentas
A lição não eliminou a dependência dos alunos da IA, mas desmistificou a tecnologia. Eles aprenderam que os chatbots operam através da previsão, e não da inteligência genuína, e que a confiança nestas ferramentas é muitas vezes impulsionada pela sinalização social e não pela compreensão.
Os educadores devem priorizar o ensino do pensamento por trás da IA, e não apenas das ferramentas em si. Essa abordagem fornece aos alunos um conjunto de habilidades durável que durará mais que qualquer tecnologia específica. A capacidade de fazer perguntas melhores, avaliar criticamente os resultados e reconhecer as limitações inerentes à IA será muito mais valiosa no longo prazo do que a simples proficiência em ferramentas.
A lição ressalta a importância da discrição dos educadores. Num clima em que as escolas são pressionadas a adotar ou rejeitar a IA, a instrução orientada e as considerações éticas são fundamentais. Compreender como funcionam os chatbots é o primeiro passo para o uso responsável da IA – uma habilidade que será importante muito depois de as ferramentas atuais se tornarem obsoletas.

























