Une expérience récente menée dans des classes de collège a démontré une leçon simple mais puissante : le battage médiatique actuel sur l’IA n’est pas nécessairement synonyme d’une véritable intelligence. Lorsque les étudiants ont interagi avec ELIZA, un chatbot des années 1960 conçu pour imiter un thérapeute en reflétant simplement les déclarations des utilisateurs sous forme de questions, leur frustration a été immédiate. Un étudiant a qualifié le robot de « gaslighting », tandis qu’un autre a carrément déclaré qu’il n’était d’aucune utilité.
Il ne s’agissait pas de rejeter catégoriquement l’IA. Au contraire, l’exercice, mené dans le cadre de l’enquête d’EdSurge Research sur la maîtrise de l’IA dans les écoles, a révélé un écart critique entre l’intelligence perçue et la fonctionnalité réelle. Le principal à retenir : comprendre comment le fonctionnement de l’IA est bien plus précieux que simplement l’utiliser.
La leçon : Déconstruire l’illusion
L’enseignant a intentionnellement choisi ELIZA, un programme volontairement rudimentaire, pour forcer les élèves à se confronter aux limites des premières IA. Les interminables invites « dites-m’en plus » et la déviation robotique du robot (« Nous parlions de vous, pas de moi ») ont rapidement révélé sa superficialité.
Cette frustration n’était pas le bug, mais la fonctionnalité. L’enseignant visait à cultiver ce que les scientifiques en apprentissage appellent la « lutte productive » – l’inconfort qui survient lorsque les élèves sont mis au défi de penser de manière critique. En créant leurs propres chatbots à l’aide de MIT App Inventor, les étudiants ont été obligés de se confronter aux mécanismes fondamentaux de l’IA. Ils ont découvert que sans données de formation approfondies, même un simple chatbot reste fondamentalement incapable de véritable compréhension.
L’objectif n’était pas de faire des étudiants de meilleurs codeurs, mais de leur apprendre à décomposer des systèmes complexes en parties gérables. Ce processus développe la tolérance à la frustration, une compétence cruciale pour aborder des tâches cognitives difficiles, et cultive la pensée informatique – la capacité de décomposer les problèmes en étapes logiques.
Pourquoi la pensée informatique est plus importante que le codage
Comme le soutient Jeannette Wing, de l’Université de Columbia, « les ordinateurs sont ennuyeux et ennuyeux ; les humains sont intelligents et imaginatifs ». L’accent devrait être mis sur le développement des compétences spécifiquement humaines que l’IA ne peut pas reproduire, comme la pensée critique, l’empathie et la résolution de problèmes. Le boom de l’IA renforce ce phénomène. Les compétences en codage peuvent devenir obsolètes, mais la capacité de raisonner sur les systèmes, d’interroger les résultats et de faire la distinction entre une maîtrise superficielle et une compréhension réelle restera essentielle.
L’expérience met en évidence une tendance inquiétante mais prévisible : les étudiants comprennent que les outils d’IA comme ChatGPT ont des défauts (« Cela peut parfois vous donner la mauvaise réponse »). Pourtant, ils continuent de s’appuyer sur eux parce qu’ils sont perçus comme utiles et efficaces. Comme l’a dit un élève : « Je veux juste que l’IA m’aide à terminer mes études. »
Vue d’ensemble : les compétences plutôt que les outils
La leçon n’a pas éliminé la dépendance des élèves à l’IA, mais elle a démystifié la technologie. Ils ont appris que les chatbots fonctionnent par prédiction, et non par une véritable intelligence, et que la confiance dans ces outils est souvent motivée par des signaux sociaux plutôt que par une compréhension.
Les enseignants doivent donner la priorité à l’enseignement de la pensée derrière l’IA, et pas seulement des outils eux-mêmes. Cette approche fournit aux étudiants un ensemble de compétences durables qui survivront à toute technologie spécifique. La capacité de poser de meilleures questions, d’évaluer les résultats de manière critique et de reconnaître les limites inhérentes à l’IA sera bien plus précieuse à long terme que la simple maîtrise des outils.
La leçon souligne l’importance de la discrétion des éducateurs. Dans un climat où les écoles subissent des pressions pour adopter ou rejeter l’IA, l’enseignement guidé et les considérations éthiques sont primordiaux. Comprendre le fonctionnement des chatbots est la première étape vers une utilisation responsable de l’IA – une compétence qui restera importante bien après que les outils actuels soient devenus obsolètes.

























