Les écoles se tournent de plus en plus vers l’intelligence artificielle pour faire face à une crise croissante de santé mentale chez les élèves. Confrontés à des budgets en baisse et à un personnel de conseil débordé, des districts comme le comté de Putnam, en Floride, déploient des plateformes d’IA qui analysent les discussions des étudiants à la recherche de signes avant-coureurs d’automutilation ou de détresse. Le but ? Intervenir avant que les crises ne dégénèrent.
Ces systèmes, tels que Alongside, signalent les problèmes de langue et alertent les conseillers comme Brittani Phillips. Elle raconte un cas où une alerte d’IA l’a conduite à une intervention potentiellement vitale auprès d’un élève de huitième année. Les partisans de la plateforme affirment qu’elle offre un meilleur accès aux ressources en santé mentale, en particulier dans les écoles rurales en sous-effectif. Mais les experts et les familles se méfient de plus en plus des adolescents qui comptent trop sur l’IA pour leur soutien émotionnel.
L’essor des confidents numériques
L’une des principales raisons pour lesquelles les étudiants se confient à l’IA est son manque de jugement. Contrairement à un conseiller humain, un chatbot n’observe pas les expressions faciales ou le langage corporel, éléments qui peuvent rendre les adolescents anxieux. Pour une génération élevée grâce à la messagerie instantanée, les interfaces d’IA semblent familières et accessibles. Les étudiants trouvent souvent plus facile d’envoyer leurs problèmes par SMS à un robot que de prendre rendez-vous ou de parler en face à face.
Sarah Caliboso-Soto, assistante sociale clinicienne à l’USC, reconnaît le potentiel de l’IA en tant que « première ligne de défense », vérifiant régulièrement les étudiants et les orientant vers une aide professionnelle en cas de besoin. Cependant, elle met en garde contre le remplacement complet de l’interaction humaine. L’IA n’a pas le discernement nuancé d’un clinicien qualifié, capable d’interpréter des signaux subtils et de fournir des conseils plus éclairés.
Le prix de l’automatisation
Les services d’Alongside commencent à environ 10 $ par élève et par an, ce qui en fait une option abordable pour les écoles à court de ressources. Pourtant, les experts mettent en garde contre une dépendance excessive. La technologie peut passer à côté de signaux émotionnels critiques et peut même renforcer une positivité irréaliste, entravant potentiellement de véritables progrès.
De plus, ces plateformes d’IA soulèvent des problèmes de confidentialité. Contrairement aux thérapeutes agréés, les chatbots n’adhèrent pas toujours aux mêmes normes de confidentialité. Dans certains cas, les alertes peuvent déclencher l’intervention des forces de l’ordre, comme Phillips l’admet lorsqu’un étudiant a exprimé des pensées suicidaires.
Au-delà de l’algorithme
Les critiques soutiennent que les outils d’IA s’attaquent à un symptôme plutôt qu’à la cause profonde : la solitude généralisée et la déconnexion sociale. Sam Hiner, directeur de The Young People’s Alliance, estime que les plateformes technologiques exacerbent souvent l’isolement en offrant une « béquille » au lieu de favoriser une véritable communauté. Il craint les « relations parasociales », dans lesquelles les étudiants développent des attachements émotionnels unilatéraux à l’IA, érodant ainsi davantage leurs compétences sociales.
Un problème négligé est le potentiel de manipulation. Certains étudiants testent les limites de ces systèmes en tapant des phrases provocatrices (« Mon oncle me touche ») pour évaluer si quelqu’un les écoute. Phillips a observé ce comportement, notant que certains garçons veulent simplement voir si quelqu’un s’en soucie.
L’élément humain reste essentiel
Même si l’IA peut trier les cas et libérer du temps pour les conseillers, les experts s’accordent à dire qu’elle ne devrait pas remplacer la connexion humaine. La véritable valeur de la technologie réside dans le fait d’augmenter, et non de remplacer, le jugement clinique. Comme le souligne Phillips, la clé pour instaurer la confiance avec les étudiants est de leur montrer qu’une vraie personne surveille le système et s’en soucie véritablement.
En fin de compte, l’IA dans les écoles est une arme à double tranchant. Elle peut fournir un soutien indispensable, mais seulement si elle est mise en œuvre de manière responsable, sous la surveillance humaine et en comprenant clairement que la technologie ne peut pas remplacer l’empathie et la pensée critique de professionnels formés.

























