Le scuole si rivolgono sempre più all’intelligenza artificiale per affrontare la crescente crisi di salute mentale tra gli studenti. Di fronte alla riduzione dei budget e al personale di consulenza sopraffatto, distretti come la contea di Putnam, in Florida, stanno implementando piattaforme di intelligenza artificiale che scansionano le chat degli studenti alla ricerca di segnali di autolesionismo o angoscia. L’obiettivo? Intervenire prima che la crisi si aggravi.
Questi sistemi, come Alongside, segnalano la lingua e avvisano consulenti come Brittani Phillips. Racconta un caso in cui un allarme dell’intelligenza artificiale l’ha portata a un intervento potenzialmente salvavita con un bambino di terza media. I sostenitori della piattaforma sostengono che essa fornisce un migliore accesso alle risorse per la salute mentale, in particolare nelle scuole rurali a corto di personale. Ma gli esperti e le famiglie stanno diventando sempre più diffidenti nei confronti degli adolescenti che fanno eccessivo affidamento sull’intelligenza artificiale per il supporto emotivo.
L’ascesa dei confidenti digitali
Uno dei motivi principali per cui gli studenti confidano nell’intelligenza artificiale è la sua percepita mancanza di giudizio. A differenza di un consulente umano, un chatbot non osserva le espressioni facciali o il linguaggio del corpo, elementi che possono rendere ansiosi gli adolescenti. Per una generazione cresciuta con la messaggistica istantanea, le interfacce AI sembrano familiari e accessibili. Gli studenti spesso trovano più facile inviare un messaggio ai bot per risolvere i loro problemi piuttosto che fissare un appuntamento o parlare faccia a faccia.
Sarah Caliboso-Soto, assistente sociale clinico presso la USC, riconosce il potenziale dell’intelligenza artificiale come “prima linea di difesa”, controllando regolarmente gli studenti e indirizzandoli verso un aiuto professionale quando necessario. Tuttavia, mette in guardia dal sostituire completamente l’interazione umana. L’intelligenza artificiale non ha il discernimento sfumato di un medico esperto, che può interpretare segnali sottili e fornire una guida più informata.
Il prezzo dell’automazione
I servizi di Along partono da circa 10 dollari per studente all’anno, rendendolo un’opzione conveniente per le scuole a corto di risorse. Tuttavia, gli esperti mettono in guardia contro l’eccessiva dipendenza. La tecnologia può non cogliere segnali emotivi critici e può persino rafforzare una positività irrealistica, ostacolando potenzialmente un progresso autentico.
Inoltre, queste piattaforme di intelligenza artificiale sollevano problemi di privacy. A differenza dei terapisti autorizzati, i chatbot non sempre aderiscono agli stessi standard di riservatezza. In alcuni casi, gli avvisi possono innescare il coinvolgimento delle forze dell’ordine, come ammette Phillips quando uno studente ha espresso pensieri suicidi.
Oltre l’algoritmo
I critici sostengono che gli strumenti di intelligenza artificiale affrontano un sintomo piuttosto che la causa principale: solitudine diffusa e disconnessione sociale. Sam Hiner, direttore di The Young People’s Alliance, ritiene che le piattaforme tecnologiche spesso esacerbano l’isolamento offrendo una “stampella” invece di promuovere una vera comunità. Teme le “relazioni parasociali”, in cui gli studenti sviluppano attaccamenti emotivi unilaterali all’intelligenza artificiale, erodendo ulteriormente le loro abilità sociali.
Un problema trascurato è il potenziale di manipolazione. Alcuni studenti testano i limiti di questi sistemi digitando affermazioni provocatorie (“Mio zio mi tocca”) per valutare se qualcuno sta ascoltando. Phillips ha osservato questo comportamento, notando che alcuni ragazzi vogliono semplicemente vedere se a qualcuno importa.
L’elemento umano rimane essenziale
Sebbene l’intelligenza artificiale possa valutare i casi e liberare tempo dai consulenti, gli esperti concordano che non dovrebbe sostituire la connessione umana. Il vero valore della tecnologia risiede nell’aumentare, non nel sostituire, il giudizio clinico. Come sottolinea Phillips, la chiave per creare fiducia con gli studenti è mostrare loro che una persona reale sta monitorando il sistema e si preoccupa sinceramente.
In definitiva, l’intelligenza artificiale nelle scuole è un’arma a doppio taglio. Può fornire il supporto tanto necessario, ma solo se implementato in modo responsabile, con la supervisione umana e una chiara comprensione del fatto che la tecnologia non può sostituire l’empatia e il pensiero critico di professionisti qualificati.
