Las escuelas recurren cada vez más a la inteligencia artificial para abordar una creciente crisis de salud mental entre los estudiantes. Ante presupuestos cada vez más reducidos y personal de asesoramiento abrumado, distritos como el condado de Putnam, Florida, están implementando plataformas de inteligencia artificial que escanean los chats de los estudiantes en busca de señales de advertencia de autolesión o angustia. ¿El objetivo? Intervenir antes de que las crisis se agraven.
Estos sistemas, como Alongside, alertan sobre el idioma y alertan a consejeros como Brittani Phillips. Ella relata un caso en el que una alerta de IA la llevó a una intervención que podría salvarle la vida a un niño de octavo grado. Los defensores de la plataforma argumentan que proporciona un mejor acceso a recursos de salud mental, particularmente en escuelas rurales con poco personal. Pero los expertos y las familias desconfían cada vez más de que los adolescentes dependan demasiado de la IA para obtener apoyo emocional.
El auge de los confidentes digitales
Una razón clave por la que los estudiantes confían en la IA es su aparente falta de juicio. A diferencia de un consejero humano, un chatbot no observa las expresiones faciales ni el lenguaje corporal, elementos que pueden provocar ansiedad en los adolescentes. Para una generación criada con mensajería instantánea, las interfaces de IA resultan familiares y accesibles. A los estudiantes a menudo les resulta más fácil enviar mensajes de texto con sus problemas a un bot que programar una cita o hablar cara a cara.
Sarah Caliboso-Soto, trabajadora social clínica de la USC, reconoce el potencial de la IA como “primera línea de defensa”, consultando periódicamente a los estudiantes y dirigiéndolos hacia ayuda profesional cuando sea necesario. Sin embargo, advierte contra la sustitución total de la interacción humana. La IA carece del discernimiento matizado de un médico capacitado, que puede interpretar señales sutiles y brindar una orientación más informada.
El precio de la automatización
Los servicios de Alongside comienzan en aproximadamente $10 por estudiante al año, lo que los convierte en una opción asequible para escuelas con pocos recursos. Sin embargo, los expertos advierten contra la dependencia excesiva. La tecnología puede pasar por alto señales emocionales críticas e incluso reforzar una positividad poco realista, lo que podría obstaculizar el progreso genuino.
Además, estas plataformas de IA plantean preocupaciones sobre la privacidad. A diferencia de los terapeutas autorizados, los chatbots no siempre cumplen con los mismos estándares de confidencialidad. En algunos casos, las alertas pueden desencadenar la participación de las autoridades, como Phillips admite haberlo hecho cuando un estudiante expresó pensamientos suicidas.
Más allá del algoritmo
Los críticos argumentan que las herramientas de IA abordan un síntoma más que la causa raíz: la soledad generalizada y la desconexión social. Sam Hiner, director de The Young People’s Alliance, cree que las plataformas tecnológicas a menudo exacerban el aislamiento al ofrecer una “muleta” en lugar de fomentar una comunidad real. Teme las “relaciones parasociales”, donde los estudiantes desarrollan vínculos emocionales unilaterales con la IA, erosionando aún más sus habilidades sociales.
Una cuestión que se pasa por alto es la posibilidad de manipulación. Algunos estudiantes prueban los límites de estos sistemas escribiendo declaraciones provocativas (“Mi tío me toca”) para evaluar si alguien está escuchando. Phillips ha observado este comportamiento y ha observado que algunos niños simplemente quieren ver si a alguien le importa.
El elemento humano sigue siendo esencial
Si bien la IA puede clasificar los casos y liberar tiempo a los consejeros, los expertos coinciden en que no debería reemplazar la conexión humana. El verdadero valor de la tecnología radica en aumentar, no sustituir, el juicio clínico. Como señala Phillips, la clave para generar confianza en los estudiantes es mostrarles que una persona real está monitoreando el sistema y realmente se preocupa.
En última instancia, la IA en las escuelas es un arma de doble filo. Puede brindar un apoyo muy necesario, pero solo si se implementa de manera responsable, con supervisión humana y una comprensión clara de que la tecnología no puede reemplazar la empatía y el pensamiento crítico de los profesionales capacitados.
