As escolas estão recorrendo cada vez mais à inteligência artificial para enfrentar uma crise crescente de saúde mental entre os estudantes. Confrontados com orçamentos reduzidos e pessoal de aconselhamento sobrecarregado, distritos como o condado de Putnam, na Florida, estão a implementar plataformas de IA que analisam as conversas dos alunos em busca de sinais de alerta de automutilação ou sofrimento. O objetivo? Intervir antes que as crises aumentem.
Esses sistemas, como o Alongside, sinalizam sobre o idioma e alertam conselheiros como Brittani Phillips. Ela relata um caso em que um alerta de IA a levou a uma intervenção que poderia salvar vidas com um aluno da oitava série. Os proponentes da plataforma argumentam que ela proporciona um melhor acesso aos recursos de saúde mental, especialmente em escolas rurais com falta de pessoal. Mas os especialistas e as famílias estão cada vez mais cautelosos com o facto de os adolescentes confiarem excessivamente na IA para apoio emocional.
A ascensão dos confidentes digitais
Uma das principais razões pelas quais os estudantes confiam na IA é a sua aparente falta de julgamento. Ao contrário de um conselheiro humano, um chatbot não observa expressões faciais ou linguagem corporal – elementos que podem deixar os adolescentes ansiosos. Para uma geração criada com mensagens instantâneas, as interfaces de IA parecem familiares e acessíveis. Os alunos muitas vezes acham mais fácil enviar mensagens de texto com seus problemas para um bot do que agendar uma consulta ou falar cara a cara.
Sarah Caliboso-Soto, assistente social clínica da USC, reconhece o potencial da IA como uma “primeira linha de defesa”, verificando regularmente os alunos e encaminhando-os para ajuda profissional quando necessário. No entanto, ela alerta contra a substituição total da interação humana. A IA carece do discernimento matizado de um médico treinado, que pode interpretar pistas sutis e fornecer orientações mais informadas.
O preço da automação
Os serviços do Alongside começam em cerca de US$ 10 por aluno anualmente, tornando-o uma opção acessível para escolas com poucos recursos. No entanto, os especialistas alertam contra a dependência excessiva. A tecnologia pode ignorar sinais emocionais críticos e pode até reforçar uma positividade irrealista, dificultando potencialmente o progresso genuíno.
Além disso, estas plataformas de IA levantam questões de privacidade. Ao contrário dos terapeutas licenciados, os chatbots nem sempre seguem os mesmos padrões de confidencialidade. Em alguns casos, os alertas podem desencadear o envolvimento das autoridades, como Phillips admite ter feito quando um estudante expressou pensamentos suicidas.
Além do Algoritmo
Os críticos argumentam que as ferramentas de IA abordam um sintoma e não a causa raiz: a solidão generalizada e a desconexão social. Sam Hiner, diretor da Aliança dos Jovens, acredita que as plataformas tecnológicas muitas vezes exacerbam o isolamento ao oferecerem uma “muleta” em vez de promoverem uma verdadeira comunidade. Ele teme as “relações parassociais”, em que os alunos desenvolvem ligações emocionais unilaterais com a IA, desgastando ainda mais as suas competências sociais.
Uma questão negligenciada é o potencial de manipulação. Alguns estudantes testam os limites desses sistemas digitando frases provocativas (“Meu tio me toca”) para avaliar se alguém está ouvindo. Phillips observou esse comportamento, observando que alguns meninos simplesmente querem ver se alguém se importa.
O elemento humano permanece essencial
Embora a IA possa fazer a triagem de casos e liberar tempo dos conselheiros, os especialistas concordam que ela não deve substituir a conexão humana. O verdadeiro valor da tecnologia reside em aumentar, e não em substituir, o julgamento clínico. Como aponta Phillips, a chave para construir a confiança dos alunos é mostrar-lhes que uma pessoa real está monitorando o sistema e se preocupa genuinamente.
Em última análise, a IA nas escolas é uma faca de dois gumes. Pode fornecer o apoio tão necessário, mas apenas se for implementado de forma responsável, com supervisão humana e uma compreensão clara de que a tecnologia não pode substituir a empatia e o pensamento crítico de profissionais qualificados.

























