Sta prendendo piede un fenomeno silenzioso ma preoccupante: sempre più adolescenti affidano i propri disagi emotivi a chatbot basati sull’intelligenza artificiale, come ChatGPT. Secondo gli psicologi, questa tendenza non è solo diffusa, ma anche in crescita. Lo conferma David Lazzari, ex presidente dell’Ordine degli Psicologi, che osserva come molti giovani arrivino in terapia dopo aver tentato di “parlare” con l’IA: «Capita sempre più spesso. Anche minorenni. Prima si rivolgono all’IA, poi capiscono che non basta».
AI e terapia: due linguaggi che non si parlano
L’aspetto che preoccupa maggiormente gli esperti è l’illusione che una risposta algoritmica possa sostituire la relazione terapeutica. Per Lazzari, il pericolo sta nel confondere l’accessibilità della tecnologia con un vero supporto psicologico: «L’IA dà risposte rapide e accattivanti, ma la terapia è un’altra cosa. È relazione, sguardo, empatia. E ha tempi umani, non digitali».
Questa confusione rischia di rinforzare dinamiche di isolamento. L’adolescente non si confronta con un adulto reale, ma con un sistema che, per quanto avanzato, non può comprendere il contesto emotivo e relazionale di chi scrive.
I rischi nascosti: dipendenza, solitudine, falsa sicurezza
Un altro rischio segnalato è la dipendenza emotiva dalla tecnologia. L’IA può diventare una sorta di “lampada di Aladino” moderna: sempre disponibile, mai giudicante. Ma proprio questa apparente neutralità può diventare un limite. «Ci si abitua a un tipo di interazione in cui tutto ruota intorno al proprio bisogno immediato», spiega Lazzari, «e si perde la capacità di costruire relazioni vere, con tutte le loro complessità».
La risposta? Educazione digitale e ascolto umano
Il mondo psicologico si trova ad affrontare una nuova sfida: accompagnare i ragazzi nell’uso consapevole delle tecnologie. Non si tratta di demonizzare l’IA, ma di insegnare che non tutto può essere delegato agli algoritmi, soprattutto quando si parla di salute mentale.
Serve un patto educativo tra famiglie, scuole e professionisti per riconoscere i segnali di disagio e offrire spazi di ascolto reale. Perché, come ricorda Lazzari, «i tempi della mente e del cuore non seguono gli aggiornamenti dei software».
Foto di Edyflar Edy da Pixabay