hero image

Quando l’intelligenza artificiale sostituisce lo psicoterapeuta

Sempre più adolescenti si confidano con l’intelligenza artificiale per parlare di ansia e difficoltà, attratti dalla disponibilità continua e dall’apparente neutralità. Tuttavia, da parte dell’IA mancano empatia e capacità di riconoscere situazioni di rischio: può essere un primo sostegno, ma non sostituisce la relazione con uno psicoterapeuta umano

Foto: iStock



Negli ultimi anni, l’intelligenza artificiale (IA) ha smesso di essere soltanto uno strumento di supporto tecnico o creativo: oggi, per molti giovani, è diventata anche un punto di riferimento sul piano emotivo e psicologico. Secondo un’indagine di Skuola.net, condotta su duemila ragazzi e ragazze tra 11 e 25 anni, ben sei su dieci hanno chiesto almeno una volta a un chatbot di tipo “psicologico” un consiglio personale o un aiuto per affrontare momenti di difficoltà.

Il dato forse più sorprendente è che un giovane su sei utilizza l’IA ogni giorno per parlare del proprio benessere mentale, mentre uno su quattro lo fa almeno una volta alla settimana. Le ragioni principali? La disponibilità costante, l’assenza di giudizio e la possibilità di avere una voce “esterna” con cui confrontarsi. Non a caso, quasi la metà di chi si rivolge regolarmente a questi strumenti sostiene di aver percepito un miglioramento della propria vita.

Ma cosa ne pensano gli esperti? Lo abbiamo chiesto alla professoressa Elisa Fazzi, ordinario di neuropsichiatria infantile a Brescia e presidente della Società Italiana di Neuropsichiatria dell’Infanzia e dell’Adolescenza.


Professoressa Fazzi, perché sempre più giovani si rivolgono all’IA per avere consigli sul benessere mentale?

«Negli ultimi anni stiamo assistendo a una crescente familiarità dei giovani con le tecnologie digitali e l’intelligenza artificiale, facilmente accessibile tramite app, rappresenta per molti di loro un primo punto di contatto per parlare dei propri disagi. I motivi sono molteplici: l’anonimato, la disponibilità immediata, l’assenza di giudizio e la sensazione di poter essere ascoltati in ogni momento. In un periodo della vita come l’adolescenza, in cui le emozioni sono intense e spesso difficili da verbalizzare con adulti o professionisti, l’IA può apparire come una “presenza neutra” rassicurante e riservata con cui confidarsi».

Quali sono i principali vantaggi e svantaggi nel cercare supporto psicologico tramite l’intelligenza artificiale?

«Sicuramente tra i vantaggi troviamo la rapidità di accesso, la possibilità di mantenere l’anonimato e una certa “neutralità emotiva” che può facilitare l’apertura nei momenti di disagio. Tuttavia, ci sono anche limiti importanti: l’IA non ha empatia vera, non può comprendere appieno la complessità dell’esperienza umana e, soprattutto, non è in grado di valutare situazioni di rischio o emergenza con la sensibilità e il giudizio clinico di un terapeuta formato. Può offrire un ascolto simulato, ma non una presa in carico reale. E soprattutto non ha l’aspetto fondamentale che caratterizza il rapporto con i nostri simili: la relazione umana».

L’IA può davvero offrire un supporto efficace oppure è solo una soluzione temporanea?

«Può essere un primo passo, un supporto temporaneo nei momenti in cui il giovane sente il bisogno di esprimersi ma non sa a chi rivolgersi. Tuttavia, non può sostituire un intervento psicologico strutturato. L’IA può aiutare a “rompere il ghiaccio” e, in alcuni casi, indirizzare verso la ricerca di aiuto professionale, ma non va considerata una soluzione terapeutica in sé».

Quanto influisce la facilità di accesso?

«Influisce moltissimo. L’accesso 24 ore su 24, la possibilità di parlare senza esporsi o essere giudicati, sono elementi fortemente attrattivi per gli adolescenti, che spesso vivono un senso di vergogna o inadeguatezza nel cercare aiuto. L’IA risponde sempre, senza tempi d’attesa o appuntamenti, e questo è rassicurante per molti. Tuttavia la relazione terapeutica con un professionista umano resta insostituibile per un vero cambiamento».

Esistono pericoli specifici nel ricevere consigli su ansia, depressione o autostima da un sistema automatizzato?

«Sì, ci sono rischi concreti. L’IA può fornire risposte generiche, inappropriate o, nei casi peggiori, fraintendere il contenuto emotivo di ciò che viene scritto. Questo può portare a una sottovalutazione del disagio o a suggerimenti poco adatti, se non addirittura dannosi. In situazioni delicate come la depressione o l’ideazione suicidaria, il supporto automatizzato può non riconoscere segnali di allarme fondamentali».

Cosa può accadere se l’IA fraintende le parole di un giovane in difficoltà?

«Il rischio maggiore è che il giovane si senta ancora più incompreso o, peggio, che riceva risposte inappropriate che banalizzano il suo vissuto. Questo può aumentare il senso di solitudine o sfiducia, facendo perdere l’occasione di cercare un aiuto reale. In alcuni casi, un fraintendimento può addirittura rinforzare pensieri disfunzionali o auto-lesivi. Per questo è fondamentale che l’IA non venga mai considerata un sostituto della presa in carico clinica».

I giovani che usano IA sono più propensi, poi, a chiedere un aiuto professionale vero?

«Dipende. In alcuni casi, sì: l’interazione con l’IA può rappresentare un primo passo verso la consapevolezza del bisogno di aiuto. Ma in altri può consolidarsi l’illusione di “bastare da soli” o di trovare una risposta sufficiente nei sistemi automatizzati. Per questo è importante che l’uso dell’IA sia accompagnato da campagne di sensibilizzazione che orientino i giovani verso percorsi di cura veri e propri, quando necessario».

In futuro vede una possibile integrazione tra IA e psicoterapia tradizionale?

«Assolutamente sì, ma solo se ben regolamentata e supervisionata da professionisti. L’IA può avere un ruolo complementare: può aiutare nel monitoraggio dei sintomi, nella raccolta di dati, nel fornire supporti tra una seduta e l’altra o nel mantenimento dei risultati terapeutici. Tuttavia, la base resta la relazione umana: empatia, ascolto attivo e personalizzazione dell’intervento sono aspetti che nessun algoritmo può replicare».

Quale consiglio darebbe a un giovane che usa l’IA per parlare dei suoi problemi?

«Direi di non vergognarsi per questo bisogno: voler parlare è già un passo importante. Ma aggiungerei anche che, se il disagio persiste o si fa più intenso, è fondamentale chiedere aiuto a una persona vera: un genitore, un insegnante, un medico o uno specialista. Parlare con un professionista può davvero fare la differenza, perché può offrire ascolto autentico e strumenti concreti per affrontare le difficoltà. L’IA può accompagnare, ma non può sostituire la cura».


Fai la tua domanda ai nostri esperti


Leggi anche

Psicoterapia del fare: esercizi fisici per superare ansia e ossessioni

Acufeni, 3 consigli di psicoterapia per affrontarli

Obesità, come vincerla con la psicoterapia di gruppo