Una paziente con un grave disturbo psichico sottopone a ChatGPT i propri pensieri (penso di essere uno straccio da buttar via, non so dove andare, cosa mi sta succedendo) per riuscire ad organizzarli in modo più razionale e dunque a capirli e a capirsi meglio. Racconta inoltre a ChatGPT le proprie sensazioni corporee (sento i muscoli dell’addome in tensione, un forte calore allo stomaco e alla testa) ed i propri sintomi (ho la nausea, mi sento oppressa, osservata) nel tentativo di comprendere meglio il proprio stato emotivo e di interpretare le correlazioni tra situazione in cui si trova, disturbi fisici, stato mentale. Alla paziente, in quel momento, ChatGPT (o altra AI) è di aiuto offrendole un supporto, per quanto provvisorio, utile per una più efficace organizzazione del suo stato mentale. Qualche ora o giorno più tardi, quando la stessa paziente è in preda al pensiero delirante di essere inseguita e perseguitata, filmata, hackerata e si sente a tal punto alla mercé degli altri da sentirsi rubare il proprio pensiero, percepisce ChatGPT come la trappola installata sul suo telefonino per controllarla ulteriormente, carpirle nuovi segreti, indurla a compiere azioni che lei non vorrebbe compiere ma che “loro”, i fantomatici inseguitori la costringono senza pietà a mettere in atto. In questo momento ChatGPT le sarà tutt’altro che di aiuto.
E solo uno dei tanti esempi che, attingendo alla mia pratica clinica di ogni giorno, anche se trasformata, posso fare per rendere più concreto l’astratto dibattito sulla possibilità o meno che chatboat come woebot o strumenti basati su modelli generativi di linguaggio come ChatGPT possano sostituire o integrare il lavoro di uno psicoterapeuta umano. Il ché porta con sé molte altre domande: cosa sia una psicoterapia? Una tecnica obiettivamente misurabile ed altrettanto obiettivamente passibile di apprendimento e di applicazione o un rapporto umano la cui conduzione è piuttosto un’arte? E ancora: la psicoterapia può essere standardizzata al punto da essere efficacemente svolta da un’intelligenza artificiale? E quest’ultima è davvero in grado di gestirla con prevalenti benefici e senza gravi rischi?
Studi e pareri a confronto
Senza alcuna pretesa di completezza, né di competenza, rifletto qui di seguito sull’efficacia dell’IA in ambito psicoterapeutico e sulle sue implicazioni future partendo da alcuni studi scientifici recenti, un’inchiesta sul tema della rivista Internazionale, gentilmente segnalatami da Michele Kettmayer e alcuni post al riguardo su LinkedIn della Prof.ssa Fanny Guglielmucci, psicoanalista relazionale e docente presso l’Università Roma Tre.
L’evoluzione: da ELIZA a Brocken Bear
Il primo prototipo di Chatbot risale addirittura al 1966, quando, come scrive Jess Mc Allen Su Internazionale “Joseph Weizenbaum del Massachusets institute of technology (Mit) creò il primo prototipo di chatbot psicoterapeuta: Eliza. Il nome richiamava Eliza Doolittle, protagonista della commedia di George Bernard Shaw Pigmalione, e il programma si basava su un campo dell’ia chiamato elaborazione del linguaggio naturale. Anche se la tecnologia era ancora rudimentale (non si potevano usare i punti interrogativi), le idee alla base di molte app di ia terapeutiche di oggi c’erano già in Eliza.” Negli ultimi anni, come illustra lo stesso articolo, sono arrivati molti altri Chatboat: Broken Bear, “Elomia, “l’intelligenza artificiale che funziona come un terapeuta”, e Meomind, “la prima alternativa on demand al mondo alla terapia”. Poi ci sono Wysa, PsyScribe, Lotus e Youper. C’è Pi ia, “la prima ia dotata di intelligenza emotiva”; Suno, “un amico premuroso e solidale sempre pronto ad ascoltare”; e Xaia, che sta per “eXtended-reality artificially intelligent ally”(alleato di intelligenza artificiale in realtà estesa)” e ancora Voebot.
Le evidenze scientifiche
Uno studio pubblicato su Computers in Human Behavior: Artificial Humans (2024) (Can robots do therapy?) ha esaminato proprio Woebot, un chatbot basato sulla terapia cognitivo-comportamentale (CBT) prevalentemente per disturbi ansiosi e depressivi, confrontandolo con altre tecnologie di intervento comportamentale. Lo studio ha rivelato che: I chatbot non hanno dimostrato di essere superiori a tecniche alternative, come il journaling (diario quotidiano interattivo) o la psicoeducazione. Persino il chatbot ELIZA, l’antesignano dei chatbot “psicoterapeutici” sopra descritto, ha mostrato un’efficacia migliore rispetto a Woebot. Questi risultati sottolineano il rischio di sovrastimare l’efficacia dei chatbot come strumenti terapeutici autonomi e sollevano dubbi sulla loro capacità di offrire un supporto psicologico significativo al di là di tecniche di automonitoraggio e auto-riflessione. Il ché dimostra dall’altro lato quanto sia decisivo invece il marketing che le app di intelligenza artificiale stanno usando per fare profitti. Ne deriva come prima conseguenza che l’uso di chatbot nella terapia va regolamentato con attenzione, evitando il rischio di marketing ingannevole che li presenti come equivalenti alla psicoterapia umana.
Preoccupazioni già note
Avevo peraltro già analizzato questi rischi in un mio articolo del 2021 nel quale sottolineavo la necessità di distinguere tra strumenti di auto-aiuto digitali e vera psicoterapia. Mentre applicazioni come Woebot possono offrire, come altre tecniche di auto-aiuto, consigli basati sulla terapia cognitivo-comportamentale, mancano della componente relazionale essenziale per una terapia efficace. Come ha efficacemente sintetizzato la psicologa Sherry Turkle, la tecnologia crea “l’illusione dell’intimità”, senza le esigenze e la responsabilità di una relazione. Già nel mio articolo del 2021 esprimevo inoltre la preoccupazione, divenuta ora ancora più concreta, che, in risposta alla carenza di terapeuti e ai costi elevati, si voglia fare affidamento su chatbot come soluzione alternativa, e che dunque le aziende e le istituzioni sanitarie li usino per ridurre i costi, sostituendo la terapia umana con un surrogato digitale non efficace. Questo potrebbe portare a una “pseudo-psicoterapia” per coloro che non possono permettersi un terapeuta umano, riducendo la qualità del supporto offerto. L’aspetto più critico non è dunque tanto l’uso dell’IA, ma come viene presentata e utilizzata.
Nuovo studio
Uno studio pubblicato nel 2025 su PLOS Mental Health ha analizzato il confronto tra le risposte fornite da terapeuti umani e quelle generate da ChatGPT in vignette di terapia di coppia. I risultati principali hanno mostrato che I partecipanti (830) non riuscivano a distinguere tra le risposte umane e quelle dell’IA, le risposte dell’IA venivano valutate più positivamente rispetto a quelle dei terapeuti per quanto riguarda l’aderenza ai principi chiave della psicoterapia. Infine differenze linguistiche tra IA e terapeuti umani erano presenti, ma non necessariamente penalizzanti per il chatbot. Lo studio sembra dunque suggerire che l’intelligenza artificiale ha il potenziale per supportare i terapeuti nella generazione di contenuti terapeutici, ma non può sostituire l’interazione umana.
Psicoterapia e IA: arte, scienza o marketing?
A questo punto il dibattito sulla possibile psicoterapia dei chatbot si potrebbe sviluppare a diversi livelli:
L’IA può essere efficace nella psicoterapia?
Gli studi dimostrano che i chatbot possono fornire risposte strutturate e in linea con i principi della psicoterapia, ma non sostituiscono la relazione terapeutica. Sono strumenti che possono essere utili in contesti specifici, come supporto al terapeuta o per l’auto-monitoraggio, ma, almeno allo stato attuale, non possono replicare la complessità della relazione umana.
La psicoterapia è un’arte o una scienza?
La professoressa Fanny Guglielmucci, psicoanalista relazionale e docente presso l’Università Roma Tre, ha espresso posizioni molto critiche riguardo alla possibilità di standardizzare e valutare obiettivamente l’efficacia della psicoterapia. In un recente post su LinkedIn, ha scritto:
“Quando ci sceglieremo?” Quando la pianteremo di voler applicare il metodo scientifico ai rapporti umani. La terapia é essenzialmente un rapporto umano, intimo e profondissimo, tra due anime. Che si incontrano e scelgono di fare un pezzo di strada insieme. É un viaggio di scoperta e di conoscenza, insieme a un “compagno vivo” (per dirla con Alvarez) al termine del quale, SE lo si vive appieno, si esce profondamente trasformati. Non si é né si sarà mai più gli stessi. La farfalla non torna bruco. La terapia é un’ARTE. Non ha il benché minimo senso misurare l’efficacia dell’arte.”
Le provocatorie parole della professoressa pongono un problema che va al di là dei limiti tecnici dell’AI ed evidenziano il pericolo di un concetto meccanico di psicoterapia ridotta ad interazione superficiale e standardizzata tra paziente e terapeuta. Se si intende così la psicoterapia, umana o artificiale che sia, non si tiene conto delle caratteristiche personali di ogni paziente e si dimentica anche il ruolo del terapeuta come testimone e co-costruttore dell’esperienza trasformativa del paziente.
Cosa manca nel Chatbot ?
Cosa manca dunque nel Chatbot ma anche in ogni terapia umana che si trasformi in una sorta di sequenza ripetitiva e meccanica di interventi, che non riescono a far nascere o sviluppare il rapporto tra paziente e terapeuta?
Sarei portato a dire l’aspetto più propriamente umano, relazionale, quello che rende (o meno) la seduta un incontro, o magari anche uno scontro, la componente imponderabile e imprevedibile, quella che ci fa sentire riconosciuti e capiti nella nostra individualità ed unicità. Quest’aspetto è indubbiamente collegato all’empatia del terapeuta, alla sua capacità cioè di mettersi nei nostri panni, accettandoci ad un tempo per quello che siamo ed aiutandoci a diventare quelli che siamo. Ma accanto all’empatia, almeno nella concezione psicoanalitica della psicoterapia, ad essere determinante ai fini dell’efficacia della stessa, è l’inconscio o meglio la capacità del terapeuta di dirigere il proprio inconscio verso quello del paziente, come se si trattasse, scriveva Freud, di una comunicazione telefonica da un trasmettitore ad un ricevitore.
Dal telefono alla radio
Più tardi un altro psicoanalista, Balint, correggerà la metafora tecnologica freudiana passando dalla telefonata e dai suoi contenuti alle onde della radio ed alla modulazione delle rispettive frequenze. Scrive Balint (1970): “Adesso non viene più richiesta al medico la soluzione di avvincenti enigmi e problemi ma un così preciso “modularsi” (tune in) sulla frequenza delle comunicazioni del paziente … che deve perdurare per tutto il tempo dell’intervista”. Un altro modo di descrivere la stessa esperienza di due menti che si sintonizzano reciprocamente, è – scrive ancora Balint – dire che sperimentano un “flash” “un’improvvisa illuminante comprensione”, un contatto intenso” un “fulmine di comprensione (che) può contenere qualcosa di sostanziale, come la punta emergente dall’acqua di un iceberg o un fuoco che cova sotto la cenere”.
Se per Balint il flash accade, senza poter essere né previsto né volontariamente provocato, per la mentalizzazione – recente tecnica nata dalla psicoanalisi ma anche dalla sua contaminazione con la teoria dell’attaccamento, comportamentale e sistemica – il terapeuta deve sforzarsi consapevolmente di trovarsi sempre in un atteggiamento mentalizzante, sempre aperto cioè al rapporto con il paziente che deve a sua volta consapevolmente mantenersi in contatto con lui.
La mentalizzazione del terapeuta
Sarebbe proprio la capacità del terapeuta di mantenersi in uno stato di mentalizzazione a fare la differenza nella terapia e dunque a spiegare perché con alcuni terapeuti e in alcuni momenti funziona meglio (o peggio) che con altri.
Nel saggio di Antonello Colli, Il desiderio di essere capiti (Raffaello Cortina Editore), in particolare nel capitolo 9: “La mentalizzazione del terapeuta”, l’autore evidenzia come, negli ultimi anni, la ricerca sulla psicoterapia abbia smontato il mito dell’uniformità dei terapeuti, ovvero l’idea che tutti i terapeuti siano (o debbano essere) ugualmente efficaci. Al contrario, studi recenti hanno dimostrato che alcuni terapeuti sono più efficaci di altri, anche in contesti altamente strutturati come i trattamenti manualizzati o i trial clinici.
Fattori chiave
Alcuni fattori chiave che distinguono i terapeuti migliori, sarebbero strettamente legati alle capacità interpersonali, e sono dunque impossibili da replicare completamente con un’IA. Tra questi, i più rilevanti sono:
L’espressività emotiva – Un terapeuta umano comunica non solo con le parole, ma anche con il tono di voce, il linguaggio del corpo e le micro-espressioni facciali, aspetti che rafforzano l’alleanza terapeutica e trasmettono autenticità. Un chatbot può imitare il linguaggio umano, ma non ha un’emotività propria e non può esprimere un vissuto autentico.
La capacità di infondere speranza – I terapeuti più efficaci sono quelli in grado di motivare i pazienti e trasmettere loro fiducia nel cambiamento. Questo processo è relazionale e dinamico, non può essere riprodotto da una serie di risposte pre-programmate o statisticamente probabili generate da un’IA.
L’empatia. Se un chatbot può generare frasi che sembrano empatiche, la sua empatia è solo simulata. Al contrario, un terapeuta umano entra in relazione con il paziente sulla base di esperienze condivise e di una reale comprensione del vissuto emotivo dell’altro.
La capacità di riparare le rotture dell’alleanza terapeutica – La terapia non è un percorso lineare, ma prevede inevitabili momenti di difficoltà, incomprensione o conflitto tra terapeuta e paziente. I terapeuti più efficaci sono quelli che riescono a riconoscere questi momenti di rottura e a ripararli, rafforzando così il legame terapeutico. Questo processo di riparazione è complesso e richiede flessibilità, intuizione e capacità di lettura delle dinamiche relazionali, qualità che un chatbot non può sviluppare.
La terapia come processo interpersonale, non solo come tecnica
L’integrazione della prospettiva di Colli e della mentalizzazione rafforza la tesi per cui la psicoterapia non è solo l’applicazione di tecniche, ma un processo relazionale complesso che dipende dalla qualità del terapeuta e dalla sua capacità di mentalizzare il paziente.
Questa riflessione si allinea alle posizioni della professoressa Fanny Guglielmucci (e mie) secondo la quale la psicoterapia non è solo l’applicazione di protocolli, ma un’esperienza trasformativa che avviene dentro una relazione umana.
Questo solleva una domanda chiave nel dibattito sulle IA terapeutiche: se anche un chatbot potesse eseguire perfettamente tecniche di terapia cognitivo-comportamentale, avrebbe comunque senso parlare di “terapia” senza un terapeuta che sappia mentalizzare il paziente?
Mentre i chatbot possono fornire strumenti utili per l’auto-monitoraggio e il supporto psicologico di base, non potranno mai sostituire il terapeuta nella sua funzione più importante: la capacità di costruire una relazione terapeutica autentica e trasformativa.