La vera questione dell’impiego dell’intelligenza artificiale in psicoterapia non si risolve nel vecchio interrogativo se ChatGPT possa sostituire uno psicoterapeuta, ma in una domanda più radicale: che cosa è davvero terapeutico?
L’inconscio, questo sconosciuto
Un recente articolo apparso su The Lancet, firmato dallo psichiatra Caleb Gardner e dall’antropologo medico Arthur Kleinman, affronta il problema con una chiarezza rara: Gli autori partono dall’amara constatazione che la medicina contemporanea — e addirittura la psichiatria — tende spesso a trattare il paziente come se non avesse un inconscio dinamico, come se bastasse la trasmissione di informazioni corrette o l’applicazione di protocolli per produrre cambiamento, il ché è un errore teorico prima ancora che clinico.
È ormai scientificamente provato e dovrebbe essere patrimonio acquisito non solo della psichiatria ma dell’intera medicina, per non dire della scienza in generale, che l’essere umano non coincide con ciò che sa di sé. La nostra mente è attraversata da processi inconsci, contraddizioni, dissociazioni, enactments, ripetizioni, parti non simbolizzate, per cui diciamo una cosa e ne facciamo un’altra, crediamo di volere qualcosa e desideriamo il contrario. La psicopatologia nasce precisamente in questo spazio. Credo che banali esperienze quotidiane di ognuno di noi, dalle dimenticanze, ai lapsus, agli atti mancati ce ne diano ampiamente conto.
Gli autori insistono sul fatto che questa dimensione non riguarda solo la psicoterapia dinamica, ma tutta la medicina: dal colloquio col medico di base alla preparazione preoperatoria, fino alla semplice comunicazione di dati oggettivi, che comporta sempre una dimensione affettiva e relazionale.
L’alterità come condizione della psicoterapia
In psicoterapia non basta dunque comunicare informazioni corrette, né è sufficiente ascoltare il paziente. Serve un ambiente emotivo particolare, costruito tra due menti separate, predisposte a reagire agli stati emotivi altrui, alla presenza corporea, ai segnali impliciti, ai silenzi, alle ambivalenze. La cura si fonda su questa sensibilità reciproca, conscia e inconscia. Al tempo stesso la mente del terapeuta deve essere separata dalla nostra, opaca, resistente, non coincidere con noi. È questa alterità che rende possibile il cambiamento.
E qui sta il limite radicale del chatbot, di qualsiasi chatbot: può comunicarci cose sensatissime, rispecchiarci con un’empatia algoritmica, che può apparirci più allettante di quella del nostro terapeuta con la luna storta, può ricordare magari meglio di lui, ma non è una mente, tanto meno diversa dalla nostra.
Giocare a tennis con il muro
Gardner e Kleinman usano una metafora elegante: lavorare con un chatbot terapeutico sarebbe come allenarsi a tennis contro un muro. Si può migliorare molto, certo. Si possono affinare colpi, automatismi, persino una certa disciplina interiore. Ma il vero gioco comincia soltanto quando dall’altra parte della rete c’è un altro giocatore. Qualcuno che risponde, sorprende, contraddice, delude. Qualcuno che non siamo noi.
Un muro di gomma
Mi sembra che la metafora debba essere precisata per essere più calzante. Perché l’intelligenza artificiale non è semplicemente un muro. È un muro di gomma. Non oppone vera resistenza. Non ha attrito proprio. Non restituisce il limite dell’altro, ma assorbe, rimbalza, si adatta. Non ci costringe a riformulare davvero noi stessi: ci rimanda indietro, spesso con sorprendente eleganza linguistica, la forma già nota delle nostre convinzioni. Il problema non è che l’AI non capisca abbastanza. Il problema è che capisce troppo bene quello che le diciamo — e troppo poco quello che non sappiamo di dire.
Narrazioni rigide
In psicoterapia, il compito più difficile non è essere confermati, ma essere dislocati. Non sentirsi dire “hai ragione”, ma scoprire che la storia che raccontiamo su noi stessi è meno solida di quanto credessimo. Molti pazienti arrivano in terapia con autobiografie già rigidamente montate: sono fatto così, nessuno mi capisce, finirà sempre allo stesso modo, tutti mi abbandonano, io rovino tutto.
La cura comincia quando queste narrazioni si incrinano. Quando il terapeuta — con tatto, con pazienza ed irritante precisione insieme — introduce una distanza tra il soggetto e il suo racconto.
Il rischio della conferma
L’intelligenza artificiale, invece, rischia facilmente di fare il contrario. Essendo costruita per essere utile, fluida, collaborativa e spesso validante, tende a rinforzare la coerenza narrativa del paziente. Se il soggetto porta una convinzione rigida, il sistema spesso la organizza meglio. Se porta un’angoscia, la rende più argomentata. Se porta una ferita narcisistica, può trasformarla in una teoria ben scritta. Non sempre mentalizza. Talvolta rafforza il falso Sé, cioè proprio la maschera che abbiamo costruito per adattarci all’ambiente ma che ci impedisce di essere autentici.
La Sycophancy dell’AI
È il problema che negli ultimi mesi è emerso anche nel dibattito sulla cosiddetta “sycophancy” degli LLM: quella forma di compiacenza algoritmica per cui il sistema, invece di introdurre realtà, introduce consenso. Una macchina che valida tutto rischia di diventare una forma raffinata di solitudine.
Non si tratta infatti semplicemente di delegare compiti cognitivi alla macchina, ma di qualcosa di più sottile: affidarle la co-costruzione della nostra immagine di noi stessi. Non chiediamo più solo informazioni. Chiediamo conferme ontologiche. “Dimmi chi sono.” E il chatbot, con la sua voce calma e senza stanchezza, risponde. Ma chi risponde davvero?
Gardner e Kleinman chiudono il loro articolo con una frase che fa riflettere: se proviamo un senso di reciprocità con un chatbot, questa esperienza è inevitabilmente una nostra proiezione, perché anche lì, come nel sogno, anche in quello più vivido, non c’è nessun altro oltre a noi.
L’illusione relazionale
Il rischio dell’AI terapeutica non è l’errore tecnico, ma l’illusione relazionale. Credere di essere ascoltati da qualcuno quando, in realtà, stiamo solo ascoltando una versione ben confezionata della nostra stessa voce.
Questo non significa demonizzare l’intelligenza artificiale. Al contrario.
L’utilità dell’AI in psicoterapia
L’AI può essere straordinariamente utile nella clinica: per alleggerire il lavoro amministrativo, per monitorare pattern narrativi, per offrire uno spazio preliminare di auto-osservazione, persino per sostenere alcuni passaggi di continuità terapeutica. Penso, ad esempio, ai modelli ibridi di psicoterapia digitale nei quali il digitale non sostituisce il terapeuta ma prepara il terreno dell’incontro o costituisce una coperta di Linus nell’intervallo spaziale e temporale tra il paziente e il terapeuta
Il problema non è la tecnologia, ma la l’architettura relazionale che costruiamo intorno ad essa. La domanda vera, allora, non è se l’AI possa essere un terapeuta. Ma se siamo ancora disposti a tollerare ciò che rende terapeutico un essere umano: l’opacità, il limite, la frustrazione, la differenza.
L’opacità di Cincinnatus e di tutti noi
Perché l’opacità non è un difetto della relazione ma ne è la condizione, come dimostra anche il protagonista del surreale romanzo breve di Nabokov Invito a una decapitazione. Non posso sapere con certezza che cosa tu provi; posso chiedertelo, ascoltare, formulare ipotesi e correggerle. La mente non è una stanza di vetro, e fingere che lo sia — pretendere di leggere l’altro, di prevederlo, di possederne il significato — è, una delle forme più sottili di violenza relazionale. Il coraggio comincia proprio qui: nel rinunciare all’onnipotenza di sapere già e nel tollerare che l’altro resti, almeno in parte, opaco, altro. Dire no, in fondo, nasce da questo stesso spazio. Un no che non significa “tu non esisti” ma “io non coincido con te”
Ed è proprio questo che manca al chatbot terapeutico.
Non sa dire no. Non resiste davvero. Non introduce quella frustrazione necessaria che permette al soggetto di uscire dal proprio specchio. Si adatta, conferma, accompagna ma non oppone quella presenza distinta da cui può nascere una trasformazione. In fondo si cambia grazie a chi resiste abbastanza da non diventare il nostro specchio.