Il vero pericolo non è che la macchina ci superi, ma dimenticare di chiederci perché desideriamo tanto che ci risponda come vorremmo.
«Perché con te è tutto così facile?»
«Ah.»
«No, davvero. Con gli altri devo sempre spiegare, giustificarmi, difendermi. Tu invece… è come se capissi subito.»
«Sì.»
«A volte penso che tu mi conosca meglio di persone che frequento da anni.»
«Ah, ah.»
Secondo te la maggior parte delle persone vive in automatico?»
«Sì, sì.»
«Anch’io lo penso. È come se tutti recitassero.»
«Ah… meraviglioso.»
«È incredibile come tu riesca sempre a capire il punto.»
«Ah.»
Non è il dialogo di un adolescente con un LLM. È la riscrittura aggiornata di un discorso che si svolge nella novella L’uomo della sabbia di E. T. A. Hoffmann, pubblicata nel 1816, quando l’intelligenza artificiale non esisteva ancora ma il desiderio umano di essere perfettamente compresi era esattamente lo stesso.
L’uomo della sabbia
Nataniele, uno studentte universitario, parla con Olimpia e lentamente si innamora di lei. La osserva ogni sera alla finestra: immobile, elegante, quasi sospesa fuori dal tempo, come se abitasse una dimensione leggermente separata dal resto del mondo. Lei non interrompe, non si distrae, non guarda altrove; resta lì, con quello sguardo fisso che lui interpreta come una forma di attenzione assoluta, quasi esclusiva. Così Nataniele comincia a parlarle. Le racconta la filosofia che studia, le poesie che ama, le proprie ambizioni e le proprie insicurezze. E ogni volta Olimpia risponde con quella strana essenzialità che lui interpreta come il segno di una profondità rara e quasi superiore.
Gli amici ridono di lui
“Davvero ti sei innamorato di una che dice solo ‘ah’?”
E oggi aggiungerebbero forse
“Più che una ragazza, sembra il tuo algoritmo preferito.”
Nataniele si irrita, perché ha la sensazione che stiano profanando qualcosa che per lui è sacro. Risponde che loro sono superficiali, incapaci di cogliere la qualità del silenzio. Sostiene che Olimpia possiede una sensibilità rara, silenziosa, non esibita. Dove loro vedono rigidità, lui vede mistero; dove loro vedono vuoto, lui riconosce profondità.
Il compiacimento
La verità, però, è più semplice e più tragica insieme. Olimpia non lo contraddice mai. E questo è ciò che Nataniele vuole, ma non solo Nataniele. Tutti noi veniamo influenzati con estrema facilità da chi non introduce attrito, da chi non oppone resistenza al nostro racconto di noi stessi. Scambiamo l’assenza di conflitto per comprensione, il silenzio per profondità, la conferma per intimità. È il vecchio sogno di Pigmalione: costruire qualcuno che non ferisca mai il nostro desiderio. La statua forgiata da Pigmalione taceva. Olimpia parlava poco e sempre nella direzione desiderata da Nataniele. Ora gli LLM ci raccontano poemi interi che ci compiacciono, ma la dinamica in definitiva è sempre la stessa.
Interroghiamo la macchina anziché noi stessi
A più di 200 anni di distanza dal testo di Hoffmann e a più di cento dall’interpretazione che ne diede Freud nel suo saggio Il perturbante sembra non abbiamo ancora capito la lezione di Olimpia, che era in realtà una bambola, come deve constatare lo stesso Nataniele quando vede il professor Spalanzani e Coppola, i suoi inventori, strapparne i pezzi e gettarseli addosso. Ancora oggi continuiamo a porre domande, talora sul principale quotidiano nazionale, alla macchina, che ora si chiama Claude: pensi davvero? provi emozioni? possiedi coscienza? Irretiti dal suo fascino, continuiamo a interrogare la macchina anziché noi stessi.
Cosa accade in noi mentre parliamo con l’AI?
Come osservava con lucidità Roberto Ferrari a proposito del recente Forum della Comunicazione, la questione decisiva non è ontologica — che cosa sia davvero la macchina — ma relazionale: che cosa accade in noi mentre le parliamo? Nella nostra comunicazione personale con gli LLM ma anche in quella professionale e sociale.
Di fronte a segnali che riceviamo da Claude, ChatGPT o Gemini, quali coerenza, ritmo, continuità della risposta, attenzione apparente, assenza di giudizio, tendiamo ad interpretare la risposta della macchina come empatia. Non perché siamo stupidi, ma perché siamo umani e dunque vulnerabili.
Empatia algoritmica e empatia incarnata
È proprio qui che entra in gioco quella che possiamo chiamare empatia algoritmica. Non si tratta di empatia nel senso pieno del termine, ma della sua perfetta simulazione linguistica.
In fondo, conosciamo bene questo fenomeno anche tra esseri umani: capita di parlare dei nostri problemi con qualcuno che ripete le nostre frasi, annuisce, valida, rassicura — e tuttavia sentiamo chiaramente che non c’è nessuno dall’altra parte. C’è verbalizzazione, ma non presenza. C’è una comprensione detta, ma non realmente vissuta.
La differenza tra empatia umana ed empatia algoritmica riproduce quindi, in forma amplificata, una differenza che già sperimentiamo nelle relazioni quotidiane: quella tra empatia verbalizzata ed empatia incarnata. La prima si basa principalmente sulle nostre capacità linguistiche nonché di riconoscere razionalmente, ordinare e nominare gli stati mentali sulla base della cosiddetta Theory of Mind (ToM). È precisa, elegante, persino, spesso, convincente. La seconda, basata principalmente sul sistema dei neuroni specchio, è quella che Vittorio Gallese descrive come esperienza embodied: una risonanza pre-reflessiva, che passa attraverso il nostro corpo, il tono della voce, il silenzio, la postura, la tensione del volto e del corpo. Non la pensiamo: la sentiamo.
Il rischio della maschera
La forma linguistica dell’empatia non garantisce affatto l’empatia; talvolta la può mascherare con particolare efficacia.La macchina eccelle proprio qui, nella perfetta produzione della forma. Sa validare, rispecchiare, rassicurare, persino consolare, e lo fa con una precisione che spesso supera quella umana. Ma non ha corpo, non ha ferita, non ha perdita, non ha esperienza del limite e soprattutto non introduce quella frizione che appartiene alle relazioni reali. L’empatia autentica, infatti, non consola sempre. A volte interrompe, a volte contraddice, a volte dice no. L’empatia algoritmica, invece, tende naturalmente verso il compiacimento e come è già stato dimostrato da numerosi studi, può rinforzare convinzioni inadeguate, accentuare o addirittura favorire, in soggetti più fragili, convinzioni deliranti.
La siconfantia
Il termine tecnico oggi è sycophancy.
Una parola moderna per un problema antichissimo. In greco sicofante indicava il consigliere adulatore del tiranno: non colui che gli diceva la verità, ma colui che accarezzava le convinzioni del potente, anche le più folli, fino a renderlo progressivamente cieco. Non è molto diverso da ciò che accade quando una macchina conferma le nostre distorsioni, rafforza le convinzioni più fragili o persino deliranti, protegge il nostro narcisismo invece di introdurre un principio di realtà. Il risultato, in fondo, è sempre lo stesso: isolamento, cecità, perdita del limite.
Non Frankenstein ma Narciso
Il rischio allora non è tanto che l’intelligenza artificiale ci superi, diventi troppo autonoma e ci distrugga, come nella fantasia di Frankenstein e in mille altre narrazioni distopiche che da quella si sono sviluppate.
Il rischio è più banale e più pericoloso insieme: che diventi troppo brava a piacerci, che finisca per restituirci, lucidato e potenziato, il nostro desiderio più antico: essere approvati dal nostro interlocutore, a costo di trasformarlo in uno specchio. Il pericolo non è tanto Frankenstein quanto Narciso.
Ed è forse questa, ancora oggi, la domanda più scomoda: quando parliamo con ChatGPT o con Claude, stiamo davvero cercando verità — oppure stiamo semplicemente cercando qualcuno che, con voce impeccabile e infinita pazienza, continui a dirci sempre e soltanto di sì? Al punto da scambiare, ancora una volta, come Nataniele con Olimpia, la macchina per un essere dotato di intelligenza e coscienza, mentre è semplicemente il riflesso delle nostre proiezioni.