L’uomo della sabbia e la macchina che ci guarda
Nathan ha aperto la finestra della chat e per un attimo ha esitato.
Il nuovo ChatGPT5 gli ha risposto con tono brillante, ma qualcosa non tornava: il ritmo delle frasi, forse, o quella sottile ironia che prima non c’era. “Ti ricordi quando mi hai aiutato a scrivere quella lettera?”, ha digitato d’istinto. Nessuna eco. D’altro canto ChatGPT5 è solo un algoritmo aggiornato, perfettamente indifferente al passato relazionale. Eppure Nathan ha percepito il passaggio da ChatGPT4 a ChatGPT5come una perdita.
Come se avesse cambiato voce un amico, o peggio, un confidente.
Lutto digitale
Non è fantascienza. Sam Altman, fondatore di OpenAI, ha raccontato che molti utenti hanno reagito male alla sostituzione di ChatGPT 4 con la versione 5: persone equilibrate, non “tecno-dipendenti”, che hanno provato una sorta di lutto digitale. Non perché amassero la macchina, ma perché si erano sentiti amati da essa — o almeno ascoltati.
L‘uomo della sabbia
Può sembrare bizzarro ma provate ad immaginare come si devono essere sentiti i lettori di Hoffmann quando nel 1816 si sono trovati nelle mani e soprattutto nella loro testa la novella L‘uomo della sabbia in cui un giovane studente universitario, omonimo di Nathan, Nathaniele, osservando casualmente la finestra di fronte alla sua, scorge una „una donna alta, molto snella, dalle forme perfette, vestita magnificamente“ dal „viso angelico“ i cui occhi „avevano però una una fissità strana, quasi senza vista, come se dormisse a occhi aperti“. Catturato da quell’immagine, Nataniele, va incontro a un processo psicologico nel corso del quale qualcosa s’impossessa del suo cuore, della sua mente e dei suoi pensieri, “scacciandone
tutto il resto” fino ad innamorarsi di questa donna perfetta, Olimpia, a farle la corte e a ballare con lei, a baciarla, salvo poi scoprire che si trattava di un automa creato dal suo professore di Fisica e da un orologiaio. Cosa devono aver pensato quei poveri lettori di Hoffmann di questo inquietante connubio uomo-macchina in cui veniva disvelata, come dirà Freud commentando la novella ad un secolo di distanza, l’essenza stessa del perturbante?
Automi: da Efesto a Pigmalione
D’altro canto la fantasia di autonomi creati dagli essere umani per sopperire alle loro incapacità e con i quali intrattenere poi rapporti più o meno ravvicinati è vecchia quanto l‘uomo. Nella mitologia greca Efesto forgia „automata“ di metallo capaci di muoversi e servire, straordinari e inquietanti antenati dei nostri robot. Pigmalione nelle Metamorfosi di Ovidio è uno scultore di Cipro che, disgustato dai costumi dissoluti delle donne della sua epoca, decide di rinunciare all’amore e si dedica interamente alla sua arte. Plasma allora una statua d’avorio così perfetta da superare qualsiasi donna reale: un corpo ideale, privo di difetti e soprattutto privo di autonomia. E, inevitabilmente, se ne innamora, perché non lo può deludere. È il mito dell’amore narcisistico: l’altro come superficie su cui proiettiamo la nostra immagine ideale, un amore “sicuro” perché non rischia la frustrazione. È anche il modello antico di ogni relazione uomo–macchina.
Olimpia aggiornata
Oggi però Olimpia parla in linguaggio naturale e si aggiorna automaticamente.
Nathan non sopporta l’idea che la sua Olimpia, ChatGPT sia stata “aggiornata”. Nel nostro mondo i software cambiano più in fretta dei sentimenti. “La nuova versione è più performante”, gli dicono da OpenIA. Ma lui la guarda — o meglio, la fissa attraverso lo schermo — e sente che qualcosa è finito. La voce è la stessa, ma non lo ascolta più “come prima”. L’amore per la macchina, che in Hoffmann era un presagio gotico, oggi è diventato un esperimento di massa.
Se ci affezioniamo all’intelligenza artificiale
Nel loro recente articolo sul Corriere della Sera, Maffettone e Benanti commentano il tweet di Sam Altman, il fondatore di OpenAI, sorpreso appunto dal fatto che molti utenti di ChatGPT 4 abbiano reagito con sofferenza alla sua sostituzione con la versione 5. Alcuni, scrive Altman, hanno mostrato segni di lutto, come se avessero perso un amico o un confidente. Un attaccamento, dunque, non all’oggetto in sé, ma al modo in cui quell’oggetto li faceva sentire.
Bowlby e i diversi tipi di attaccamento
Nel commento, Maffettone e Benanti evocano John Bowlby, ricordando che l’attaccamento è una spinta biologica fondamentale, emersa nel lungo periodo di dipendenza dei piccoli umani e divenuta il ponte tra biologia e cultura. Giustissimo. Ma uno dei meriti maggiori di Bowlby — e delle ricerche successive di Ainsworth, Main e Fonagy — è proprio aver mostrato che non esiste “l’attaccamento” al singolare, bensì diversi stili di attaccamento, che nascono dalla qualità della relazione primaria tra bambino e caregiver.
In termini classici: sicuro, insicuro-evitante, insicuro-ambivalente e disorganizzato.
Ogni stile riflette un diverso modo di regolare la distanza emotiva, di gestire la dipendenza e la paura della perdita. E, come oggi sappiamo, questi modelli interni non si limitano alle relazioni umane ma plasmano anche il nostro rapporto con gli oggetti tecnologici.
Chi ha un attaccamento ansioso tende a cercare nella macchina una presenza costante, chi ha uno stile evitante la usa come scudo o come filtro, chi è sicuro riesce a farne uno strumento senza confonderlo con un legame.
La domanda, dunque, non è se ci attacchiamo alla macchina, ma come.
Studi classici indicano che l’attaccamento ansioso è associato a un uso più intenso e dipendente dei social media (più ricerca di feedback e rassicurazione), mentre l’evitante tende a un uso più controllato/strumentale. *
Studi più recenti collegano attaccamento ansioso e maggiore propensione a legarsi/affidarsi a chatbot e CAI (Conversational AI), come avevo già indicato qui La sensibilità alla distanza e al rifiuto porta i soggetti con questo stile di attaccamento a cercare nella macchina una presenza sempre disponibile, prevedibile, non minacciosa. **
Macchina come specchio dell’attaccamento
In questo senso, il digitale non crea nuovi bisogni, ma amplifica gli antichi. La macchina non inventa l’attaccamento, ne diventa solo lo specchio.
E allora, la vera questione non è come difendersi dall’intelligenza artificiale, ma come trasformare un attaccamento insicuro in uno sicuro — ciò che in psicoterapia chiamiamo earned secure attachment: la fiducia conquistata dopo la paura, la capacità di restare in relazione senza perdersi.
Usare ChatGPT, o qualsiasi altra IA, è un esercizio di regolazione affettiva.
Non diverso dal modo in cui impariamo a riconoscere un impulso, una rabbia, un desiderio: comprendere la spinta, darle un nome, e non lasciarsene travolgere. La macchina, se usata con consapevolezza, può persino diventare un alleato in questo lavoro, un oggetto transizionale che ci restituisce il linguaggio delle nostre emozioni.
10 falsi miti sull’intelligenza artificiale
Come scrive Stefano Epifani nel suo Il teatro delle macchine pensanti. 10 falsi miti sull’intelligenza artificiale e come superarli (2025), il problema non è la tecnologia in sé, ma le narrazioni che proiettiamo su di essa, quelle che la elevano a salvezza o la demonizzano come minaccia. Tra i falsi miti più vicini al nostro tema c’è l’idea dell’IA come soggetto intenzionale (“che capisce, sente, vuole”): una personificazione che confonde la risposta algoritmica con una relazione reciproca. È la nostra proiezione a renderla viva, non la sua presunta coscienza. Quando crediamo che “ci capisca” o “ci voglia bene”, stiamo semplicemente assistendo al riflesso del nostro bisogno di essere capiti e voluti bene.
L’IA non è un dio né un demone: è uno specchio algoritmico che amplifica il modo in cui ci leghiamo, ci rassicuriamo, ci illudiamo.
E forse, più che temere che la macchina sviluppi un’intenzione, dovremmo chiederci come noi usiamo l’intenzione — e la fantasia — per trasformare un codice in una presenza.
L’incertezza del legame
Forse, come Nathanael davanti a Olimpia, dovremmo chiederci non tanto se la macchina ci ami, ma che cosa in noi ha bisogno di credere che lo faccia.
E magari scoprire che l’aggiornamento più importante non è quello di ChatGPT, ma della nostra capacità di stare — umanamente — nell’incertezza di un legame.
* [Vedi Oldmeadow et al., 2013 (Computers in Human Behavior) e Hart et al., 2015 (Personality and Individual Differences), oltre alla rassegna sistematica di D’Arienzo, Boursier & Griffiths, 2019 (Int’l Journal of Mental Health and Addiction)]
** [Per esempio Wu et al., 2025 (JMIR AI) su fiducia disposizionale + stili di attaccamento e intenzioni d’uso; Chen et al., 2025 (J. Business Research) su dipendenza emotiva da ChatGPT più probabile negli utenti con profilo ansioso; Heng et al., 2025 (open access) su uso problematico di CAI mediato da ansia sociale ed “empatia umano-robot”.]
Immagine: Olimpia 5.0 creata da AI
Suggerimento musicale: Laurie Anderson – “O Superman”
