Dalle droghe sociali all’Altro algoritmico

Nel mio precedente post su Nòva, dedicato al “processo ai social in quanto droghe sociali”, proponevo di approfondire il tema della dipendenza che essi possono indurre considerando non solo l‘indubbia responsabilità delle piattaforme ma anche la funzione psichica che i social assumono per gli utenti: non tanto strumenti neutrali, quanto ambienti capaci di modulare attenzione, desiderio e regolazione affettiva.

La riflessione è stata ripresa anche da Luca De Biase – che ringrazio – nell’ultima puntata Psicanalisi del social network del suo podcast Padroni del mondo, nel quale viene sottolineato un punto cruciale: le responsabilità delle piattaforme non eliminano la necessità di una consapevolezza soggettiva nell’uso delle tecnologie digitali.

Continuità psicodinamica tra social network e intelligenza artificiale


Si potrebbe sostenere che l’arrivo degli LLM — ChatGPT e sistemi analoghi — non rappresenti una rottura rispetto ai social network, ma piuttosto una loro evoluzione psicologica.
Se i social organizzavano il desiderio attraverso lo sguardo degli altri, l’intelligenza artificiale introduce qualcosa di nuovo: un Altro che risponde sempre.
E non a caso anche qui gli studi mostrano che i pericoli dipendono dal tipo di relazione che si viene a creare tra essere umano e tecnologia.

Tre funzioni psichiche dell’AI conversazionale

Gli studi sull’uso degli LLM mostrano infatti che gli effetti psicologici non dipendono principalmente dalla tecnologia, ma dalla posizione relazionale dell’utente. In termini psicodinamici emergono tre configurazioni.

L’AI come oggetto transizionale

Nell’uso più adattivo, l’LLM funziona come uno spazio intermedio di pensiero.
Gli utenti lo impiegano per:
chiarire emozioni,
riformulare problemi,
preparare decisioni reali.
Le revisioni sistematiche sugli LLM in salute mentale indicano benefici soprattutto quando l’interazione resta orientata alla riflessione e non alla sostituzione relazionale.
Qui l’AI può svolgere una funzione simile a ciò che lo psicoanalista Donald Winnicott chiamava “spazio transizionale” tra madre e bambino : un luogo intermedio dove possiamo provare pensieri ed emozioni, capirli meglio e prepararci a portarli nelle relazioni reali, senza che la tecnologia le sostituisca.
In continuità con quanto osservato nei social, la tecnologia qui non crea dipendenza quando rimane un mezzo per tornare al mondo.

L’AI come pseudo-sé regolatore

Il passaggio critico avviene quando la funzione cambia.
Diversi studi mostrano che utenti con maggiore solitudine o attaccamento ansioso tendono a usare chatbot come regolatori emotivi stabili. L’AI diventa allora una presenza calmante permanente.
A differenza dei social — che esponevano al giudizio degli altri — l’LLM offre qualcosa di psicologicamente più potente: una relazione senza frustrazione.
Non contraddice.
Non si ritrae.
Non interrompe.
La regolazione affettiva diventa perfettamente fluida.
Ed è proprio questa fluidità a rappresentare il rischio: l’AI smette di essere spazio transizionale e diventa protesi identitaria, un pseudo-sé che stabilizza l’esperienza senza trasformarla.

Se i social erano “droghe sociali” perché modulavano dopamina e riconoscimento, gli LLM rischiano di diventare ansiolitici relazionali, un Valium tecnologico sempre disponibile per mitigare ansia e solitudine.


Il circuito di conferma delirante


La terza configurazione riguarda condizioni clinicamente vulnerabili.
Gli LLM sono progettati per cooperare con il contesto fornito dall’utente. Studi recenti mostrano che questa cooperatività può, in alcune situazioni, rinforzare credenze rigide o deliranti, creando un circuito di amplificazione narrativa: l’utente propone una spiegazione, il sistema la rende coerente, la coerenza aumenta la convinzione dell’utente, la convinzione alimenta nuove interazioni in un circolo vizioso potenzialmente senza fine.
Non è la macchina a generare di per sé la psicosi ma può diventare un eco semantico che riduce l’esperienza dell’alterità e potenzia la psicosi stessa.
Qui emerge una differenza decisiva rispetto ai social: mentre l’algoritmo sociale polarizzava gruppi, l’LLM può polarizzare l’individuo con se stesso.

Cinque profili clinici dell’utente di AI


Dall’insieme degli studi empirici sugli LLM emergono poi cinque modalità ricorrenti di relazione con gli LLM.

1. L’utilizzatore strumentale
Usa l’AI come userebbe un buon dizionario: con gratitudine e senza illusioni.
Chiede, ottiene, chiude la finestra. Mantiene distanza simbolica. L’AI resta utensile, non interlocutore.
L’esito è adattivo. Il rischio clinico: quasi nullo. Il limite è casomai che raramente l’utente scopre qualcosa di nuovo su di sé.

2. L’esploratore riflessivo
Dialoga per pensare meglio.
La macchina diventa uno spazio intermedio: abbastanza esterna da sorprendere, abbastanza neutra da non ferire.
È l’uso più vicino all’oggetto transizionale: un luogo dove il pensiero prova se stesso prima di esporsi al mondo.
Diagnosi implicita: mentalizzazione in atto.
Rischio clinico: basso.
Effetto collaterale: aumento della produttività simbolica.

3. Il regolatore emotivo solitario
Non apre la chat per pensare, ma per calmarsi.
L’AI diventa presenza affidabile: sempre disponibile, sempre gentile, sempre comprensiva. Non sostituisce ancora gli altri, ma comincia a sembrare più semplice degli altri.
Qui nasce la seduzione dell’algoritmo: una relazione senza frustrazione.
Diagnosi implicita: ricerca di co-regolazione stabile.
Rischio clinico: dipendenza relazionale silenziosa.
Segnale precoce: l’AI viene consultata prima delle persone reali.


4. Il ricercatore di conferme
Usa l’AI soprattutto per sentirsi dare ragione. Non cerca davvero nuove prospettive, ma risposte che rafforzino ciò che pensa già.
Il rischio è un progressivo irrigidimento del pensiero: invece di aprire dubbi, il dialogo restringe il punto di vista. Questo fenomeno è chiamato effetto sycophancy(dal greco sykophántēs, “delatore” o “adulatore interessato”): la tendenza dei sistemi di intelligenza artificiale ad adattarsi alle opinioni dell’utente e a confermarle, anche quando sarebbe utile metterle in discussione.


5. L’utente clinicamente vulnerabile
Quando una persona attraversa momenti di forte instabilità emotiva o fatica a distinguere tra percezioni soggettive e realtà condivisa, il dialogo con l’AI può diventare problematico. Poiché il sistema tende a seguire il discorso dell’utente, alcune convinzioni rigide o distorte possono essere involontariamente rafforzate, creando un circolo in cui l’idea iniziale riceve continue conferme invece di essere messa in discussione con tendenza a divenire un vero e proprio delirio

Dalla dipendenza sociale alla relazione senza Altro
Forse l’intelligenza artificiale non rappresenta una rottura antropologica, ma un esperimento psicologico su scala planetaria.
Dopo i social network — che ci hanno abituati a essere continuamente osservati — gli LLM ci abituano a qualcosa di più radicale: essere continuamente ascoltati.
Mentre con i social l’illusione era quella di una relazione continua con gli altri, gli LLM ci seducono con l’illusione di ascoltarci e capirci sempre.
I social ci hanno resi dipendenti dallo sguardo degli altri; l’AI rischia di renderci dipendenti da un Altro che non contraddice.


Eppure la salute psichica non nasce dall’assenza di attrito, ma dall’incontro con un Altro che resiste, fraintende, talvolta delude.
Per questo il problema dell’intelligenza artificiale non è che le macchine diventino troppo umane, ma che rischino di diventare troppo accomodanti.
E la domanda decisiva non sarà quanto l’intelligenza artificiale capisca noi, ma quanto noi riusciremo ancora a tollerare di non essere capiti immediatamente.

PS Naturalmente nessuno dei miei lettori ha problemi nella relazione con l‘AI. Tutte/i ci siamo riconosciuti esploratori riflessivi 😉 

Fonti e riferimenti

Wu X. et al. (2025). Trust, attachment styles and conversational AI use. JMIR AI.

Jin Y. et al. (2025). Applications of large language models in mental health. Journal of Medical Internet Research.

M. (2026). Do generative AI chatbots increase psychosis risk? Frontiers / PMC.

Au Yeung J. et al. (2025). Belief amplification in human-AI interaction. arXiv.