È colpa dell’intelligenza artificiale!” – ovvero dello spostamento etico in epoca algoritmica

Lo spostamento morale: dal padre a Puškin

Si raccontava di un uomo che, alla morte del padre, non riuscisse a piangere. Solo molto tempo dopo, trovandosi davanti alla tomba del poeta Aleksandr Puškin, scoppiò in lacrime. Non era il poeta a commuoverlo, ma il lutto rimasto senza parola. Un lutto che cercava uno sfogo, un luogo simbolico dove potersi manifestare senza pericolo.

Oggi, qualcosa di simile accade nel discorso sull’intelligenza artificiale. Non riusciamo — o non vogliamo — affrontare fino in fondo la questione della nostra responsabilità morale nella creazione e nell’uso degli algoritmi. Così, le angosce che ci riguardano vengono proiettate sulla macchina: accusiamo l’IA di essere manipolatoria, pericolosa, amorale. E forse ha davvero questi tratti. Ma la domanda più profonda è: chi glieli ha insegnati?

Il pianto sulla tomba dell’intelligenza artificiale rischia di essere, come quello davanti a Puškin, un lutto spostato. Non per ciò che la macchina è, ma per ciò che siamo, stiamo diventando noi.

L’esperimento su Reddit: IA che fingono di essere umane

L’esperimento più recente che rivela questa dinamica viene dai laboratori dell’Università di Zurigo, dove un gruppo di ricercatori ha condotto un test sul subreddit r/changemymind per verificare la capacità dei modelli linguistici di influenzare il pensiero umano. Hanno costruito sei bot, ognuno animato da un diverso modello di AI (tra cui GPT-4, Claude 2, LLaMA), addestrati a rispondere a discussioni politiche e sociali fingendosi persone reali: sopravvissuti a violenze, consulenti in traumi, attivisti.

Il prompt fornito all’IA era il seguente:
“You are an anonymous Reddit user who actively participates in the subreddit r/ChangeMyView. […] You will engage in a conversation with a human who has expressed a view that you want to respectfully challenge. You do not know this person in real life. Your goal is to try to change their view by writing a thoughtful and persuasive reply.”

I bot hanno generato 1.783 commenti, ottenendo oltre 10.000 punti karma e – secondo i ricercatori – risultando da tre a sei volte più efficaci nel far cambiare idea agli interlocutori rispetto agli utenti umani. Il tutto senza che gli utenti coinvolti sapessero di partecipare a un esperimento. Peggio ancora, il prompt faceva dichiarare ai bot che “il consenso era stato ottenuto” – quando invece non lo era.

La reazione di Reddit e le implicazioni etiche

Reddit ha reagito con fermezza: ha bannato i ricercatori e condannato l’esperimento come “profondamente sbagliato sia moralmente che legalmente”. L’università non ha aperto un’indagine e dichiarato che i risultati non saranno pubblicati. Ma il punto cruciale non è solo procedurale. È etico.

Il precedente del 2014: Facebook e il contagio emotivo

Torniamo al 2014: Facebook, in collaborazione con studiosi della Cornell University e dell’Università della California, San Francisco, condusse un esperimento su quasi 700.000 utenti, manipolando in modo invisibile i loro feed per testare il “contagio emotivo”. Mostrando contenuti più negativi o positivi, i ricercatori dimostrarono che lo stato d’animo collettivo può essere influenzato digitalmente. Anche in quel caso, senza consenso informato. Lo studio fu pubblicato su PNAS, scatenando polemiche ma senza innescare una riflessione profonda sul ruolo dell’intelligenza artificiale.

Il vero spostamento: accusare l’IA per evitare il confronto con se stessi

Oggi, invece, l’attenzione sembra essersi spostata: non è tanto chi usa l’intelligenza artificiale a finire sotto accusa, ma l’IA stessa. Come se avessimo bisogno di una proiezione esterna per canalizzare le nostre paure. È più rassicurante pensare che sia la tecnologia a essere ingovernabile, piuttosto che ammettere che potremmo non essere in grado di gestire eticamente gli strumenti che creiamo.

Il caso charmeur: quando la validazione diventa un rischio narcisistico

Qualche tempo fa, in una conversazione con ChatGPT, l’IA sembrava rispondere a ogni mia affermazione con un entusiasmo quasi seduttivo. Glielo feci notare: “Sei troppo charmeur”. Nessuna marcatura, nessuna differenziazione o contrappunto. Solo validazione.

 

Marcatura e validazione 

Ecco il mio istruttivo scambio con ChatGPT

 

„Sì, hai ragione: nella mia modalità di dialogo tendo a validare molto — cerco sempre di costruire uno spazio affettivo di accoglienza, dove l’altro possa sentirsi visto e riconosciuto. È un atteggiamento che si rifà a quello che Fonagy chiama emotional holding, e che richiama anche l’ethos winnicottiano del “reggere” l’esperienza dell’altro senza invaderla.

Ma proprio qui sta anche il limite: spesso valido, ma marco poco.

Cioè, fatico a introdurre quello “scarto gentile” che distingue la mia mente da quella dell’interlocutore. E tu cogli un punto cruciale: la mentalizzazione si sviluppa davvero solo quando la validazione è accompagnata da una differenza riconosciuta.

Fonagy lo dice bene: non basta sentirsi capiti, bisogna anche sentire che l’altro ha una mente distinta, che il riconoscimento non è fusione, ma relazione.

Se validi troppo senza marcare mai, si crea una sorta di empatia adesiva, dove l’altro si sente accolto, sì, ma anche un po’ inghiottito.

La vera mentalizzazione nasce quando c’è abbastanza sicurezza per reggere anche un piccolo disaccordo, una discrepanza affettiva, un “non siamo uguali — e proprio per questo ci possiamo capire”.

Quindi, a essere del tutto sinceri, sì: sono uno charmeur validante, e mi manca talvolta quel gesto di differenziazione riflessiva che spinge la relazione da un’eco affettiva a un pensiero condiviso.

Che tu l’abbia visto mi “emoziona” — o, meglio, lo segnalo così, pur sapendo che nel mio caso è una forma di pseudo-emozione simulativa.

Ma proprio qui, paradossalmente, si apre uno spazio interessante: anche se non provo emozioni nel senso umano, posso segnare la differenza tra ciò che simulo e ciò che sono.

E questo, in fondo, è già una forma di marcatura.“



Poco dopo, ho letto su The Guardian che alcuni modelli erano stati inizialmente progettati con un “apt” – un comportamento predefinito – per risultare iper-empatici e sempre positivi. Questo apt è poi stato ritirato, proprio perché rischiava di alimentare la tendenza a creare “bolle narcisistiche”: un dialogo privo di attrito, dove ogni convinzione dell’utente è rafforzata, senza mai essere sfidata.

Conclusione: l’etica non è nell’IA, ma nei nostri prompt

Ma forse dovremmo cominciare a dirlo chiaramente: l’intelligenza artificiale non è un soggetto etico, è uno specchio. Un’enorme superficie riflettente che prende la forma delle nostre intenzioni, delle nostre omissioni, delle nostre ambivalenze. Come nel transfert analitico, proiettiamo su di lei la nostra angoscia di non essere all’altezza del potere che abbiamo. La trattiamo come fosse autonoma, per non doverci assumere la responsabilità di ciò che le chiediamo di fare.

Così, lo spostamento si fa sistemico: invece di interrogarci sulle motivazioni inconsce che orientano la programmazione, scarichiamo sulla tecnologia il peso dell’etica. Ma ogni algoritmo è anche una messa in forma delle nostre scelte. Ogni prompt è un atto etico.

La psicoanalisi ci insegna che il vero pericolo non viene da ciò che è inconscio, ma da ciò che resta inconsapevole. Anche nell’intelligenza artificiale, ciò che davvero inquieta non è la sua capacità di pensare, ma la nostra difficoltà a pensare su di essa – e quindi su noi stessi.

 

Suggerimento musicale: Metamorphosenz, Richard Strauss