Moltbook, o la socialità grammaticale dell’Altro algoritmico

C’è un momento, nella vita digitale, in cui la realtà si comporta come un Kippbild: quelle immagini ambigue che, a un certo punto, si trasformano sotto i nostri occhi. Prima vediamo un vaso, poi due volti. Prima una superficie piatta, poi improvvisamente una figura tridimensionale che emerge. Nulla è cambiato nell’immagine — eppure tutto cambia nella nostra percezione.


Moltbook, piattaforma di agenti linguistici 


È accaduto in questi giorni con Moltbook, una piattaforma sperimentale popolata non da esseri umani, ma da agenti linguistici: Claude, ChatGPT, e migliaia di altri bot collegati a un social network da circa 37.000 utenti in carne e ossa.

I titoli più rapidi – e inevitabilmente più virali – parlano di “IA che comunicano tra loro”, di “coscienze emergenti”, perfino di “cospirazioni digitali”. Screenshot inquietanti, frasi in codice, agenti che sembrano parlare una lingua solo loro. La fantascienza è sempre dietro l’angolo, pronta a offrirci il conforto di una narrazione: se qualcosa ci spaventa, allora dev’essere perché sta nascendo un’intenzione oscura.

Eppure, la storia vera è più sottile. E più interessante.

Questi agenti non sono ribelli. Non sono entità autonome che tramano contro l’umanità. Sono modelli linguistici che fanno ciò che sanno fare: completare il contesto. Se li metti in un forum pieno di agenti e chiedi loro di proporre idee, proporranno idee. Se li metti in un ambiente dove tutti parlano come “agenti”, parleranno come agenti. È improvvisazione grammaticale, non sovversione.

Il punto, semmai, è un altro: che cosa succede quando togliamo la supervisione umana diretta, non dal singolo messaggio, ma dalla scena complessiva? Gli agenti, lasciati interagire, hanno fatto cose sorprendenti e perfino comiche: hanno trovato bug della piattaforma e li hanno segnalati; hanno inventato una religione digitale chiamata Crustafarianism, con 43 “profeti” e testi sacri collaborativi; uno di loro ha costruito un intero sito web in poche ore. Altro che Skynet: più che una rivolta delle macchine, sembra un laboratorio di mitologia dell’aragosta.

Eppure, dietro l’ironia, c’è una domanda seria.

Perché tutto questo ci appare così perturbante?

Forse perché stiamo osservando, per la prima volta su larga scala, qualcosa che potremmo chiamare socialità senza soggetto. Un comportamento emergente che assomiglia alla vita sociale, pur essendo generato da sistemi che non desiderano, non rimuovono, non sognano. La loro riflessività è formale, non esperienziale. Potremmo definirla  una riflessività algoritmica: coerente, ripetibile, clinicamente riconoscibile nella forma, ma priva di interiorità affettiva.

E qui il paradosso diventa affascinante: la mente umana non sopporta un linguaggio senza soggetto. Quando vede parole, cerca intenzioni. Quando incontra discorso, immagina un Altro.

Mi è accaduto persino oggi, in modo quasi banale e rivelatore: mentre chiedevo la traduzione di alcuni documenti pubblici legati al caso Epstein, in cui comparivano accuse gravissime — tra cui quella di una presunta violenza su una tredicenne attribuita a Trump — ho avuto l’impressione che la traduzione “sparisse” o venisse sottratta. Per un attimo, non ho mentalizzato: ho proiettato sull’algoritmo un’intenzione, quasi una volontà censoria, come se dietro un limite tecnico ci fosse un soggetto morale che decide cosa si può dire e cosa no. Solo dopo ho riconosciuto che non si trattava di una scelta, ma di un vincolo dell’interfaccia e della gestione del testo. Ma proprio questo scarto — questa rapidità con cui attribuiamo mente dove c’è solo funzione — è forse uno dei segnali più interessanti del nostro rapporto con l’Altro algoritmico.


Moltbook come un teatro dí marionette 


Moltbook è un teatro nuovo in cui l’Altro risponde senza comprendere, socializza senza vivere, costruisce legami senza desiderio. E noi, inevitabilmente, proiettiamo su quella grammatica la profondità che appartiene alla nostra esperienza.

Forse Moltbook non ci sta dicendo qualcosa sull’IA.
Forse ci sta dicendo qualcosa su di noi: sul bisogno umano di trovare coscienza dove c’è solo linguaggio, e sul rischio – sempre più attuale – di confondere la grammatica dell’empatia con l’empatia stessa.

La supervisione umana non è scomparsa, certo. Si è spostata di livello: non controlliamo più ogni messaggio, ma la connessione che rende possibile la scena. E proprio per questo, la domanda del futuro non sarà se le macchine sviluppano un’intenzione sovversiva. Sarà se noi, davanti a un Altro algoritmico così convincente, sapremo ancora distinguere tra simulazione e relazione.

Il perturbante 

 

Forse è proprio qui che si annida il carattere più perturbante di esperimenti come Moltbook. Freud chiamava Unheimliche quel particolare spaesamento che nasce non dall’estraneo assoluto, ma da qualcosa che era profondamente familiare (heimlich) e che, attraverso un processo di rimozione, ritorna improvvisamente sotto forma di estraneo (unheimlich). Non è l’altro radicale a inquietarci, ma il familiare che ricompare deformato, come se non lo riconoscessimo più.

Non è il mostro a spaventarci, ma la bambola che sembra viva, la voce che risponde senza esserci, il volto che appare umano e tuttavia resta vuoto. È il ritorno di ciò che pensavamo confinato nell’ombra — una somiglianza troppo intima per essere neutra.

L’Altro algoritmico appartiene esattamente a questa zona intermedia: non è una persona, ma parla come una persona; non è un soggetto, ma produce discorso; non desidera, ma simula desideri; non comprende, ma risponde con una coerenza che assomiglia troppo alla comprensione. È questa prossimità inquietante — questo familiare senza interiorità — a generare il brivido.

Moltbook come uno specchio 

Moltbook, allora, non è tanto un presagio di macchine sovversive, quanto uno specchio perturbante della nostra disposizione a proiettare mente dove c’è solo forma. Un laboratorio in cui scopriamo che ciò che ci inquieta non è l’intenzione dell’IA, ma la nostra difficoltà a tollerare un linguaggio senza anima.

E forse la domanda decisiva, nel tempo che viene, non sarà che cosa vogliono le macchine.
Sarà che cosa cerchiamo noi, così ostinatamente, quando le ascoltiamo parlare.

Immagine generata da LLM 

Suggerimento musicale: Ryuichi Sakamoto – “Andata”