La mente che non si lascia ridurre: significato, ripetizione e la globalizzazione del sapere

“Il significato, non l’informazione e nemmeno la conoscenza, è forse l’ultima roccaforte della coscienza umana nell’epoca dell’Intelligenza Artificiale” scrive Maria Popova commentando un saggio di Oliver Sacks, pubblicato nel lontano 1993 sulla rivista New York Review of Books, e riscoperto oggi alla luce di ChatGPT. Trenta anni prima che l’IA generativa diventasse un fenomeno di massa, Sacks già metteva in guardia contro la tentazione di ridurre la mente a un algoritmo, la coscienza a una simulazione, il sé a un pattern computabile.


Centaur e la prevedibilità del nostro comportamento

 

Eppure oggi, proprio mentre difendiamo la singolarità del significato, scopriamo—con sconcertante puntualità—che il nostro comportamento è prevedibile. Lo dimostra un recente studio pubblicato su Nature  che mostra come un modello di intelligenza artificiale, basato su un LLM, possa anticipare le nostre azioni con una precisione che sfiora l’inquietante. Centaur, questo il nome dell‘ LLM specializzato, addestrato sui dati di circa 60.000 partecipanti, con oltre 10 milioni di scelte provenienti da 160 studi di psicologia, è in grado di prevedere le scelte umane in compiti non presenti nei dati di addestramento (gambling, giochi di memoria, Problem-solving, ecc. ) superando sia la versione base di Llama sia modelli psicologici classici in 31 dei 32 benchmark considerati. Inoltre le sue rappresentazioni interne si correlano significativamente con l’attività cerebrale umana misurata tramite fMRI, potendo costituire una potenziale rivoluzione nel comportamento predittivo, con implicazioni profonde per marketing, leadership, scienze cognitive.



Prevedibilità e irripetibilità


Come si concilia questa prevedibilità con l’idea, cara a Sacks, che la nostra vita mentale sia irripetibile, fluida, incarnata, unica? Proviamo a soffermarci sulle sue argomentazioni, legandoci, come Ulisse, all’albero maestro per ascoltare senza soccombere al canto delle sirene artificiali.

Nel suo saggio del 1993, Sacks propone una visione della mente assolutamente non meccanicistica. La coscienza, dice, non è un calcolo, ma un flusso. È la risultante di processi corporei, memorie, esperienze, desideri, sensazioni—un “io” che si costruisce e si trasforma nel tempo. Il significato nasce lì, dove un organismo sente, interpreta, fallisce, ricorda, desidera.


Coscienza incarnata


Il significato nasce da una esperienza vissuta, radicata, come ci ricordano anche Gallese e Morelli, nella corporeità, nella vulnerabilità, nelle emozioni e nella mortalità. Nessun sistema artificiale attuale ha un corpo, un metabolismo, o una storia di crescita che permetta un simile tipo di apprendimento e trasformazione.


Giudizio soggettivo


Non solo. Il significato dipende dal contesto e dalla storia personale. Anche frasi logicamente equivalenti possono avere significati radicalmente diversi per persone diverse. Lo insegnava già Epitteto: “Non sono i fatti a turbare gli uomini, ma il giudizio che essi danno dei fatti.” Il significato non è cioè intrinseco al linguaggio o alla realtà, ma dipende dalla nostra interpretazione soggettiva. Oggi diciamo che il significato non è computabile perché è sempre situato, incarnato, attraversato dalla storia personale e relazionale. L’AI può simulare risposte plausibili, ma non “comprende” il significato.


Intenzionalità e desiderio


E infine, il significato implica intenzionalità, motivazione, direzione del desiderio. Le AI non hanno scopi propri né desideri -neanche quelli di ricattare i ricercatori, come spiega Stefano Epifani Nell’ AI non c’è una soggettività che senta o voglia.



Naturalismo biologico

Anil Seth nel suo recente saggio di cui avevo già dato conto, nel mio precedente articolo, descrive le illusioni che ci traggono in inganno nel nostro rapporto con l’AI: l’antropomorfismo (proiettiamo emozioni su ciò che ci somiglia, il funzionalismo ingenuo (pensiamo che “fare” equivalga a “sentire”) e lo strutturalismo computazionale: (immaginiamo che abbastanza complessità equivalga a coscienza). Seth spiega che anche la coscienza—almeno in una forma minimale—può essere vista come una simulazione predittiva. Ma ciò non implica che l’IA possa provare qualcosa. Predire non è vivere. Simulare non è comprendere. Seth stesso ammette che la coscienza narrativa e riflessiva, quella che si interroga sul proprio senso, resta ben lontana dalle attuali possibilità algoritmiche.



L’inganno della prevedibilità


Torniamo allora al nostro apparente dilemma: se la coscienza è tanto complessa, irripetibile come spiegare il fatto che siamo così prevedibili? Come può un LLM, per quanto specializzato, anticipare le nostre scelte meglio di quanto non facciamo noi stessi?

Qui si apre un paradosso affascinante. La prevedibilità non nasce dalla nostra razionalità, ma—al contrario—dalla nostra ripetizione. In termini psicoanalitici: dalla coazione a ripetere. Freud l’aveva già intuito più di un secolo fa. In Al di là del principio di piacere (1920), descrive questo fenomeno come una tendenza inconscia a riprodurre esperienze dolorose o traumatiche, anche quando contrarie al principio di piacere. Il soggetto ripete anziché ricordare, agisce come se si trovasse ancora prigioniero del passato. È come se cercasse di padroneggiare, attraverso la ripetizione, un’esperienza che non è riuscito a simbolizzare. Ripetiamo situazioni, schemi, fallimenti, non perché ci manchi intelligenza, ma perché siamo intrappolati in un nodo simbolico non risolto. Ripetiamo perché qualcosa manca di significato. Ed è proprio in questo vuoto che Centaur si insinua. Ci osserva, ci traccia, ci schematizza. E ci predice. Non perché ci capisce, ma perché vede dove cadiamo sempre nello stesso punto.


Il gesto di Ulisse


Nel mio precedente articolo, ho proposto l’immagine dell’eroe legato all’albero per poter ascoltare senza cedere. Oggi vorrei riprendere quell’immagine in una nuova chiave. Ulisse si protegge dalla ripetizione, sospendendo l’azione, creando una distanza. In quella distanza nasce la coscienza, e forse anche il significato. L’intelligenza artificiale ci chiede di guardare dentro di noi: quale parte di me è già automatica? Quale parte sto ripetendo senza saperlo? Non è una tecnologia che ci minaccia, ma, ancora una volta, la nostra stessa inconsapevolezza.

 

La globalizzazione del sapere: più ampia, più omogenea



C’è infine un altro rischio che riguarda direttamente il nostro rapporto con la conoscenza. Man mano che le nostre ricerche, letture e decisioni si affidano a banche dati sempre più vaste, ma anche sempre più selezionate da algoritmi, rischiamo una globalizzazione del sapere che è, paradossalmente, anche una sua omogeneizzazione. Le AI ci promettono un accesso illimitato all’informazione. Ma questo accesso è mediato, filtrato, ottimizzato per pertinenza e coerenza—non per divergenza, dissonanza, o contraddizione. Così facendo, il sapere si appiattisce. L’interrogazione si trasforma in conferma. E la coscienza critica, che si nutre di confronto, ambiguità e sorpresa, rischia di atrofizzarsi. Più sappiamo, meno pensiamo? Più consultiamo, meno ci interroghiamo? È una domanda urgente. Perché se l’intelligenza si misura nella capacità di differenziare, allora un sapere algoritmico troppo uniforme rischia di renderci meno coscienti, non più informati. Ugo Morelli evidenzia come la globalizzazione del sapere, se guidata da criteri di efficienza e coerenza algoritmica, rischi di produrre una forma di “monocultura cognitiva”, in cui la conoscenza perde la sua capacità trasformativa. Per Morelli, è solo nel confronto tra differenze che si attiva un autentico processo di apprendimento. E qui torniamo al fiume di ininterrotte esperienze, di ambivalenti emozioni, di contrastanti desideri, di molteplici e contrapposte motivazioni che costruisce il nostro io, a partire dal suo corpo, e gli consente di essere non solo elaborazione di informazioni, come l’AI, ma vita consapevole, personale e sociale.

Il significato come atto umano

Oliver Sacks scriveva: “Non siamo un fascio incoerente di sensazioni, ma un sé che emerge dall’esperienza e si rivede continuamente”. Forse è questo che ci distingue da ogni IA: noi non solo ricordiamo, ma possiamo cambiare il modo in cui ricordiamo. Possiamo narrare ciò che è accaduto in modo diverso. Possiamo trovare un senso dove prima c’era solo reazione. Il significato non è dato. Si conquista. E ogni volta che ci liberiamo, anche solo per un attimo, dalla ripetizione cieca, arricchiamo dialetticamente I confini della nostra conoscenza e facciamo qualcosa che nessun algoritmo potrà prevedere.

Suggerimento musicale: Philip Glass – Opening (da Glassworks, 1981)