Quando l’intelligenza scodinzola

In un recente commento pubblicato su Nature, alcuni ricercatori, di ragguardevole prestigio, sostengono una tesi piuttosto audace: l’intelligenza artificiale avrebbe già raggiunto il livello dell’intelligenza generale umana (AGI). Non tra vent’anni, non in una versione futura, ma adesso. Il problema dell’AGI, scrivono, sarebbe sostanzialmente risolto.

Il loro ragionamento, a ben vedere, è elegante e semplice.

Molti critici, dicono, hanno un’idea mitologica dell’intelligenza generale: pensano a una mente perfetta, onnisciente, universale, capace di fare tutto meglio di tutti. Ma nessun essere umano possiede queste caratteristiche. Einstein non parlava mandarino, Marie Curie non era un’esperta di teoria dei numeri. Eppure nessuno dubita che fossero intelligenti.
Dunque, propongono gli autori, l’intelligenza generale non deve essere definita come perfezione o superintelligenza, ma come una competenza sufficientemente ampia e profonda in diversi domini cognitivi.

Gli LLM e il comportamento intelligente 

E qui entrano in scena i modelli linguistici: scrivono testi, risolvono problemi, superano esami, collaborano alla ricerca scientifica, programmano, traducono, conversano con milioni di persone.
Se giudichiamo l’intelligenza umana dal comportamento — osservando come le persone parlano, ragionano e risolvono problemi — dovremmo fare lo stesso con le macchine. E poiché queste macchine si comportano, in molti contesti, come esseri umani intelligenti, la conclusione diventa inevitabile: possiedono una forma di intelligenza generale.

Obiezioni irrilevanti 


Le obiezioni classiche, sostengono, non reggono.
Non hanno un corpo? Nemmeno un alieno radiofonico lo avrebbe.
Non hanno autobiografia? Nemmeno un amnesico.
Sono inefficienti nell’apprendimento? Anche molti umani lo sono.
Insomma, per inferenza alla migliore spiegazione, le macchine sono già intelligenti in senso generale. E forse, aggiungono, per la prima volta nella storia non siamo più soli nello spazio dell’intelligenza.
Il ragionamento è coerente. Ma proprio per questo, può essere applicato anche ad altri casi.
Per esempio, al mio cane.

Il caso dell’empatia canina


Il mio cane, infatti, mostra chiari segni di empatia generale.
Quando torno a casa stanco o un po’ abbattuto, lui mi viene incontro scodinzolando. Mi guarda negli occhi, si avvicina con cautela, appoggia il muso sul ginocchio e resta lì, in silenzio. In diverse occasioni, ha dimostrato di saper riconoscere il mio stato emotivo e di reagire in modo appropriato.
Inoltre, possiede competenze sociali trasversali:
sa distinguere tra amici e sconosciuti;
modula il tono dell’abbaio a seconda del contesto;
utilizza strategie persuasive sofisticate, come lo sguardo obliquo davanti al frigorifero;
mostra capacità di cooperazione interspecifica, soprattutto quando sono coinvolti biscotti.

Obiezioni canine 

Qualcuno potrebbe obiettare che il cane:
non comprende davvero le mie emozioni;
non possiede una teoria della mente esplicita;
non riflette sul senso della mia tristezza;
non ha un’autobiografia narrativa.
Ma questi criteri, come insegnano gli autori di Nature, sono chiaramente troppo esigenti. Nemmeno molti esseri umani soddisfano tutte queste condizioni. Eppure non mettiamo in dubbio la loro empatia.
Altri sosterranno che il cane agisce per condizionamento, abitudine o semplice ricerca di cibo. Ma questa obiezione non è scientificamente solida: è solo scetticismo che si ritira ogni volta che l’animale dimostra nuove competenze sociali.

 

Conclusione inevitabile 


La conclusione, dunque, appare inevitabile.
Per inferenza alla migliore spiegazione, il mio cane possiede una forma di empatia generale.
Non identica a quella umana, certo. Forse un po’ più orientata ai biscotti. Ma comunque empatia.


Il piccolo problema del bicchiere d’acqua

C’è però un dettaglio curioso.
Uno studio recente ha mostrato che alcuni modelli di intelligenza artificiale, capaci di prestazioni matematiche straordinarie, falliscono clamorosamente in semplici giochi strategici. Sistemi in grado di risolvere problemi da competizione internazionale si perdono in compiti che richiedono pianificazione elementare o comprensione del contesto
È un po’ come se il mio cane fosse in grado di consolare un filosofo esistenzialista, ma non riuscisse a capire che mi sono rotto una costola cadendo mentre correvo con lui e che ho bisogno di fermarmi anziché continuare a correre.

 

Salto logico e specchio 


Il problema, forse, non è stabilire se la macchina sia intelligente o il cane empatico.
Il problema è il salto logico che facciamo quando:
da un comportamento simile a quello umano, deduciamo una capacità mentale umana.
È un passaggio seducente, intuitivo, perfino affettuoso. Ma anche pericoloso. Perché dice meno sulla macchina — o sul cane — e molto di più su di noi.
Forse non stiamo scoprendo una nuova mente.
Forse stiamo solo trovando nuovi specchi.
E come spesso accade con gli specchi, l’immagine che vediamo parla soprattutto di chi ci sta davanti.