L’algoritmo sapeva. Il mito della previsione e il dilemma della soglia

“ChatGPT sapeva della strage“ (di Tumbler Ridge in Canada, dove una donna ha ucciso 9 persone e ne ha ferite 27) mesi prima ma OpenAI decise di non avvisare le autorità.


Onniscienza


Il titolo è perfetto. Promette onniscienza, suggerisce una colpa, evoca un oracolo tecnologico rimasto inascoltato. Ma il verbo decisivo è proprio quello: sapeva. Cosa significa, esattamente, sapere?

Nel caso canadese di Tumbler Ridge, ciò che è emerso non è una previsione del futuro né l’identificazione anticipata di un piano omicida imminente. Sono state intercettate conversazioni giudicate preoccupanti dai sistemi automatici di moderazione: segnali linguistici, pattern di rischio, escalation verbali. Circa una dozzina di dipendenti ha analizzato i testi: molti hanno interpretato quelle parole come un segnale di violenza imminente, spingendo presso i loro superiori per contattare la polizia canadese. Il vertice dell’azienda ha però scelto una strada diversa: sospendere l’account della ragazza, ma non chiamare le autorità. Non si è ritenuto, infatti, che vi fosse una minaccia credibile e immediata tale da giustificare l’allerta alle autorità. I criteri scelti da OpenAI di «rischio credibile e imminente di gravi danni fisici» non sarebbero cioè stati rispettati. Per OpenAI, il bilanciamento tra privacy dell’utente e pubblica sicurezza in questo caso pendeva verso la riservatezza.


Fantasia e piano programmato 


Dire che l’algoritmo “sapeva” equivale a trasformare una classificazione probabilistica in una forma di prescienza. Ma i modelli non vedono il futuro: analizzano testi, associano parole, confrontano sequenze con milioni di altre sequenze. Possono individuare segnali di aggressività, fantasie violente, interessi per armi o dinamiche di escalation. Non possono stabilire se un individuo agirà, quando agirà, contro chi agirà. In ambito clinico conosciamo bene questa differenza: tra ideazione e piano, tra fantasia e imminenza. Fintanto che si tratta di fantasie siamo nell‘ambito della libertà, per quanto magari anche patologica di pensiero, quando si osserva invece un piano programmato con un obiettivo definito (sia di suicidio che di danni gravi a terzi) e a distanza temporale ravvicinata, un medico ha la responsabilità di avviare misure coercitive per impedirne l’attuazione.


Comunicazione obliqua

 

C’è però un punto ancora più delicato, che raramente viene esplicitato. A differenza dell’uso dell’intelligenza artificiale per rivedere cartelle cliniche, interpretare radiografie, fare diagnosi su dati già disponibili, nel caso del suicidio o degli atti gravi di aggressività verso terzi, le informazioni decisive spesso non vengono fornite dal soggetto. O vengono fornite in modo obliquo. Chi nutre fantasie auto- o etero-aggressive acute, nella grande maggioranza dei casi, non le comunica perlopiù apertamente ai curanti. Talvolta le traveste. Talvolta le affida a uno spazio percepito come meno giudicante: un diario, uno schermo, un chatbot. Talvolta le nega.


Un incidente sospetto


Mi è capitato di seguire un paziente che aveva riferito di aver avuto un incidente automobilistico che aveva coinvolto solo lui conclusosi con un ricovero ospedaliero. Alla luce della sua storia pregressa, l’ipotesi di un gesto suicidario mascherato era plausibile. Alla domanda diretta, la risposta fu una negazione precisa: affermava di non ricordare nulla di quanto era accaduto prima dell’impatto adducendo una amnesia anterograda. Il dato clinico non era l’incidente, ma la zona opaca intorno all’evento. Anche qui, il problema non era “sapere”, ma interpretare.


Probabilità e interpretazione

 


Lo stesso vale per le interazioni con l’intelligenza artificiale. Non si tratta quasi mai da parte dei soggetti in questione di frasi del tipo: “Il giorno tal dei tali mi suiciderò o compirò una strage”. Si tratta per lo più di frammenti, allusioni, domande indirette, esplorazioni progressive. L’AI può individuare pattern, ricorrenze, escalation linguistiche. Può calcolare probabilità. Ma il significato non è nei dati: è nell’interpretazione. E l’interpretazione non è mai neutra. Dipende da cornici cliniche, culturali, giuridiche, politiche. Dipende da ciò che una società considera minaccia credibile o semplice fantasia disturbante.
Il difficile bilanciamento tra diritto alla riservatezza e obbligo di segnalazione
Il nodo vero, allora, non è se l’algoritmo “sapesse”. È chi decide quando un segnale deve diventare segnalabile. Nella pratica clinica e nel diritto la rottura della riservatezza richiede condizioni precise: identificabilità del soggetto, specificità del bersaglio, credibilità della minaccia, prossimità temporale. Senza questi elementi, la confidenza resta tale. Trasferire questo criterio nel mondo delle piattaforme digitali è tutt’altro che semplice. Se ogni fantasia aggressiva diventasse automaticamente una segnalazione, entreremmo in un regime di sorveglianza preventiva permanente. Se nessuna lo diventasse, potremmo perdere l’unico punto di contatto con una crisi reale.
Prevenzione totale comporta sorveglianza totale
Forse il punto più scomodo è questo: chiediamo alla tecnologia di proteggerci dall’imprevedibile senza accettare che l’imprevedibile faccia parte della condizione umana. Vogliamo prevenzione totale, ma non sorveglianza totale. Vogliamo che l’algoritmo intercetti il pericolo, ma non che intercetti noi. In questa tensione si annida una fantasia collettiva di onniscienza tecnologica: se la tragedia accade, deve essere perché qualcuno non ha ascoltato la macchina.


L’algoritmo non è un oracolo


L’algoritmo, però, non è un oracolo. È uno strumento statistico inserito in un contesto umano. Può riconoscere modelli di ripetizione; non può attribuire loro significato. La soglia tra pensiero e atto, tra fantasia e pericolo, non è una variabile matematica: è una decisione normativa. Stabilire quando un rischio diventa pericolo non è un compito dell’intelligenza artificiale, ma della medicina, della politica, del diritto e, in ultima analisi, della nostra idea di libertà.

Attribuire alla macchina la responsabilità di non aver “previsto” significa sottrarsi alla domanda più difficile: quale equilibrio vogliamo tra riservatezza e sicurezza? Fino a che punto siamo disposti a tollerare l’opacità del soggetto pur di non trasformare ogni parola in un potenziale atto d’accusa?


Responsabilità


La prevenzione assoluta non esiste, né nell’umano né nel digitale. Possiamo costruire strumenti migliori, protocolli più chiari, soglie più condivise. Ma la decisione di rompere il silenzio – di trasformare un sospetto in una segnalazione – resterà sempre un atto umano. E come tutti gli atti umani, porterà con sé il peso della responsabilità.