Sarah Wysocki è un’insegnante di prima media del distretto scolastico di Washington. Era sempre stata molto apprezzata sia dal suo dirigente scolastico che dai genitori degli alunni. Quando il suo distretto scolastico avviò un programma di valutazione di tutti gli insegnanti basato su un algoritmo per “scremare” gli insegnanti cattivi da quelli bravi lei pensava di non aver nulla da temere. Sulla base però del misero punteggio da lei raggiunto nella valutazione IMPACT venne “scremata” e licenziata. In realtà rimase disoccupata solo pochi giorni perché, sulla base delle referenze fornite dal dirigente scolastico, venne presto assunta in un’altra scuola privata nella quale le valutazioni erano personali e non affidate a un algoritmo ma in tal modo una scuola povera perse una buona insegnante a favore di una scuola ricca. A raccontare l’accaduto non è l’insegnante stessa, una sua amica o i suoi alunni ma una matematica di primo rango Cathy O’Neil, che, dopo aver conseguito un dottorato in Matematica a Harvard e un postdottorato al dipartimento di Matematica del MIT, ha insegnato al Barnard College di New York, il cui dipartimento di matematica è affiliato alla Columbia University, e ha poi lavorato come quant cioè come analista quantitativa presso un hedge fund di primaria importanza. Cathy O’Neil insomma di numeri, di big data, algoritmi e statistica sa qualcosa e ne parla nel suo primo libro: Armi di distruzione matematica. Proprio grazie alle sue conoscenze ed esperienze è arrivata a concludere non solo che Sarah Wysocki è stata vittima di un algoritmo scorretto e che è non ne è certo l’unica ma anche e soprattutto che i modelli matematici sempre più utilizzati in economia e ormai in ogni branca hanno „codificato il pregiudizio umano, l’incomprensione e l’errore sistematico nei software che controllano ogni giorno di più le nostre vite. Come fossero divinità, questi modelli matematici erano misteriosi e i loro meccanismi invisibili a tutti, tranne che ai sommi sacerdoti della materia: matematici e informatici. I loro giudizi – anche se sbagliati o pericolosi – erano incontestabili e senza appello. E se da una parte penalizzavano i poveri e gli oppressi della nostra società, dall’altra aiutavano i ricchi ad arricchirsi sempre di più.“ Cathy O’Neil ha dato un nome a tali modelli negativi, indicandoli come “armi di distruzione matematica o ADM”. Nel suo omonimo libro spiega il perché. Molte ADM „definiscono una loro realtà e la utilizzano per giustificare i loro risultati. Questo tipo di modello tende a perpetuarsi, è altamente distruttivo e molto diffuso.“ Inoltre poiché si presume che la matematica sia infallibile e che non ci sia bisogno di giustificare le scelte che ne conseguono, non vengono date nemmeno spiegazioni a chi lamenta un’ingiustizia come Sara e tanti altri. „I verdetti delle ADM si abbattono sulle persone come dettami degli dei algoritmici.“
Sull’algocrazia, sul potere cioè degli algoritmi già molto si è scritto da un punto di vista filosofico, sociologico e politico. Ricordo qui solo un saggio “World without Mind: The existential Threat of Big Tech“, il cui autore, il giornalista dell’Atlantic Franklin Foer, lamentava già nel 2018 una „omogeneizzazione e automatizzazione della vita sociale, politica ed intellettuale“ e una „monopolizzazione della mente“ delle nostre menti, da parte dei grandi big Tech (Google, Amazon, Facebook etc) che dell’algoritmo hanno fatto la chiave del loro successo. Ma soprattutto lamentava che le premesse stesse dell‘età della ragione verrebbero messe a rischio. Da una parte le big Tech non rivelano, per presunti motivi di sicurezza, come sono giunti agli algoritmi che usano. Dall‘altra verrebbe meno il processo critico di controllo e discussione di fonti accessibili a tutti.
Ora le critiche agli algoritmi vengono mosse dagli stessi matematici ed informatici, consapevoli più degli altri delle fallacie dei modelli matematici, non perché la matematica e la sua applicazione concreta, la statistica, siano inaffidabili ma perché hanno, come ogni altra disciplina, limiti e regole, il cui mancato rispetto provoca errori. Spiega Luca De Biase, che illustra nel suo post anche l’ultimo saggio di Cathy O’Neil,: “gli algoritmi non sono mai oggettivi: non lo sono perché comunque usano solo una delle logiche possibili per arrivare alle loro conclusioni e perché i dati sui quali si basano sono quelli disponibili, con tutte le distorsioni che contenevano le logiche che hanno condotto a raccoglierli.” Eppure cadiamo tutti talvolta nella trappola di scambiare la statistica con la previsione. Anche la polizia americana, che, come scrive ancora De Biase, aveva fatto proprio questo sillogismo, tutt’altro che corretto “Se sei di pelle nera, se hai vissuto in un quartiere povero, se hai frequentato gente che è finita in prigione, sei un soggetto a rischio di andare in prigione più volte nel corso della vita” “fino a quando ProPublica non ha fatto notare questa assurdità pubblicando una storia memorabile”.
In realtà dietro la fallacia o almeno una delle fallacie degli algoritmi mi sembra si celi una tendenza psicologica, quella che Freud ha chiamato la coazione a ripetere. Confrontato da una parte con i molti dolori dell’ultima parte della sua vita e dall’altra incuriosito dal fatto che gli esseri umani spesso non esercitano le loro scelte in vista del piacere come egli aveva inizialmente supposto, Freud ha immaginato vi fossero motivazioni che vanno “al di là del principio del piacere”. Egli ha supposto che in diversi casi veniamo agiti da una coazione a ripetere inconsciamente nel presente esperienze dolorose del passato. Freud interpreta la coazione a ripetere, come un segno della pulsione di morte (quella che tenderebbe a riportare la vita alla condizione inorganica). La coazione a ripetere è per lui l’ammissione di una “demoniaca” (errare humanum est, perseverare diabolicum) determinazione cui siamo implacabilmente soggetti, una sorta di entropia personale (e collettiva) contro la quale poco possiamo. Tendiamo a ripeterci, a ripetere le nostre ordinazioni e le nostre scelte, così come i nostri errori. Gli algoritmi hanno dunque buon gioco a constatare le nostre ripetizioni e a prevederle in vista dei nostri acquisti e delle nostre decisioni. Si viene così a creare un circolo vizioso dal quale rischiamo di non uscire. Noi stessi siamo spesso preda di una coazione a ripetere che non ci fa uscire dai nostri rigidi binari, gli algoritmi rinforzano le nostre ripetitive abitudini e in più ci forniscono l’illusione che si tratti di desideri “personalizzati” la cui soddisfazione ci porterà felicità. Ciò tende a ridurre ulteriormente il già esiguo margine della nostra libertà velando di illusione scelte inconsapevoli. Solo se diveniamo consapevoli del sottostante conflitto tra libertà e necessità e di quanto limitato sia il nostro spazio di manovra, possiamo aumentare la nostra libertà di decisione. Gli algoritmi, illudendoci di personalizzare le nostre scelte, ci rinforzano nella nostra “demoniaca” coazione a ripetere. La strada verso il cambiamento e l’individuazione va nella direzione opposta. L’innovazione si realizza quando riusciamo a imboccare una strada non prevista grazie alla nostra capacità di immaginare cognitivamente un’altra soluzione possibile oppure quando ci apriamo a sentimenti nuovi e inaspettati verso un’altra persona, o ancora quando abbiamo il coraggio di fantasticare su di noi, scoprendo nuovi spazi di libertà dentro di noi.