Algoritmi, democrazia e coazione a ripetere

“Gli algoritmi sono una minaccia alla democrazia?” Parte da questa domanda, contenuta nel report di AlgorithmWatch,  la (bella) relazione della Vice Presidente esecutiva della Commissione Europea Margrethe Vestager,  in occasione dell’ AlgorithmWatch Online Policy Dialogue, del 30 Ottobre 2020.
La sua è un’approfondita, comprensibile e tutt’altro che burocratica sintesi dell’attuale stato delle cose in materia, basata sulla (condivisibile) convinzione che “the future of Europe, how we put our values into reality, how we enable each other’s freedoms, depends on the way that we answer that question.” Vestager parte dalla straordinaria trasformazione democratica cui ha condotto la digitalizzazione con la creazione di una nuova enorme agorà digitale. Ella interpreta la nascita delle piattaforme come un tentativo di trovare un sentiero nella giungla di informazioni della rete. Gli algoritmi ne costituiscono il nucleo fondamentale consentendo alle piattaforme di reperire e offrire le informazioni in modo efficiente e rapido. Il rischio che incombe è però, come si sa, che gli algoritmi diventino la nuova-vecchia eminenza grigia al servizio del potere gestito nelle “secrete stanze” di pochi consigli d’amministrazione. È infatti indubitabile che le piattaforme e gli algoritmi di cui esse si servono abbiano un’estrema influenza sul modo in cui vediamo il mondo. Sono gli algoritmi in definitiva a decidere quale parte della realtà noi percepiamo o non percepiamo. L’illusione dell’accesso diretto e illimitato alla conoscenza ha dovuto lasciar spazio alla deludente realtà di filtri sempre più opachi tra noi e il mondo, tra i nostri dati e una conoscenza, costruita su tali dati senza però che ci venga detto come (e senza che ci venga chiesto il permesso di utilizzarli). Vestager rivendica invece il diritto di accesso a quei dati e alle chiavi degli algoritmi che li trasformano in preziosa conoscenza
“data can’t be a sort of esoteric knowledge, that only a small priesthood who work for these big platforms gets to see.”
I rischi che ci troviamo a fronteggiare sono in realtà molteplici. Gli algoritmi possono creare filtri a noi inaccessibili falsando e manipolando dunque la nostra visione della realtà. Naturalmente siamo stati da sempre avvezzi al fatto che l’informazione venisse filtrata ma proprio tale consapevolezza (quel giornale è di sinistra, destra etc) ci aiutava a fare la tara. Se non conosciamo i meccanismi di “filtraggio” non possiamo nemmeno proteggerci dalla distorsione dei filtri. Gli algoritmi possono inoltre contenere e alimentare quegli stessi pregiudizi che da secoli ci portiamo addosso e che confidavamo l’intelligenza artificiale ci aiutasse a sconfiggere. Ma ovviamente i programmi anche quelli più sofisticati lavorano sui dati che noi immettiamo, pregiudizi compresi. Infine, e mi sembra l’aspetto più inquietante, il targeting, la personalizzazione, (tailoring) è talmente avanzata che a ciascuno di noi viene presentato dagli algoritmi e dalle piattaforme che se ne servono, un altro mondo, esattamente il mondo che noi vogliamo e al tempo stesso temiamo. Così come ci vengono consigliati i libri di nostro gusto, la musica del nostro genere, le notizie di nostro interesse e gli oggetti da comprare di nostra preferenza, ci viene anche presentato il mondo dei nostri desideri che è appunto lo stesso delle nostre paure. Al complottista vengono serviti i complotti, al liberal le magnifiche sorti e progressive della democrazia nel mondo nonché i suoi nemici, al vegano l’Eden in terra e chi lo minaccia. Gli algoritmi sono da questo punto di vista la migliore dimostrazione della teoria freudiana della coazione a ripetere. Come Freud stesso ha intuito nella parte finale della sua vita, segnata da dolori e lutti, spesso non esercitiamo le nostre scelte in vista del piacere che ce ne deriverà ma spinti, anzi agiti da una coazione a ripetere nel presente inconsciamente esperienze dolorose del passato, “al di là del principio del piacere”. Gli algoritmi, quando si tratta delle nostre scelte, c’azzeccano sempre dimostrandoci, con l’elenco dei nostri pregressi ordini, che ripetiamo costantemente, pentendoci, gli stessi errori, così come al tavolo del ristorante ordiniamo un dessert di cui ci pentiremo poco dopo, guardando il conto o la bilancia. Non è così invece in ambito scientifico ove gli algoritmi consentendo correlazioni e calcoli a noi impossibili in tempo utile, ci offrono soluzioni inaspettate. È di questi giorni la notizia dell’ennesimo programma computerizzato che consente di diagnosticare precocemente il morbo di Alzheimer. Lo stesso dicasi per schizofrenia depressione etc. e a maggior ragione malattie internistische e le scienze naturali in genere. Se nella patologia la ripetizione è un vantaggio perché consente di individuare correlazioni e acquisire nuove informazioni e conduce dunque ad un allargamento della conoscenza, nella presunta libertà della nostra vita privata la ripetizione è una pena cui l’algoritmo, nel tentativo di semplificarci la vita, ci condanna inesorabilmente. La ripetizione delle nostre scelte, ricordataci e facilitataci dall’algoritmo, restringe la nostra conoscenza al già noto, riduce la realtà a scadente finzione in cui possiamo scegliere solo la serialità, rende ancora più difficile conquistare un minimo spazio di libertà dal prototipo. Eppure è proprio nel tentativo di liberarci dai fantasmi del nostro passato individuale, familiare e collettivo, dall’adattamento ai modelli vigenti, che possiamo trovare la nostra originale e creativa individualità.
Immagine: l’algoritmo per calcolare il rischio di morte dei pazienti affetti da Covid-19
tratta da Latinatu