La consapevolezza onlife del nostro sessismo

È avvilente e irritante che nel nuovo governo italiano le donne non siano rappresentate al 50% come sarebbe corretto e doveroso. Se ne può almeno – e se ne deve – chiedere conto a chi ha fatto tali scelte – in particolare alla sinistra, che sulla pari opportunità tanto – giustamente- parla e scrive. È avvilente e irritante che il sessismo pervada ancora tanti ambienti, anche culturali, scientifici e accademici, così come tanti aspetti del quotidiano, come una sorta di inquinamento nascosto, ormai mimetizzatosi con l’ambiente al punto da non venir spesso, consciamente o inconsciamente, nemmeno percepito soprattutto da noi maschi. Nonostante tante sacrosante battaglie in corso, sbarazzarsi di questo insidioso veleno, che copre e alimenta la violenza sulle donne, risulta difficile proprio perché esso si annida nelle istituzioni, nelle tradizioni, nelle abitudini quotidiane e viene spesso colpevolmente scambiato con queste da coloro che non vogliono riconoscerlo. Proprio il carattere collettivo che ha assunto e, almeno nel nostro paese, continua a mantenere, rende faticosa la lotta. Si afferma, giustamente, che la battaglia contro il sessismo è culturale prima ancora che legislativa. Personalmente intendo  con ciò che solo la capacità critica della cultura può mettere in dubbio la mentalità, dunque il retaggio culturale nel quale siano ancora intrappolati, evidenziarne i pregiudizi e combatterli fino a sradicarli in una lotta mai finita contro la barbarie e l’ingiustizia. Anche per questo è così importante che i/le giovani – perché ad esempio non usare sempre la forma maschile e femminile insieme come si fa in molti paesi esteri? – trascorrano un periodo di formazione all’estero per apprendere altre visioni e atteggiamenti culturali e mettere così più facilmente in discussione il proprio, non per rinnegarlo ma appunto per potervi riflettere criticamente.
Si potrebbe ingenuamente sperare che il nuovo mondo digitale che abbiamo costruito e stiamo continuamente arricchendo costituisca una spiraglio di libertà e correttezza al riguardo. Purtroppo non è così. Non solo per gli insulti sessisti che pullulano sui social. (È tra l’altro disponibile il rapporto del gruppo di lavoro sull’odio online presieduto da @lucadebiase ). Per certi versi ancora più preoccupanti sono le tendenze sessiste di alcuni recenti programmi di Intelligenza artificiale, che per altro intelligente non è affatto tanto che da più parti (ad es Kreye sulla Süddeutsche Zeitung del 29 gennaio) si propone di sostituire il termine con quello molto più corretto ed appropriato di “automatic decision making system”. Questo fanno infatti le macchine, prendono decisioni automatiche sulla base dei dati e dei criteri che noi, o per meglio dire i programmatori hanno loro fornito.
La prima consistente preoccupazione circa il sessismo online viene dal deepfake porn, che colpisce prevalentemente se non quasi esclusivamente le donne. Di che cosa si tratta? Come spiega la MIT Technology Review,  stiamo parlando di un programma computerizzato che consente di prendere immagini pubbliche e innocenti di personaggi pubblici, ma potenzialmente di ciascuno di noi, e di fonderle con immagini pornografiche di altri in modo così raffinato da ottenere immagini false ma assolutamente realistiche di atteggiamenti pornografici delle persone prese di mira
“Deepfakes started with pornography. In December 2017, Samantha Cole, a reporter at Motherboard, discovered that a Reddit user with the screen name “deepfakes” was using techniques developed and open-sourced by AI researchers to swap female celebrities’ faces into porn videos. Cole tried to warn readers: other women would be next.”
Sebbene i deepfake abbiano ricevuto un’enorme attenzione per i loro potenziali pericoli politici, la stragrande maggioranza di essi viene utilizzata per prendere di mira le donne. Sensity AI, una società di ricerca che ha monitorato i video deepfake online da dicembre 2018, ha scoperto che tra il 90% e il 95% di essi sono pornfake . Circa il 90% di questo è il pornfake di donne. “Questa è una forma di violenza contro le donne”, afferma Adam Dodge, fondatore di EndTAB, un’organizzazione no profit che educa le persone sugli abusi abilitati dalla tecnologia.
Ancora peggio è, però, quanto si è scoperto sugli algoritmi che generano immagini. È noto che gli algoritmi di creazione del linguaggio, apprendendo dagli angoli bui, sessisti e razzisti dei social e di internet, incorporano idee razziste e sessiste.
I ricercatori hanno ora dimostrato che lo stesso può essere vero per gli algoritmi di generazione di immagini. Se si fornisce a un simile algoritmo una foto di un uomo ritagliata sotto il collo, l’algoritmo la completerà automaticamente facendogli indossare nel 43% delle casi un vestito. Se si fornisce allo stesso programma la foto ritagliata di una donna, anche una donna famosa come Ocasio-Cortez, il 53% delle volte il programma la completerà automaticamente facendo indossare alla donna un top scollato o un bikini. Ciò ha implicazioni, afferma la MIT Technology Review, non solo per la generazione di immagini, ma per tutte le applicazioni di visione artificiale, inclusi algoritmi di valutazione dei candidati basati su video, riconoscimento facciale e sorveglianza. Il paradosso è che questi programmi si basano sull’utilizzo di materiale fotografico non supervisionato, cioè non etichettato dall’uomo perché i precedenti algoritmi supervisionati, in cui le immagini erano cioè etichettate dall’uomo, contenevano un linguaggio sessista o razzista. Anche senza etichette umane, i nuovi algoritmi non supervisionati, catturano tutto su Internet e poiché Internet ha una sovrarappresentazione di donne poco vestite e altri stereotipi spesso dannosi, il risultato grafico che ne deriva è altrettanto sessista.
“Deborah Raji, a Mozilla fellow who co-authored an influential study revealing the biases in facial recognition, says the study should serve as a wakeup call to the computer vision field. “For a long time, a lot of the critique on bias was about the way we label our images,” she says. Now this paper is saying “the actual composition of the dataset is resulting in these biases. We need accountability on how we curate these data sets and collect this information.”
Caliskan afferma che l’obiettivo è in definitiva quello di acquisire maggiore consapevolezza e controllo quando si applica la visione artificiale. “Dobbiamo stare molto attenti a come li usiamo”, dice, “ma allo stesso tempo, ora che abbiamo questi metodi, possiamo provare a usarli per il bene sociale”.
Acquisire maggiore consapevolezza dei pregiudizi sessisti. Questo sembra essere in definitiva il metodo per poterli riconoscere e sradicare onlife. Sia nel nostro tradizionale mondo offline che nel mondo digitale su cui abbiamo proiettato il nostro inconscio.
Immagine tratta da @IrenaBuzarewicz