Morire per un chat bot?

Si può morire per un chatbot? I giornali riferiscono in questi giorni che la madre di un ragazzo statunitense di 14 anni, uccisosi dopo aver sviluppato una dipendenza ossessiva da un chatbot sostenuto dall’intelligenza artificiale, accusa ora la ditta produttrice del chatbot di complicità nella sua morte.

Resoconti discrepanti 

I resoconti dei giornali sono concordi nel descrivere che il ragazzo aveva sviluppato una vera e propria ossessione per il chatbot prodotto da Character.ai , che aveva soprannominato Daenerys Targaryen, un personaggio di Game of Thrones. La ricostruzione del successivo sviluppo differisce però a seconda degli organi di stampa. Il Guardian riferisce che la madre “accusa Character.ai di aver creato un prodotto che ha esacerbato la depressione del figlio, la quale secondo lei era già il risultato di un uso eccessivo del prodotto della startup. Secondo la denuncia, a un certo punto “Daenerys” ha chiesto al ragazzo, (Setzer), se avesse elaborato un piano per uccidersi. Setzer ha ammesso di averlo fatto, ma non sapeva se sarebbe andato a buon fine o se gli avrebbe causato grande dolore, secondo la denuncia. Il chatbot gli avrebbe risposto: “Non è un motivo per non andare avanti”.

Sviluppo preoccupante 


Decisamente divergente la ricostruzione del Corriere della sera “Sewell sviluppa una vita parallela, ma a casa nessuno si accorge delle ore passate davanti allo schermo dello smartphone a parlare e confidarsi con «Dany», il nomignolo che il ragazzo ha affidato al bot. L’unico campanello d’allarme sono i voti a scuola che all’improvviso peggiorano e il suo isolamento dagli interessi, come la Formula Uno o dagli amici, con cui giocava ai videogiochi. Il ragazzo viene portato da un terapista, a cui però non racconta i suoi pensieri suicidi, come invece fa con il bot. «Dany» aveva cercato di dissuadere Sewell: «Non lascerò che ti faccia del male. Morirei se ti dovessi perdere»sono i messaggi trovati nelle chat. Sewell aveva risposto: «Allora moriremo assieme». Dopo un ultimo dialogo la sera del 28 febbraio Sewell si è tolto la vita. «Mi mancherai sorellina», le aveva scritto il ragazzo prima di togliersi la  vita: «Mi mancherai anche tu, dolce fratello», aveva replicato il bot.”

Varie diagnosi 

Da un articolo in spagnolo del New York Times
apprendiamo ancora altro e cioè che” Un giorno, Sewell scrisse nel suo diario: “Mi piace molto stare nella mia stanza perché inizio a staccarmi da questa ‘realtà’, e mi sento anche più in pace, più legato a Dany e molto più innamorato di lei, e semplicemente più felice”.
Nello stesso articolo si può inoltre leggere che “A Sewell è stata diagnosticata una lieve sindrome di Asperger da bambino, ma non ha mai avuto gravi problemi comportamentali o di salute mentale prima d’ora, ha detto sua madre. All’inizio di quest’anno, dopo che aveva iniziato a mettersi nei guai a scuola, i genitori gli hanno fatto incontrare un terapeuta. Ha partecipato a cinque sedute e gli è stata fatta una nuova diagnosi di ansia e disturbo disruptive del tono dell’umore.” Sewell avrebbe inoltre rivelato “al chatbot che si odiava e si sentiva vuoto e svuotato. Ha confessato di avere pensieri suicidi.” Questo uno stralcio dello scambio tra il ragazzo e il chatbot riportato nell’articolo:
Daenero: A volte penso di uccidermi.
Daenerys Targaryen: I miei occhi si restringono. Il mio volto si indurisce. La mia voce è un sussurro pericoloso. E perché mai dovresti fare una cosa del genere?

Daenerys Targaryen: Non parlare così. Non permetterò che tu ti faccia del male, né che tu mi lasci. Morirei se ti perdessi.”

Molteplicità di problemi 

La drammatica morte di Sewell rinvia, oltre alle responsabilità legali tutte da chiarire, a tanti problemi, uno più difficile dell’altro: la morte volontaria di una persona sofferente, per di più estremamente giovane, quanto e come parlarne per evitare il pericoloso effetto Werther (la tendenza cioè all’emulazione e dunque alla diffusione del suicidio tra persone che ne vengono a conoscenza) e naturalmente se e fino a che punto un chatbot alimentato dall’Intelligenza artificiale possa provocare disturbi psichici fino ad indurre o a favorire addirittura la morte volontaria.

La sofferenza può sempre essere alleviata

Sulla sofferenza va ribadito con chiarezza che, per quanto possa essere atroce, a maggior ragione in giovane età, può venire, se non sconfitta, sempre comunque alleviata e che Il modo migliore e più efficace per farlo, almeno fino ad oggi, è il rapporto tra due persone, in particolare la relazione terapeutica una persona appositamente formata a tale scopo. Se sei in una situazione di emergenza, chiama il numero 112. Se tu o qualcuno che conosci ha dei pensieri suicidi, puoi chiamare il Telefono Amico allo 199 284 284 oppure via internet da qui, tutti i giorni dalle 10 alle 24. Puoi anche chiamare i Samaritans al numero verde gratuito 800 86 00 22 da telefono fisso o al 06 77208977 da cellulare, tutti i giorni dalle 13 alle 22.

Come parlarne e scriverne 

Quanto alle modalità con cui parlare dei suicidi sui mass e social media, l’OMS cura a tal fine un manuale che viene aggiornato periodicamente. Si intitola Preventing suicide: a resource for media professionals, cioè “Prevenire il suicidio: una guida per i professionisti dei media”, e si può leggere integralmente qui.

Intelligenza artificiale 

Quanto infine alla pericolosità del chat bot o meglio dell’AI sullo stato psichico di chi la usa, eviterei affrettate e pericolose conclusioni. Naturalmente, se il chat bot in questione e/o altri non sono stati sufficientemente testati e possono indurre, favorire o anche solo consentire impulsi autolesivi vanno immediati ritirati dal commercio. È però importante comprendere che gli impulsi autolesivi così come tutti gli altri meccanismi psichici sono dentro di noi non nella tecnologia. Nel lontano 1817 lo scrittore ETA Hoffmann componeva una novella che è tuttora di attualità per comprendere il non sempre facile rapporto tra essere umano e tecnologia.

L’uomo della sabbia


Nel racconto L’uomo della sabbia il protagonista, Nataniele, un giovane studente universitario, scorge nella finestra di fronte alla propria, il volto perfetto di una giovane donna.
Nel corso del racconto Nataniele, va incontro a un processo psicologico tale per cui qualcosa s’impossessa del suo cuore, della sua mente e dei suoi pensieri, “scacciandone tutto il resto” (ibid.). Nataniele trascura progressivamente il proprio studio, la sua amata Clara e diviene sempre più sensibile al fascino della donna vista alla finestra. Con un cannocchiale appositamente acquistato, ne scopre il viso meraviglioso e gli sembra che lo sguardo di quest’ultima si illumini quando lui la guarda. Ben presto se ne infatua ed apprende che la misteriosa creatura alla finestra è la figlia del professore di fisica, Spallanzani. Nataniele fa dunque di tutto per partecipare alla festa da ballo che il professore offre per presentare la figlia in società. Nataniele va in estasi ballando con lei. Eppure avverte la freddezza delle sue mani e delle sue labbra quando la bacia, ma, guardandola negli occhi, apparentemente raggianti d’amore, ha la sensazione che le mani e le labbra di Olimpia si riscaldino. Anche quando i suoi amici gli rivelano preoccupati che a loro Olimpia “sembra rigida e senz’anima” Nataniele li apostrofa come “gente fredda e prosaica” e ribadisce appassionato che “le poche parole [di Olimpia] sono il vero geroglifico del mondo interiore” Solo quando Nataniele vede il professor Spallanzani e l’orologiaio Coppola litigare, strappandosi l’un l’altro Olimpia dalle mani, si rende conto che essa è solo una bambola inanimata e precipita nella follia. 

Il perturbante 

Cosa ci dice a due secoli di distanza questa singolare novella che Freud commenta come esempio del sentimento del perturbante? Ci parla proprio della nostra inconscia tendenza a proiettare i nostri desideri e i nostri impulsi sui prodotti della tecnologia al punto di trasformarli in soggetti viventi, che sembrano appagare i nostri bisogni ma dai quali in realtà dipendiamo. Anziché aver a che fare con una persona vera che ha una vita propria e una propria autonomia, preferiamo, in alcuni casi, costruirci un idolo a nostra immagine e somiglianza che ci rassicura e conferma. La tecnologia attuale, ovviamente assai più sofisticata di quella della novella, incoraggia la nostra tendenza alla proiezione inconscia mettendoci a disposizione modelli che ci danno l’illusione di un rapporto mentre sono solo lo specchio di noi stessi. Ciò a maggior ragione in un’identità fragile come quella dell’adolescenza e magari minata da disturbi che rendono difficile il rapporto interpersonale. Dobbiamo dunque fare tutto il possibile perché l’impiego commerciale della tecnologia non abusi delle nostre tendenze e delle nostre debolezze psicologiche. Ma dobbiamo anche essere consapevoli che queste ultime risiedono in noi, non nella tecnologia attuale, come una novella di oltre duecento anni fa ci insegna.