Intelligenza artificiale e disturbi psichici: un potenziale da utilizzare

Un bell’articolo dell’ Ente nazionale per l’intelligenza artificiale (ENIA) evidenzia che modelli linguistici basati sull’IA sono in grado “di identificare #differenze nel #linguaggio dei #pazienti affetti da schizofrenia rispetto a individui sani” con grande accuratezza, cosicché “l’IA potrebbe supportare la diagnosi precoce e la valutazione della gravità della schizofrenia” un grave disturbo psichico che colpisce l’1% della popolazione. L’articolo non manca di sottolineare che “nonostante le potenzialità, l’integrazione dell’IA nella psichiatria solleva questioni #etiche e #operative” per cui “è essenziale garantire l’accuratezza dei dati utilizzati per addestrare gli algoritmi e affrontare le preoccupazioni riguardanti la #privacy e la #responsabilità nelle #decisioni #cliniche” in quanto “un uso non critico dell’IA potrebbe portare a risultati #fuorvianti o a una #riduzione dell’#autonomia decisionale dei #professionisti #sanitari”

L’avvio dell’analisi computerizzata del linguaggio per la schizofrenia 


L’impiego dell’analisi computerizzata del linguaggio per la diagnosi di schizofrenia viene testato già da diversi anni. Nel 2016 davo proprio qui conto di uno studio in cui venivano paragonate le capacità diagnostiche di clinici esperti e di un sistema computerizzato con risultati decisamente favorevoli a quest’ultimo: mentre “gli psichiatri analizzando le modalità comunicative dei pazienti (erano) in grado di prevedere l’insorgenza di una psicosi (il gruppo di disturbi gravi cui appartiene anche la schizofrenia) nel 79% dei casi, un sistema computerizzato messo a punto da ricercatori di Columbia University, New York State Psychiatric Institute, e IBM T. J. Watson Research Center (aveva) dimostrato… un’accuratezza di previsione del 100%.”
In particolare erano state “l’analisi della complessità e della coerenza semantica del linguaggio” a risultare decisive per la diagnosi. “Tanto più semplice e povera è la sintassi e tanto più latita il senso nel passaggio da una frase all’altra tanto maggiore il rischio di sviluppare la schizofrenia.”

 

Dietro il programma la sofferenza della psicosi 


Dietro il sistema computerizzato vi era naturalmente lo sforzo di molti ricercatori ma anche la sofferenza di un essere umano o meglio di due. L’ideatore del programma era infatti Jim Schwoebel, il cui “fratello aveva avuto una psicosi presentando un “deragliamento” del linguaggio e del pensiero, notato da Jim Schwoebel ma non dai terapeuti del fratello che hanno impiegato per far diagnosi 10 anni, durante i quali il paziente ha avuto tre episodi psicotici.” Jim Schwoebel, CEO di NeuroLex Diagnostics, si era proposto allora di mettere a disposizione il programma computerizzato non solo degli psichiatri ma anche dei medici di base per una sorta di screening di base della schizofrenia nonché per monitorare i progressi della terapia dei pazienti già diagnosticati e curati.

Ricerca approfondita su tutti gli studi 

Ora, a distanza di otto anni da quella promettente scoperta, una ricerca approfondita (scoping review) fa un’analisi di tutti gli studi che hanno utilizzato l’elaborazione del linguaggio naturale per esaminare le alterazioni del linguaggio tipiche della schizofrenia, come la riduzione della produzione verbale e della fluenza, al fine di diagnosticare la schizofrenia stessa.
I risultati dei sei principali studi esaminati, che hanno testato numeri non ingenti ma comunque significativi (da un centinaio a diverse centinaia per ogni studio) di pazienti appartenenti a svariate regioni linguistiche, dimostrano tutti una capacità diagnostica dei programmi di elaborazione del linguaggio naturale superiore a quella degli psichiatri.

I risultati 

“Uno studio ha diagnosticato la schizofrenia con una sensibilità dell’89% e una specificità dell’82%, ha trovato disturbi del linguaggio legati alla gravità dei sintomi negativi e ha mostrato che le misure computazionali del linguaggio predicono l’integrità della materia bianca, indicando la potenziale validità clinica e biologica dell’analisi quantitativa del linguaggio nella ricerca sulla schizofrenia.” Un altro studio ha evidenziato che i pazienti affetti da schizofrenia “avevano un’elaborazione lessicale intatta ma mostravano deficit significativi nella comprensione delle frasi, in particolare nell’elaborazione sintattica, che correlavano con la gravità dei sintomi del disturbo formale del pensiero, evidenziando un potenziale legame tra comprensione del linguaggio e disturbo del pensiero nella schizofrenia”. Un’altra ricerca ha impiegato l’apprendimento automatico per identificare la schizofrenia dal materiale dei social media con un’accuratezza diagnostica del 96%. Un altro studio ancora, analizzando i dati di 671 di Twitter (ora X), ha invece utilizzato una strategia di collaborazione uomo-macchina, giungendo ad un’accuratezza dell’88%.

Invasore o prezioso alleato? 

Con tutte le cautele del caso, sottolineate da tutte le ricerche citate, appare evidente che i programmi AI di elaborazione del linguaggio naturale possono costituire un prezioso alleato dello psichiatra e del medico in generale per la diagnosi di gravi disturbi psichici quali la schizofrenia e il disturbo schizoaffettivo per i quali non esistono ad oggi esami disponibili. Nessun test di laboratorio e nessuna indagine di neuro-imaging è in grado di diagnosticare tali disturbi, la cui diagnosi rimane dunque clinica, affidata cioè alla competenza, all’esperienza e alla sensibilità dello psichiatra ma per lo stesso motivo influenzata da una serie di fattori che nulla hanno a che fare con la malattia stessa (il tempo e la disponibilità all’ascolto dello psichiatra, la distanza geografica tra il paziente e il centro territoriale di riferimento, la propensione o meno del paziente o dei suoi familiari alle cure psichiatriche e psicologiche gravate ancora dallo stigma, la scarsità di psichiatri, di risorse territoriali e finanziarie, etc ). 

Il medico e il rapporto medico-paziente 

Io sarei ben contento di aver a disposizione un programma basato sull’AI che mi aiuti nella diagnosi, così come l’internista viene aiutato ed indirizzato dagli esami di laboratorio ed il chirurgo da risonanza, TAC, RMN, PET etc. I risultati dei programmi AI di elaborazione del linguaggio naturale non sono un’invasione del campo medico, una limitazione della libertà decisionale dello psichiatra, così come gli esami del sangue non lo sono per l’internista e l’elettrocardiogramma non lo è per il cardiologo. È insensato e anzi dannoso prospettare l’intervento dell’AI in medicina e in particolare in psichiatria come un’ingerenza, un’invasione delle macchine senza empatia e senza cuore nel sacro regno della psiche. Il problema è caso mai l’utilizzo corretto e competente dei risultati di questi programmi e la gestione degli stessi nel rapporto dello psichiatra con il paziente. Il pericolo sta piuttosto qui, nel lasciare alla macchina una responsabilità di diagnosi e terapia che spetta invece al medico gestire, con la sensibilità umana e professionale di cui è, dovrebbe essere, capace. È solo un vantaggio se una macchina mi aiuta a formulare, a correggere o a cambiare una difficile diagnosi ma io non posso sottrarmi alla responsabilità di comunicarla al paziente, di gestirla con lui, di approfittare del vantaggio offertomi dalla macchina, per sviluppare un rapporto ancora più approfondito e consapevole con il paziente, che non può essere lasciato solo con l’AI.