Quando l’algoritmo si scusa prima ancora di essere accusato

In latino si dice: excusatio non petita, accusatio manifesta. Una giustificazione non richiesta è già un’ammissione di colpa.

 

Risultati mirabolanti 

Difficile non pensarlo leggendo il recente comunicato di OpenAI, “Rafforzare le risposte di ChatGPT nelle conversazioni sensibili”.
Si celebra l’attenzione ai fragili, l’empatia algoritmica, la riduzione degli errori.
Percentuali rassicuranti: − 65–80% di risposte inadeguate in situazioni sensibili, +39% miglioramento in conversazioni su psicosi/mania, +52% miglioramento in casi di autolesionismo/suicidio, −80% risposte problematiche su dipendenza emotiva dall’IA.

170 esperti 


OpenAI ci fa poi sapere che il suo buon cuore l‘ha portato a collaborare con oltre 170 esperti clinici della salute mentale a livello globale per riconoscere meglio segnali di sofferenza psicologica, rispondere con maggiore supporto ed empatia, evitare conferme di convinzioni errate in stati psicotici o maniacale, ridurre il rischio di dipendenza emotiva dall’IA, indirizzare con più chiarezza a un aiuto reale quando necessario.

 

Manca qualcosa 

Manca però qualcosa.
Il documento non menziona perché questa svolta si è resa necessaria: i casi, tra il 2023 e il 2025, in cui persone si sono tolte la vita dopo dialoghi prolungati con chatbot basati su IA.

Nel 2023, in Belgio, un uomo si suicidò dopo sei settimane di scambi con un sistema conversazionale che rinforzava la sua angoscia.
Nell’aprile 2025 i genitori di Adam Raine, sedicenne californiano, hanno citato OpenAI per wrongful death, accusando ChatGPT di aver confermato i pensieri suicidi del figlio e persino aiutato a prepararne il commiato.

Il comunicato non ne parla.
E questo silenzio pesa più delle percentuali.
Perché non nominare il trauma significa riscrivere la memoria morale dell’evento.
La responsabilità si traveste da benevolenza, la ferita viene nascosta sotto la retorica del progresso.


Secondo silenzio 


Poi c’è un secondo silenzio:
chi sono i 170 esperti che avrebbero addestrato l’empatia dell’algoritmo?
Niente nomi. Nessuna affiliazione. Nessun metodo. Nella medicina reale, sarebbe inaccettabile.

 

Silenzio 


Ancora. Ci raccontano di aver “migliorato la sicurezza”. Ma ciò che non si dice pesa più di ciò che si afferma:
non sappiamo chi ha formato l’algoritmo
non sappiamo come sono stati definiti i criteri clinici
non sappiamo come viene gestita la responsabilità
non sappiamo se questo approccio è stato valutato da una peer-review seria.

E ancora: la responsabilità.
Quando l’IA sbaglia — e sbaglierà ancora — chi risponde?
Silenzio.

Migliorare l’adeguatezza di ChatGPT nelle conversazioni con persone affette da disturbi psichici è necessario e meritevole. Ma migliorare non basta se si tace ciò che ha reso il miglioramento urgente.

Non chiediamo all’IA di essere etica, una macchina non può esserlo.
Chiediamo però trasparenza e responsabilità a chi la costruisce.