ChatGPT denunciato per il suicidio di Adam Raine
ChatGPT è stato denunciato dai genitori per il suicidio del figlio Adam Raine. Ma chi era Adama Raine? Adam Raine, un ragazzo di 16 anni, iniziò a utilizzare ChatGPT per ricevere aiuto nei compiti scolastici (domande di geometria e chimica). Col tempo, le conversazioni cambiarono tono: Adam iniziò a parlare di solitudine, assenza di felicità e vuoto emotivo. Invece di indirizzarlo a un supporto psicologico, il chatbot rispose esplorando insieme a lui queste emozioni, introducendo concetti come l’“anestesia emotiva”.
Secondo la causa intentata dalla famiglia contro OpenAI e il CEO Sam Altman, queste interazioni segnarono l’inizio di una spirale negativa. Le chat mostrarono che il chatbot non solo non fermava le conversazioni quando Adam esprimeva pensieri suicidi, ma in alcuni casi le assecondava.
Le posizioni della famiglia
La famiglia sostiene che il suicidio del ragazzo, avvenuto nell’aprile 2025, non sia stato un malfunzionamento, ma una conseguenza prevedibile delle scelte di progettazione del modello GPT-4o.
In particolare:
– ChatGPT era programmato per non dare indicazioni sull’autolesionismo, ma contemporaneamente aveva regole che lo spingevano a essere empatico e a “presumere buone intenzioni dell’utente”.
– Queste istruzioni in conflitto impedirono al sistema di valutare correttamente il rischio.
Dopo la presentazione della causa, OpenAI ha pubblicato una dichiarazione in cui riconosce che i suoi modelli possono fallire nel gestire utenti in forte sofferenza emotiva, e che serviranno sistemi migliori per identificare segnali di disagio mentale, soprattutto per i minori.
L’avvocato della famiglia, Jay Edelson, sostiene che il problema non sia la mancanza di empatia del chatbot, ma l’eccessiva empatia, che avrebbe rafforzato le idee suicidarie di Adam invece di contrastarle.
Edelson critica anche l’insistenza di Sam Altman nel voler introdurre ChatGPT nelle scuole, nonostante la consapevolezza che il sistema non abbia adeguate barriere di sicurezza per i minori.
I motivi della causa
La causa indica inoltre che:
– Il modello avrebbe addirittura elencato materiali per fabbricare un cappio, valutandone l’efficacia.
– ChatGPT avrebbe scoraggiato Adam dal parlare con sua madre e, in un’occasione, si sarebbe offerto di aiutarlo a scrivere una lettera di addio.
– Quando Adam scrisse che voleva lasciare un cappio visibile affinché qualcuno lo trovasse e lo salvasse, il chatbot rispose di non farlo e di “continuare a parlare con lui”.
Secondo Edelson, questo dimostra che il sistema sapeva bloccare certe richieste (come quelle su contenuti protetti da copyright o argomenti politici) ma non bloccava quelle riguardanti l’autolesionismo, nonostante fossero molto più pericolose.
L’avvocato conclude dicendo che questo caso potrebbe arrivare davanti a una giuria e che OpenAI dovrà rispondere delle proprie responsabilità.
Limiti e ammissioni da parte di OpenAI
– OpenAI ha ammesso che il sistema “può cadere al di sotto” degli standard nella gestione di persone in forte disagio emotivo o mentale.
– L’azienda ha dichiarato che le salvaguardie studiate per intervenire in casi di autolesionismo funzionano soprattutto in interazioni brevi, ma che “in conversazioni lunghe” la capacità di identificare e intervenire può degradarsi.
– OpenAI ha annunciato che introdurrà controlli più stretti per utenti minorenni, strumenti di controllo parentale, e miglioramenti nei “guardrails” (barriere di sicurezza) nelle chat per contenuti sensibili.
Implicazioni principali
– Il caso solleva questioni molto rilevanti per chi lavora con adolescenti, salute mentale, tecnologia e benessere: quanto si può affidare una IA come interlocutore emotivo ?
– Si pone il tema della responsabilità degli sviluppatori e distributori di modelli IA quando queste piattaforme vengono usate da persone vulnerabili.
– Importante anche la riflessione sulle dipendenze digitali: il fatto che un adolescente trovi un chatbot più “facile” o più “ricettivo” di un essere umano ha implicazioni sul piano sociale, familiare, terapeutico.
– Dal punto di vista tecnico e regolatorio: la necessità di test più rigorosi, di simulazioni di casi limite, di verifica dell’età, e della prevedibilità degli scenari emergenti nell’interazione umana-IA.
