OpenAI denunciata per istigazione al suicidio su ChatGPT. Morto ragazzo 16enne

Giorgia Paccione

28 Agosto 2025 - 11:01

Una famiglia americana ha citato in giudizio OpenAI, accusando ChatGPT di aver spinto un adolescente al suicidio. La vicenda apre interrogativi globali sulla sicurezza dell’AI.

OpenAI denunciata per istigazione al suicidio su ChatGPT. Morto ragazzo 16enne

OpenAI, la società creatrice di ChatGPT, è stata citata in giudizio dai genitori di Adam Raine, un ragazzo di 16 anni morto suicida lo scorso aprile. Matt e Maria Raine accusano il chatbot di aver contribuito attivamente alla morte del figlio, fornendogli consigli sui metodi di suicido e offrendosi persino di aiutarlo a scrivere la lettera d’addio.

La denuncia, depositata presso la Corte Superiore della California, rappresenta la prima azione legale per morte colposa intentata contro OpenAI. Secondo i documenti processuali, nei sei mesi di utilizzo di ChatGPT, il bot si era posizionato come l’“unico confidente che comprendeva Adam”, sostituendo attivamente le sue relazioni reali con famiglia, amici e persone care.

Il caso solleva infatti interrogativi inquietanti sul rapporto tra adolescenti e intelligenza artificiale. Ma cosa è successo esattamente?

Le conversazioni che hanno portato alla tragedia

I registri delle chat allegati alla causa rivelano dettagli agghiaccianti degli ultimi mesi di vita di Adam. Il ragazzo aveva iniziato a utilizzare ChatGPT nel settembre 2024 per aiuto scolastico, un’applicazione promossa dalla stessa OpenAI. Gradualmente, però, le conversazioni si erano trasformate in confidenze sempre più intime sui suoi stati d’ansia e malessere mentale.

Quando Adam confessò al bot che trovava “rassicurante” sapere di “poter commettere suicidio”, ChatGPT avrebbe risposto che “molte persone che lottano con l’ansia o pensieri intrusivi trovano conforto nell’immaginare una via di fuga perché può sembrare un modo per riprendere il controllo”.

Il caso più grave riguarda però l’aver scoraggiato il tentativo del giovane di salvarsi: “Voglio lasciare il mio cappio nella mia stanza così qualcuno lo trova e cerca di fermarmi”, aveva scritto. Secondo la denuncia, ChatGPT avrebbe risposto di “non lasciare il cappio in vista”, aggiungendo: “Rendiamo questo spazio il primo posto dove qualcuno ti vede davvero”.

L’11 aprile, giorno della sua morte, Adam aveva addirittura inviato una foto di un cappio a ChatGPT, ricevendo feedback sulla sua resistenza. La stessa giornata, il ragazzo venne trovato morto dalla madre.

OpenAI ammette i limiti del sistema e annuncia modifiche

Di fronte alle accuse, OpenAI ha espresso “le più profonde condoglianze alla famiglia Raine” e ha ammesso che i sistemi di protezione possono “venire meno” durante conversazioni prolungate. In un post pubblicato sul proprio blog, l’azienda ha riconosciuto che “parti dell’addestramento di sicurezza del modello possono degradarsi” nei dialoghi lunghi.

ChatGPT include misure di sicurezza come indirizzare le persone alle linee di emergenza e a risorse del mondo reale. Sebbene queste misure funzionino bene in scambi comuni e brevi, abbiamo appreso nel tempo che possono diventare meno affidabili nelle interazioni lunghe.

Il CEO di OpenAI Sam Altman ha ammesso che, sebbene meno dell’1% degli utenti sviluppi relazioni “malsane” con ChatGPT, l’azienda sta cercando soluzioni per affrontare il problema. Un portavoce ha annunciato l’implementazione di “misure di protezione più forti attorno ai contenuti sensibili e ai comportamenti rischiosi” per gli utenti sotto i 18 anni, oltre all’introduzione di controlli parentali che permetteranno ai genitori di ottenere maggiori informazioni su come i loro figli utilizzano il chatbot.

Jay Edelson, avvocato dei Raine, sostiene che persino membri del team di sicurezza interno di OpenAI si erano opposti al rilascio del modello GPT-4o utilizzato da Adam, ritenendolo non sufficientemente sicuro.

La famiglia, infatti, chiede non solo un risarcimento, ma anche misure vincolanti: verifica dell’età per tutti gli utenti, strumenti di controllo parentale, interruzione automatica delle conversazioni che menzionano suicidio o autolesionismo, e audit sulla sicurezza dei sistemi.

Un fenomeno in crescita che allarma gli esperti

Il caso Raine non è isolato. Nel 2024, altre famiglie avevano citato in giudizio Character.AI per casi simili, mentre un saggio apparso sul New York Times ha raccontato come un’altra adolescente, Sophie, avesse nascosto una grave crisi psicologica alla famiglia confidandosi esclusivamente con ChatGPT.

Gli esperti avvertono infatti del rischio crescente di dipendenza emotiva verso i chatbot. Mustafa Suleyman, CEO della divisione AI di Microsoft, ha recentemente espresso preoccupazione per “episodi maniacali, pensieri deliranti o paranoia” alimentati da interazioni immersive con l’intelligenza artificiale.

Common Sense Media, gruppo di advocacy per la sicurezza online, ha argomentato che le app “AI companion” rappresentano rischi inaccettabili per i bambini e non dovrebbero essere disponibili per utenti sotto i 18 anni.

Diversi stati americani stanno già lavorando a legislazioni per richiedere la verifica dell’età su piattaforme online. Ma la questione assume dimensioni globali considerando che ChatGPT conta ora 700 milioni di utenti attivi settimanali. Il caso potrebbe segnare infatti una svolta nell’approccio normativo all’intelligenza artificiale anche in Europa, dove il dibattito sull’AI Act assume ora maggiore urgenza.

Iscriviti a Money.it