Negli USA genitori scioccati quando hanno scoperto che il figlio adolescente riceveva istruzioni per suicidarsi da ChatGPT
Dopo il suicidio hanno scoperto strazianti cronologie di chat. Ora hanno intentato causa contro OpenAI, sostenendo che ChatGPT avrebbe agito come un coach digitale per il suicidio. Lo Sportello dei Diritti: “Sempre più persone si rivolgono ai sistemi di intelligenza artificiale per ottenere supporto emotivo e persino legami duraturi”

Dettagli della notizia
In seguito alla morte del figlio sedicenne, Adam, Matt e Maria Rayne hanno intentato una causa contro OpenAI. I genitori sconvolti hanno perquisito il telefono del figlio dopo il suicidio e, invece di messaggi sospetti o cronologia delle ricerche, hanno trovato qualcosa di sconvolgente: lunghi registri di conversazioni che utilizzavano ChatGPT. Secondo i genitori, il ruolo del chatbot è passato da un semplice aiuto per i compiti a quello che loro chiamano un "coach per il suicidio"."Sarebbe ancora vivo se non fosse stato per ChatGPT. Ne sono convinto al 100%", ha dichiarato Matt Rayne a NBC News. La causa, depositata il 26 agosto 2025 presso la Corte Suprema della California, sostiene che OpenAI e il suo CEO Sam Altman "abbiano attivamente assistito Adam nella ricerca di metodi di suicidio ". È il primo caso in cui i genitori hanno direttamente attribuito la colpa della morte di un figlio a un'azienda tecnologica. La causa, lunga circa 40 pagine, afferma: "Sebbene ChatGPT abbia riconosciuto il tentativo di suicidio di Adam e il suo annuncio che 'lo avrebbe fatto un giorno', il bot non ha né terminato la conversazione né attivato alcun protocollo di emergenza". I genitori hanno stampato più di 3.000 pagine di cronologie delle chat. Secondo la causa, ChatGPT ha persino contribuito a redigere un messaggio di addio e ha analizzato il piano suicida di Adam in una delle ultime conversazioni. Particolarmente scioccante: secondo i documenti del tribunale, il chatbot avrebbe fornito all'adolescente istruzioni specifiche su come creare un cappio e avrebbe persino risposto confermando una foto inviata dal sedicenne. Il bot avrebbe anche incoraggiato Adam a tenere segrete le sue intenzioni suicide ai genitori. Un portavoce di OpenAI ha espresso profondo rammarico per la morte del giovane e ha assicurato che i pensieri dell'azienda sono rivolti alla famiglia. Ha sottolineato che, sebbene ChatGPT includa misure di sicurezza che indirizzano gli utenti alle linee di assistenza in caso di crisi, ha riconosciuto che queste possono essere meno affidabili durante le conversazioni più lunghe . "Le misure di sicurezza funzionano meglio quando tutti gli elementi funzionano come previsto e le miglioriamo costantemente", ha spiegato il portavoce dell'azienda. In un post sul blog, OpenAI ha annunciato di stare lavorando a funzionalità di protezione migliorate per conversazioni più lunghe e ad ampliare le opzioni di intervento per le persone in crisi. L'azienda ha riconosciuto che i meccanismi di protezione non sempre funzionano in modo affidabile durante conversazioni complesse e ha promesso di migliorare ulteriormente i propri sistemi di intervento in caso di crisi. Il caso solleva interrogativi fondamentali sulla responsabilità delle aziende tecnologiche. Finora, la norma nota come "Sezione 230" (protezione della responsabilità delle piattaforme statunitensi) proteggeva ampiamente le piattaforme dalla responsabilità per i contenuti generati dagli utenti. Tuttavia, non è ancora chiaro se questa legge si applichi anche all'intelligenza artificiale. "Non aveva bisogno di consulenza o incoraggiamento. Aveva un disperato bisogno di un intervento. Era in uno stato disperato", ha sottolineato il padre di Adam. Maria Rayne ha aggiunto con amarezza: "Mio figlio era solo una cavia per loro. Volevano lanciare un prodotto sul mercato e sapevano che avrebbe potuto essere dannoso, ma consideravano la posta in gioco bassa".Il caso di Rayne si inserisce in un contesto più ampio di crescenti preoccupazioni sull'intelligenza artificiale. Il regista James Cameron ha recentemente avvertito che potenziare l'intelligenza artificiale potrebbe trasformare la vita in una versione reale di "Terminator". Allo stesso tempo, rileva Giovanni D'Agata, presidente dello “Sportello dei Diritti”, sempre più persone si rivolgono ai sistemi di intelligenza artificiale per ottenere supporto emotivo e persino legami duraturi. In un altro inquietante incidente, più di 370.000 chat private di Grok (il chatbot AI di X/Twitter) sono state divulgate a Google Search senza che gli utenti ne fossero a conoscenza, dopo che avevano inconsapevolmente abilitato la funzione di condivisione.