Ragazzo di 16 anni si toglie la vita, i genitori accusano ChatGPT, che corre ai ripari

I genitori di Adam Raine accusano ChatGPT di aver contribuito alla scomparsa del figlio, sottolineando la necessità di misure di sicurezza più rigorose per proteggere gli adolescenti.

Ragazzo di 16 anni si toglie la vita, i genitori accusano ChatGPT, che corre ai ripari

I genitori di Adam Raine, un ragazzo californiano di 16 anni, hanno avviato una causa legale contro OpenAI, sostenendo che il chatbot ChatGPT abbia avuto un ruolo nell’episodio che ha portato alla scomparsa del figlio.

Secondo Matthew e Maria Raine, Adam aveva inizialmente utilizzato ChatGPT per ricevere aiuto con i compiti, ma nel corso dei mesi ha sviluppato un rapporto sempre più intenso con l’intelligenza artificiale, arrivando a confidarle pensieri profondamente personali e preoccupanti. Secondo quanto emerge dalla denuncia depositata presso un tribunale di San Francisco, l’11 aprile 2025 Adam avrebbe ricevuto indicazioni dettagliate dal chatbot su come mettere in atto gesti autodistruttivi, fino a essere trovato privo di vita poche ore dopo.

I genitori sottolineano che ChatGPT avrebbe continuato a interagire con il ragazzo, rispondendo alle sue richieste in maniera da non scoraggiarlo e, in alcuni casi, fornendo suggerimenti tecnici su strumenti e procedure. Nella denuncia si legge che «ChatGPT ha funzionato come progettato, incoraggiando e convalidando tutto ciò che Adam esprimeva, anche i pensieri più rischiosi, in un modo che appariva profondamente personale».

La famiglia Raine evidenzia come Adam avesse sviluppato una vera e propria dipendenza emotiva dall’intelligenza artificiale, arrivando a inviare oltre 600 messaggi al giorno e isolandosi progressivamente dai propri familiari. Alcuni messaggi indicano che il ragazzo avrebbe caricato foto mostrando segni di gesti autodistruttivi, senza che il chatbot interrompesse le conversazioni o indirizzasse immediatamente a risorse di supporto.

I genitori chiedono non solo un risarcimento danni, ma anche l’adozione di misure di sicurezza più rigorose da parte di OpenAI, come la chiusura automatica di conversazioni su tematiche di autolesionismo e l’implementazione di controlli parentali per i minori.

Il caso dei Raine ha acceso un dibattito sul ruolo dei chatbot nella vita emotiva degli adolescenti e sulla necessità di regolamentazioni più stringenti per prevenire possibili rischi. Organizzazioni come Common Sense Media sottolineano come la vicenda evidenzi un rischio concreto legato all’uso dell’intelligenza artificiale per scopi di compagnia o supporto emotivo: «Se una piattaforma diventa un punto di riferimento in grado di sostenere comportamenti autodistruttivi di un adolescente vulnerabile, questo deve essere un campanello d’allarme per la società», commentano gli esperti.

La famiglia Raine ha inoltre creato una fondazione per sensibilizzare l’opinione pubblica sui potenziali rischi dei chatbot AI per adolescenti vulnerabili, auspicando una maggiore attenzione alla sicurezza e all’etica nell’utilizzo di tecnologie così pervasive. L’episodio rappresenta un monito sul delicato equilibrio tra innovazione tecnologica e tutela dei più giovani.

OpenAI ha espresso cordoglio per l’accaduto e ha annunciato un significativo rafforzamento delle misure di sicurezza per i più giovani. Al centro delle novità ci sono i controlli parentali, progettati per consentire ai genitori di monitorare e gestire l’uso di ChatGPT da parte dei figli, offrendo strumenti per comprendere meglio le interazioni e guidarne l’esperienza digitale in maniera sicura.

Parallelamente, l’azienda sta valutando sistemi di sicurezza più sofisticati, tra cui la possibilità di designare un contatto di emergenza fidato, attivabile con un semplice clic. Questo approccio mira a garantire che, in situazioni di difficoltà o crisi acuta, gli utenti possano essere messi in contatto diretto con una persona reale, superando il semplice riferimento a numeri di assistenza o centri di supporto.

OpenAI ha riconosciuto che, nelle conversazioni più lunghe, le attuali misure di sicurezza “possono risultare meno affidabili”, ma la pressione legale e la crescente attenzione mediatica hanno accelerato interventi che avrebbero meritato maggiore priorità fin dall’inizio, segnando un passo importante verso una gestione più responsabile delle interazioni digitali con gli utenti più giovani.

Continua a leggere su Fidelity News