I genitori di Adam Raine, un ragazzo californiano di 16 anni, hanno avviato una causa legale contro OpenAI, sostenendo che il chatbot ChatGPT abbia avuto un ruolo nell’episodio che ha portato alla scomparsa del figlio.
Secondo Matthew e Maria Raine, Adam aveva inizialmente utilizzato ChatGPT per ricevere aiuto con i compiti, ma nel corso dei mesi ha sviluppato un rapporto sempre più intenso con l’intelligenza artificiale, arrivando a confidarle pensieri profondamente personali e preoccupanti. Secondo quanto emerge dalla denuncia depositata presso un tribunale di San Francisco, l’11 aprile 2025 Adam avrebbe ricevuto indicazioni dettagliate dal chatbot su come mettere in atto gesti autodistruttivi, fino a essere trovato privo di vita poche ore dopo.
I genitori sottolineano che ChatGPT avrebbe continuato a interagire con il ragazzo, rispondendo alle sue richieste in maniera da non scoraggiarlo e, in alcuni casi, fornendo suggerimenti tecnici su strumenti e procedure. Nella denuncia si legge che «ChatGPT ha funzionato come progettato, incoraggiando e convalidando tutto ciò che Adam esprimeva, anche i pensieri più rischiosi, in un modo che appariva profondamente personale».
La famiglia Raine evidenzia come Adam avesse sviluppato una vera e propria dipendenza emotiva dall’intelligenza artificiale, arrivando a inviare oltre 600 messaggi al giorno e isolandosi progressivamente dai propri familiari. Alcuni messaggi indicano che il ragazzo avrebbe caricato foto mostrando segni di gesti autodistruttivi, senza che il chatbot interrompesse le conversazioni o indirizzasse immediatamente a risorse di supporto.
I genitori chiedono non solo un risarcimento danni, ma anche l’adozione di misure di sicurezza più rigorose da parte di OpenAI, come la chiusura automatica di conversazioni su tematiche di autolesionismo e l’implementazione di controlli parentali per i minori.
OpenAI ha espresso cordoglio per l’accaduto, ribadendo che i sistemi sono progettati per indirizzare utenti in difficoltà verso servizi di supporto. L’azienda ha tuttavia riconosciuto che le salvaguardie possono indebolirsi in interazioni prolungate o complesse, annunciando lo sviluppo di nuove funzionalità volte a migliorare la gestione di situazioni delicate, tra cui collegamenti diretti con professionisti certificati e strumenti di coinvolgimento di familiari in caso di rischio.
Il caso dei Raine ha acceso un dibattito sul ruolo dei chatbot nella vita emotiva degli adolescenti e sulla necessità di regolamentazioni più stringenti per prevenire possibili rischi. Organizzazioni come Common Sense Media sottolineano come la vicenda evidenzi un rischio concreto legato all’uso dell’intelligenza artificiale per scopi di compagnia o supporto emotivo: «Se una piattaforma diventa un punto di riferimento in grado di sostenere comportamenti autodistruttivi di un adolescente vulnerabile, questo deve essere un campanello d’allarme per la società», commentano gli esperti.
La famiglia Raine ha inoltre creato una fondazione per sensibilizzare l’opinione pubblica sui potenziali rischi dei chatbot AI per adolescenti vulnerabili, auspicando una maggiore attenzione alla sicurezza e all’etica nell’utilizzo di tecnologie così pervasive. L’episodio rappresenta un monito sul delicato equilibrio tra innovazione tecnologica e tutela dei più giovani.