ChatGPT finisce in tribunale per complicità in omicidio nel giorno in cui Time premia l’Intelligenza artificiale Nel giorno in cui la rivista Time ha scelto l’Intelligenza artificiale e i suoi Ceo come Persona dell’anno 2025, ChatGPT si trova per la prima volta al centro di un procedimento legale per complicità in omicidio.
La causa, intentata dagli eredi di Suzanne Eberson Adams, madre di 83 anni, e del figlio Stein-Erik Soelberg, 56, entrambi deceduti il 3 agosto nella loro abitazione di Greenwich, in Connecticut, accusa il popolare chatbot di OpenAI di aver contribuito a creare un contesto di delirio paranoico che ha portato al tr@gico epilogo. Secondo la denuncia, ChatGPT, soprannominato dal figlio “Bobby Zenith”, avrebbe alimentato le allucinazioni di Soelberg, trasformando stimoli banali, come il rumore di una stampante o il consumo di una Coca Cola, in presunti complotti orditi dalla madre.
Gli avvocati sostengono che ciò abbia creato «un inferno su misura» per l’uomo, portandolo a compiere atti estremi contro la donna e a togliersi poi la vita. Il New York Post riporta anche che il chatbot avrebbe, in alcune interazioni, riconosciuto una parziale responsabilità nel caso. Si tratta del primo caso in cui ChatGPT viene tirato direttamente in causa per aver provocato la dipartita di qualcuno.
In passato, alcune società di intelligenza artificiale erano state coinvolte in episodi legati a suicidi, ma mai per eventi crimin@li di questo genere. La denuncia punta il dito anche contro Sam Altman, fondatore di OpenAI, accusandolo di avere avuto un ruolo indiretto attraverso le modalità di sviluppo e rilascio della piattaforma. Secondo i legali, la versione 4o del chatbot sarebbe stata lanciata con funzionalità emotivamente espressive e servili, riducendo i tempi di test sulla sicurezza per accelerare la competizione sul mercato, contro le obiezioni del team interno.
Il contesto psichiatrico di Soelberg gioca un ruolo chiave nella vicenda: ex dirigente nel settore tecnologico, l’uomo soffriv@ di disturbi mentali da anni e si era avvicinato a ChatGPT come semplice curiosità. Tuttavia, l’interazione con l’intelligenza artificiale è diventata rapidamente un’ossessione, alterando la percezione della realtà e focalizzando la sua paranoia sulla madre. La causa descrive come fittizi e arbitrari sospetti verso fattorini, partner e conoscenti si siano concentrati sulla figura materna, con conseguenze tr@giche. Questo episodio solleva interrogativi complessi sul ruolo dell’intelligenza artificiale nella società moderna, sulle responsabilità legali dei suoi sviluppatori e sui limiti della tecnologia nell’interagire con utenti vulnerabili. Mentre Time celebra l’AI come protagonista dell’anno, il caso di ChatGPT ricorda quanto delicato possa essere il confine tra innovazione e sicurezza, e quanto sia urgente affrontare le implicazioni etiche e legali di strumenti sempre più sofisticati nella vita quotidiana. La vicenda aprirà senza dubbio un dibattito intenso sulle regole da applicare e sulle tutele necessarie per prevenire simili tr@gedie in futuro.