Negli ultimi anni, i chatbot basati su intelligenza artificiale come ChatGPT sono diventati strumenti quotidiani per milioni di persone in tutto il mondo, utilizzati per lavoro, studio e intrattenimento. Tuttavia, la fiducia degli utenti nella privacy di queste piattaforme è stata recentemente messa alla prova da una decisione della giustizia statunitense.
Il 3 dicembre 2025, la giudice federale Ona Wang ha ordinato a OpenAI di fornire 20 milioni di registri di utilizzo del chatbot nell’ambito di una causa legale promossa dal New York Times, mirata a verificare possibili violazioni di copyright legate all’addestramento dei modelli AI. Il procedimento legale, iniziato nel 2023, accusa OpenAI di aver utilizzato contenuti del giornale senza autorizzazione per addestrare ChatGPT e cerca di contrastare eventuali manipolazioni del bot a fini probatori.
Per questo motivo, l’accesso ai registri storici delle conversazioni potrebbe rivelare informazioni sensibili, anche se i dati vengono anonimizzati. OpenAI ha sottolineato di aver rimosso tutti gli identificatori personali e di aver previsto che le conversazioni più recenti e quelle cancellate dagli utenti rimangano protette, garantendo la rimozione dai sistemi entro 30 giorni.
Brad Lightcap, COO di OpenAI, ha definito la decisione un potenziale rischio per le norme consolidate sulla protezione dei dati, sostenendo che l’ordine sia troppo ampio e possa compromettere la fiducia degli utenti. La società sta attualmente ricorrendo contro l’ordinanza, cercando di trovare un equilibrio tra le richieste legali e la tutela della privacy.
Nonostante le misure di anonimizzazione, gli esperti sottolineano che i dati raccolti, anche senza identificatori diretti, possono fornire indicazioni sui comportamenti e le abitudini degli utenti se analizzati in grandi volumi. Questo episodio evidenzia come la sicurezza delle conversazioni con strumenti AI dipenda non solo dalle politiche aziendali, ma anche da contesti legali esterni che possono influire sulla gestione dei dati. La vicenda rappresenta un campanello d’allarme per tutti gli utenti di chatbot: anche piattaforme avanzate, considerate sicure, possono essere soggette a ordini giudiziari che comportano l’accesso a dati storici. La sfida sarà trovare un equilibrio tra trasparenza, responsabilità legale e tutela della privacy, in un momento in cui l’uso dell’intelligenza artificiale si diffonde sempre più rapidamente nella vita quotidiana.