Svolta per ChatGPT: niente più consigli medici e legali su direttiva OpenAI – Tutto quello che c’è da sapere

OpenAI ha aggiornato le sue policy: ChatGPT non può più offrire consulenze mediche e legali personalizzate, ma resta possibile fornire informazioni generali e divulgative, per garantire maggiore sicurezza e rispetto delle normative.

Svolta per ChatGPT: niente più consigli medici e legali su direttiva OpenAI – Tutto quello che c’è da sapere

Nelle ultime settimane ha fatto molto discutere in Italia e nel mondo la decisione di OpenAI, l’azienda creatrice di ChatGPT, di aggiornare le proprie policy in materia di consigli forniti tramite i modelli di intelligenza artificiale. Tantissimi utenti si sono imbattuti su social network e canali di informazione nella notizia, spesso semplificata o mal riportata, secondo cui “ChatGPT non potrà più dare consigli medici e legali”. Ma cosa c’è di vero? E perché si è giunti a questa svolta?

Il cuore della questione risiede nel crescente peso normativo e nella attenzione globale verso le implicazioni etiche, legali e sociali dell’AI. Negli Stati Uniti, l’uso dell’intelligenza artificiale in materia di salute, diritto e finanza è sotto attento scrutinio: errori o fraintendimenti generati da un chatbot potrebbero avere conseguenze serie, dalla salute personale a processi giudiziari, fino ad abusi finanziari. In Europa, l’adozione dell’AI Act (il regolamento europeo sull’intelligenza artificiale) ha spinto molte compagnie tech a riesaminare le proprie policy.

In questo clima, OpenAI ha scelto, a fine ottobre 2025, di aggiornare le “usage policies” della piattaforma, specificando che ChatGPT e gli altri modelli dell’azienda non possono più fornire consulenze personalizzate in ambiti delicati come sanità, diritto e finanza. Il cambiamento, attivo ufficialmente dal 29 ottobre 2025, obbliga tutti i fornitori e sviluppatori che utilizzano l’API OpenAI a rispettare queste limitazioni. 

Contrariamente a quanto riportato in alcune fake news circolate (e subito smentite da OpenAI stessa e da siti autorevoli come Punto Informatico), ChatGPT può ancora fornire informazioni generali, divulgative e spiegazioni su temi medici, legali o finanziari.

La differenza fondamentale riguarda il livello di personalizzazione e autorevolezza: non sarà più possibile ottenere valutazioni sul proprio caso clinico, consigli su terapie personalizzate, opinioni giuridiche su singole controversie o indicazioni su investimenti tagliati sulle specifiche esigenze dell’interlocutore.

Questa distinzione si traduce in una garanzia di tutela per gli utenti, che non potranno confondere chatbot e intelligenza artificiale con la consulenza fornita da professionisti abilitati. Ogni richiesta che punti a un parere medico o giuridico personalizzato verrà bloccata, o comunque riceverà una risposta che invita a rivolgersi a un esperto umano. Dal punto di vista normativo, questa svolta anticipa le richieste di trasparenza e responsabilità che molte giurisdizioni stanno ponendo alle AI company. In ambito europeo, ad esempio, la legge impone già stringenti limiti sulla responsabilità delle piattaforme quando si tratta di settori “critici”, come salute e diritto. Proprio per evitare sanzioni o battaglie legali, le grandi AI company sono corse ai ripari con mosse prudenti e trasparenti. 

Continua a leggere su Fidelity News