OpenAI ha annunciato due nuovi modelli di intelligenza artificiale, o3 e o4-mini, descritti come i più avanzati mai realizzati per capacità di ragionamento, utilizzo degli strumenti, prestazioni multimodali e sicurezza. Secondo quanto dichiarato dalla stessa OpenAI, i modelli o3 e o4-mini rappresentano un vero salto generazionale. Pensati per utenti comuni e ricercatori avanzati, sono in grado di elaborare risposte complesse in meno di un minuto, utilizzando strumenti come la ricerca sul web, l’analisi di file, la generazione di immagini e la programmazione con Python.
L’obiettivo dichiarato è quello di avvicinarsi a un ChatGPT più agentico, capace cioè di prendere decisioni in autonomia su quando e come usare strumenti per risolvere compiti articolati. Il modello o3 rappresenta lo stato dell’arte per il ragionamento computazionale, con risultati record nei benchmark Codeforces, SWE-bench e MMMU. I test condotti da esperti indipendenti evidenziano un miglioramento del 20% nella riduzione degli errori maggiori rispetto al precedente o1, soprattutto in scenari realistici di programmazione, ideazione creativa e scienze applicate. Impressionanti anche le performance nel ragionamento visivo, che lo rendono ideale per compiti complessi in ambiti come la biologia e l’ingegneria.
Più leggero ma altrettanto sofisticato, o4-mini è pensato per chi ha bisogno di alte prestazioni a costi contenuti. È attualmente il miglior modello nei test AIME 2024 e 2025, con capacità eccellenti nel ragionamento numerico e nella scienza dei dati. È particolarmente indicato per scenari ad alto volume, grazie a limiti di utilizzo più generosi rispetto ai modelli precedenti.Entrambi i modelli eccellono nella comprensione delle istruzioni, offrono interazioni più naturali grazie all’uso della memoria e sanno combinare in modo efficace strumenti diversi per fornire risposte complete e dettagliate. Per esempio, possono cercare dati recenti sul consumo energetico, scrivere codice Python per analizzarli, creare un grafico e spiegare il risultato in un linguaggio semplice.
Un’altra novità rivoluzionaria riguarda la capacità di ragionare attraverso le immagini. I modelli sono in grado di interpretare foto sfocate, diagrammi o disegni a mano libera, utilizzandoli come parte attiva del loro processo logico. Questo amplia enormemente il tipo di problemi che l’IA può affrontare, rendendola utile in settori come l’architettura, la meccanica e la medicina. I nuovi modelli migliorano sensibilmente il rapporto costi/prestazioni. Il training di o3 segue il principio secondo cui maggiore potenza di calcolo equivale a migliori risultati, integrando anche un uso avanzato del reinforcement learning. Sul fronte della sicurezza, OpenAI ha introdotto un nuovo dataset di addestramento con prompt di rifiuto su temi delicati come malware o rischi biologici.
I modelli sono stati testati con successo secondo il Preparedness Framework e classificati al di sotto della soglia di rischio elevato. Da segnalare anche il lancio di Codex CLI, uno strumento open source per utilizzare i modelli direttamente da terminale, con supporto multimodale e accesso al codice locale. Per incentivare l’adozione, OpenAI ha avviato un programma di grant da 1 milione di dollari e 25.000 dollari in crediti API per i progetti più promettenti. Dal 16 aprile 2025, i modelli o3 e o4-mini sono disponibili per gli utenti ChatGPT Plus, Pro e Team, mentre arriveranno entro una settimana anche per Enterprise ed Edu. Gli utenti free possono già provare o4-mini selezionando l’opzione “Think” prima dell’invio del prompt. Entrambi i modelli sono accessibili anche via API.