OpenAI lancia GPT‑5.3‑Codex‑Spark: coding in tempo reale con contesto fino a 128k

OpenAI lancia GPT‑5.3‑Codex‑Spark, un modello ottimizzato per il coding in tempo reale con contesto fino a 128k, offrendo modifiche immediate, prestazioni elevate e integrazione hardware a bassa latenza.

OpenAI lancia GPT‑5.3‑Codex‑Spark: coding in tempo reale con contesto fino a 128k

OpenAI ha presentato GPT‑5.3‑Codex‑Spark, una versione più compatta e veloce del precedente GPT‑5.3‑Codex, progettata per il coding in tempo reale. Questo nuovo modello punta a rendere l’esperienza di sviluppo immediata e fluida, con prestazioni ottimizzate su hardware ultra‑low latency grazie alla collaborazione con Cerebras. Con un throughput superiore a 1.000 token al secondo e una finestra di contesto fino a 128k, Codex‑Spark permette di gestire modifiche mirate, aggiornamenti di logica o interventi sull’interfaccia con risultati quasi istantanei, pur rimanendo compatibile con attività più lunghe affidate agli altri modelli Codex.

Tra le principali caratteristiche, il modello offre prestazioni interattive ottimizzate: esegue modifiche minime di default e non lancia test a meno che non venga richiesto esplicitamente. Nei benchmark, Codex‑Spark ha superato GPT‑5.3‑Codex sia in accuratezza sia in velocità su piattaforme come SWE‑Bench Pro e Terminal‑Bench 2.0. Le ottimizzazioni end-to-end riducono l’overhead di comunicazione client-server dell’80%, l’overhead per token del 30% e il tempo al primo token del 50%, grazie anche all’uso predefinito di connessioni WebSocket persistenti.

Sul fronte hardware, il modello sfrutta la Cerebras Wafer Scale Engine 3 per garantire inferenza a bassa latenza, mentre le GPU restano disponibili per carichi più pesanti e cost-efficient. Codex‑Spark supporta due modalità di coding: interattiva e in tempo reale, oppure per attività di lunga durata, offrendo così un equilibrio tra immediatezza e capacità di elaborazione su compiti complessi. Dal punto di vista della sicurezza, il modello integra le linee guida standard di OpenAI, inclusi protocolli per contenuti cyber‑rilevanti, ed è stato valutato per non superare soglie di rischio elevato su applicazioni critiche.

Secondo OpenAI, Codex‑Spark rappresenta il primo passo verso un Codex a doppia modalità, capace di combinare ragionamento su orizzonti lunghi e collaborazione interattiva in tempo reale. L’obiettivo è rendere l’interazione più naturale e consentire agli sviluppatori di trasformare idee in software funzionante in modo rapido, senza che la velocità di interazione diventi un collo di bottiglia. Al momento, la versione di anteprima è disponibile per utenti ChatGPT Pro tramite l’app Codex, il CLI e l’estensione per VS Code, mentre l’accesso API è limitato a partner selezionati e sarà gradualmente esteso. L’input è attualmente solo testuale, ma future release potrebbero includere supporto multimodale e modelli di dimensioni maggiori, aprendo la strada a un coding sempre più immediato e integrato nell’ecosistema OpenAI.

Continua a leggere su Fidelity News