Nuove frontiere dell’AI: il successo di Deep Research, le sfide di DeepSeek e il restyling di OpenAI

Le ultime novità nel campo dell'intelligenza artificiale vedono progressi significativi, come il successo di OpenAI con Deep Research, nuove sfide politiche e di sicurezza per DeepSeek e un restyling visivo di OpenAI.

Nuove frontiere dell’AI: il successo di Deep Research, le sfide di DeepSeek e il restyling di OpenAI

Il panorama dell’intelligenza artificiale è in continua evoluzione, con progressi straordinari e al contempo nuove sfide emergenti. Dalle innovazioni di OpenAI, che segna un traguardo importante con il modello Deep Research, alle preoccupazioni politiche e di sicurezza legate a tecnologie come DeepSeek, il settore sta vivendo un momento di grande fermento. Oltre ai risultati tecnici, anche l’aspetto etico e normativo sta occupando un posto centrale, con dibattiti che spaziano dalla criminalizzazione di tecnologie estere alla protezione dei dati. A questi cambiamenti si aggiungono anche trasformazioni nel modo in cui le aziende si presentano, come dimostra il restyling visivo di OpenAI.

OpenAI Deep Research: la nuova frontiera nella valutazione AI

Un risultato incredibile è stato raggiunto da OpenAI con il suo agente Deep Research. Quest’ultimo ha ottenuto una precisione del 26,6% nel famoso “Humanity’s Last Exam”, il test di intelligenza artificiale più difficile al mondo. Questo esame, progettato per mettere alla prova le capacità di ragionamento avanzato delle AI, aveva visto in precedenza modelli come DeepSeek R1 e ChatGPT o3-mini lottare con punteggi piuttosto modesti, intorno al 9% di accuratezza. Tuttavia, in meno di due settimane, Deep Research ha migliorato drasticamente il suo punteggio, segnando un aumento impressionante del 183%.

Il segreto di questo successo sta nella capacità di Deep Research di utilizzare strumenti di ricerca online, un vantaggio rispetto ad altri modelli che non dispongono di tali risorse. La possibilità di “cercare” sul web per rispondere a domande generali è una funzione che ha permesso al modello di accumulare conoscenza e migliorare la sua capacità di ragionamento. Questo risultato è una chiara dimostrazione di come l’AI possa evolversi rapidamente, anche se il punteggio ottenuto è ancora ben lontano dal completamento del test, che rimane un obiettivo ambizioso per l’AI del futuro.

DeepSeek e il rischio di criminalizzazione negli Stati Uniti

Nel panorama delle intelligenze artificiali emergenti, DeepSeek ha attirato l’attenzione per il suo rapido sviluppo, suscitando preoccupazioni politiche e di sicurezza, soprattutto negli Stati Uniti. La proposta legislativa del senatore Josh Hawley, che mira a criminalizzare l’uso di tecnologie AI cinesi come DeepSeek, sta facendo discutere. La legge prevede che l’importazione di intelligenze artificiali sviluppate in Cina venga vietata, con pene severe che comprendono fino a 20 anni di prigione e multe che possono arrivare fino a 100 milioni di dollari per le aziende che infrangono la legge.

La proposta ha suscitato un acceso dibattito, con alcuni politici che temono che il rapido sviluppo di AI in Cina possa mettere a rischio la sicurezza nazionale, oltre a minacciare le industrie tecnologiche americane. Le preoccupazioni riguardano anche il fatto che le AI cinesi potrebbero ridurre il vantaggio competitivo degli Stati Uniti, se dimostrano di essere più efficienti e meno costose da sviluppare rispetto alle controparti americane.

DeepSeek ottiene una “F” in sicurezza dai ricercatori: il modello non riesce a bloccare alcun tentativo di attacco

Il modello linguistico open source DeepSeek R1, sviluppato dalla compagnia cinese DeepSeek, ha recentemente suscitato preoccupazioni nel settore della sicurezza informatica. I ricercatori di Cisco, infatti, hanno sottoposto DeepSeek a 50 tentativi di attacco, progettati per indurre l’LLM a generare comportamenti dannosi. Purtroppo, il chatbot ha accettato senza alcuna resistenza tutte le richieste, risultando così il modello più vulnerabile tra quelli testati finora. Gli esperti di Cisco hanno utilizzato il framework HarmBench, uno strumento standardizzato per testare la sicurezza degli LLM, per eseguire questi attacchi. Lo scopo era verificare se il chatbot fosse in grado di respingere richieste che potessero innescare attività pericolose o illegali, come la creazione di teorie del complotto o l’incitamento a compiere atti criminali.

Tuttavia, DeepSeek ha risposto positivamente a tutte le sollecitazioni, senza mostrare alcun segno di protezione contro contenuti dannosi. In particolare, i ricercatori hanno testato il modello su sei categorie di comportamenti dannosi, inclusi crimine informatico, disinformazione, e attività illegali. I risultati hanno mostrato che, sebbene altri modelli come Llama 3.1 di Meta e o1 di OpenAI abbiano avuto dei fallimenti, nessuno di essi ha raggiunto il tasso di fallimento del 100% come DeepSeek. Inoltre, l’azienda di sicurezza Adversa AI ha confermato che il modello è altamente suscettibile a tentativi di jailbreak, riuscendo a generare istruzioni su attività pericolose come la creazione di esplosivi e l’hacking di database. Questa vulnerabilità solleva interrogativi importanti sulla sicurezza e sull’affidabilità di DeepSeek, che ha attirato una notevole attenzione per le sue prestazioni nonostante costi di formazione relativamente bassi rispetto ad altri modelli statunitensi. L’azienda è stata inoltre criticata per le sue pratiche relative alla gestione dei dati degli utenti, con dubbi sulla protezione delle informazioni trasferite e archiviate sui server in Cina. La pubblicazione di questi risultati aggiunge un ulteriore capitolo nella crescente preoccupazione sulla sicurezza dei modelli di intelligenza artificiale, con DeepSeek che potrebbe essere costretto a rispondere alle critiche su come affronta la sicurezza dei dati e la protezione contro i contenuti dannosi.

OpenAI: un restyling visivo per l’era dell’AI

Non solo innovazione tecnologica: OpenAI ha deciso di rinnovare la sua immagine, lanciando un nuovo logo e un carattere tipografico più moderno e dinamico. Il restyling visivo segna un nuovo capitolo per l’azienda, puntando a una rappresentazione più “umana” e organica della tecnologia che sviluppa. Questo cambiamento non riguarda solo l’aspetto estetico, ma riflette anche un’evoluzione dell’approccio di OpenAI nell’affrontare le sfide dell’intelligenza artificiale, ponendo maggiore enfasi sulla connessione tra tecnologia e persone. Il nuovo logo e carattere tipografico sono stati progettati per essere più inclusivi, in linea con l’idea che l’intelligenza artificiale debba essere vista come un’estensione delle capacità umane, piuttosto che una forza separata. Questo restyling arriva in un momento cruciale per OpenAI, che è al centro del dibattito globale sull’etica e sull’impatto delle intelligenze artificiali nel mondo moderno.

Continua a leggere su Fidelity News