Nel panorama in continua evoluzione dell’intelligenza artificiale, due novità recentemente annunciate da Anthropic e OpenAI stanno attirando l’attenzione di sviluppatori e utenti: la nuova funzionalità di ricerca web di Claude e i modelli audio avanzati di OpenAI per gli assistenti vocali. Entrambe le innovazioni puntano a migliorare l’interazione con l’utente, rendendo le esperienze con l’intelligenza artificiale più intelligenti, precise e personalizzabili. Scopriamo insieme come queste due novità promettano di rivoluzionare il settore.
Claude ora può navigare sul web: nuove funzionalità di ricerca
Il 21 marzo 2025, Anthropic ha annunciato una delle novità più attese per il suo chatbot Claude: la capacità di navigare sul web in tempo reale. Questa funzionalità, che era stata richiesta da molti utenti e sviluppatori, permette a Claude di raccogliere informazioni aggiornate direttamente dalla rete, migliorando notevolmente l’efficacia delle risposte. Claude, il chatbot sviluppato dalla compagnia di ricerca sull’intelligenza artificiale con sede a San Francisco, è stato lanciato nel 2023 con i suoi modelli Haiku, Sonnet e Opus. Nonostante la concorrenza di ChatGPT, che da tempo offre la funzionalità di ricerca web, questa nuova capacità permette finalmente a Claude di recuperare informazioni fresche e accurate per rispondere meglio alle richieste degli utenti.
A differenza di ChatGPT, che integra la ricerca web tramite un pulsante dedicato, Claude necessiterà che gli utenti abilitino l’opzione nelle impostazioni del profilo, garantendo una maggiore personalizzazione. Questa novità si rivela particolarmente utile in diversi settori. Per esempio, i team di vendita potranno raccogliere tendenze di mercato e punti critici per migliorare la pianificazione degli account e ottimizzare il successo nelle trattative. Inoltre, gli analisti finanziari potranno accedere ai dati più recenti sui mercati e prendere decisioni più informate. I ricercatori, d’altro canto, potranno approfondire le tendenze emergenti nelle loro aree di interesse, utilizzando le risorse del web per rimanere aggiornati. Una delle caratteristiche che rende questa funzionalità di Claude particolarmente interessante è la trasparenza. Come accade già con ChatGPT, Claude fornirà citazioni dirette alle fonti, permettendo agli utenti di verificare la veridicità delle informazioni. Questo accresce la fiducia nella piattaforma, importante per garantire una buona esperienza d’uso. Attualmente, la funzione di ricerca web è disponibile in anteprima per gli utenti a pagamento negli Stati Uniti, ma si prevede che venga estesa a livello globale, compresi gli utenti gratuiti e quelli di altri paesi.
OpenAI lancia nuovi modelli audio per migliorare gli agenti vocali intelligenti
Nel frattempo, OpenAI ha rilasciato una nuova generazione di modelli audio destinati a migliorare l’interazione con gli assistenti vocali. Questi nuovi modelli, inclusi gpt-4o-transcribe e gpt-4o-mini-transcribe, segnano un passo avanti significativo rispetto ai precedenti modelli di speech-to-text, come Whisper. Grazie all’apprendimento per rinforzo e a un vasto addestramento su dataset audio di alta qualità, questi modelli sono in grado di ridurre drasticamente gli errori di riconoscimento vocale, offrendo una comprensione più accurata anche in situazioni difficili, come ambienti rumorosi o accenti pronunciati. Un’altra innovazione riguarda il modello gpt-4o-mini-tts, che si occupa della sintesi vocale, migliorando la “sterzabilità” della voce. Questo termine tecnico descrive la capacità di controllare con precisione come il modello articola i contenuti. Sebbene al momento siano disponibili solo voci preimpostate, in futuro OpenAI ha in programma di permettere la personalizzazione delle voci, dando maggiore libertà agli sviluppatori e agli utenti. I nuovi modelli audio sono pensati per essere utilizzati in una vasta gamma di applicazioni, come la trascrizione automatica, l’interazione con assistenti vocali e la conversione testo-voce in tempo reale.
I costi per l’utilizzo dei modelli sono competitivi, con tariffe che variano a seconda del tipo di modello e dell’output richiesto. Per esempio, il modello gpt-4o-transcribe ha un costo di 6 euro per milione di token di input audio e 10 euro per milione di token di output testuale. I prezzi più bassi sono associati al modello gpt-4o-mini-transcribe, che costa 3 euro per milione di token di input audio.