Meta ha inaugurato una nuova fase del proprio impegno nell’intelligenza artificiale presentando due importanti novità: l’API Llama, pensata per potenziare il lavoro degli sviluppatori, e la nuova app autonoma Meta AI, progettata per offrire un assistente personale vocale e testuale sempre più naturale, sociale e personalizzato. Le due innovazioni, annunciate in occasione della conferenza LlamaCon, rappresentano un’evoluzione significativa dell’ecosistema basato sui modelli linguistici Llama, aprendo scenari inediti sia per il mondo dello sviluppo software sia per l’esperienza quotidiana degli utenti.
API Llama: il cuore pulsante per sviluppatori AI
Con l’introduzione dell’API Llama, Meta apre finalmente l’accesso ai suoi avanzati modelli linguistici, partendo dal recente Llama 3.3 8B, permettendo agli sviluppatori di testarne le potenzialità in modo strutturato, efficace e versatile. Questa API, attualmente in anteprima limitata, include una suite di strumenti per il fine-tuning e la valutazione dei modelli, consentendo di generare dati, addestrare nuove istanze e verificarne le performance direttamente attraverso la piattaforma. Una delle promesse chiave di Meta riguarda il rispetto della privacy: i dati generati dagli utenti non saranno utilizzati per addestrare i modelli interni, garantendo maggiore trasparenza e controllo. Inoltre, gli sviluppatori avranno la possibilità di esportare i modelli e trasferirli su altri host, rafforzando la libertà di utilizzo.
In una mossa definita “sperimentale“, Meta offrirà anche servizi di model serving in collaborazione con realtà come Cerebras e Groq, utili per velocizzare la prototipazione e l’integrazione in applicazioni AI. Il lancio dell’API avviene in un momento strategico, mentre Meta cerca di consolidare la propria leadership in un settore sempre più competitivo, fronteggiando la crescita di alternative come Qwen di Alibaba e DeepSeek.
Meta AI: l’assistente vocale diventa un’app autonoma e sociale
Parallelamente, Meta ha presentato Meta AI, una nuova app autonoma basata sul modello Llama 4, già disponibile per il download gratuito in Italia e negli Stati Uniti. L’app segna un punto di svolta nell’interazione uomo-macchina, combinando chat testuali e vocali all’interno di un’interfaccia semplificata, integrata anche con i Ray-Ban Meta Smart Glasses e la piattaforma web meta.ai. Tra le novità più interessanti spicca la modalità full-duplex vocale, che consente conversazioni continue, fluide e molto simili a una chiamata in tempo reale, grazie alla generazione vocale diretta da parte dell’AI.
Al momento disponibile in modalità demo in alcuni Paesi, questa funzione punta a diventare uno standard per l’interazione in mobilità. Meta AI non è solo un assistente tecnico: con il nuovo feed “Suggeriti“, permette agli utenti di scoprire come altri stanno utilizzando l’intelligenza artificiale, personalizzare prompt e trarne ispirazione, in pieno controllo della privacy. In futuro, grazie alla funzione “memoria“, Meta AI potrà ricordare preferenze personali, offrendo risposte più rilevanti, anche attraverso i dati condivisi su Facebook e Instagram tramite l’Accounts Center.