Meta rilancia la sfida sull’AI: debutta Llama 4, e non è che l’inizio

Meta annuncia Llama 4 con i modelli Scout e Maverick già attivi su WhatsApp, Messenger e Instagram, mentre si prepara a rivoluzionare il settore con i futuri Behemoth e Reasoning.

Meta rilancia la sfida sull’AI: debutta Llama 4, e non è che l’inizio

Meta ha ufficialmente presentato Llama 4, la nuova generazione dei suoi modelli di intelligenza artificiale, e lo ha fatto con un doppio lancio che già sta facendo discutere la community tech. Sono infatti disponibili da oggi Llama 4 Scout e Llama 4 Maverick, due modelli multimodali pensati per rispondere alle esigenze di interazione quotidiana in modo più rapido, preciso e intelligente. I due strumenti sono già stati integrati all’interno di Meta AI e dunque pronti a essere sperimentati direttamente su piattaforme popolari come WhatsApp, Messenger e Instagram.

Il colosso di Menlo Park non si ferma qui: sono infatti in fase avanzata di sviluppo altri due modelli, Behemoth e Reasoning, che promettono di alzare ulteriormente l’asticella delle capacità computazionali e conversazionali.

Maverick rappresenta la punta di diamante del lancio iniziale. Si tratta di un modello multimodale che unisce una notevole potenza computazionale a una capacità di interpretare testo e immagini con grande precisione. Le sue potenzialità lo rendono adatto per assistenza generica e chatbot avanzati. Scout, invece, è un modello più leggero, ma non per questo meno raffinato: progettato per gestire compiti più specialistici, è in grado di riassumere lunghi documenti, analizzare complesse attività utente e supportare la personalizzazione su larga scala, nonché il ragionamento su grandi quantità di codice.

Entrambi i modelli sono già scaricabili dal sito ufficiale di Llama e dalla piattaforma Hugging Face, in linea con la strategia open source adottata da Meta per spingere la diffusione e lo sviluppo collaborativo dei suoi strumenti. Da un punto di vista tecnico, Scout sfrutta 17 miliardi di parametri attivi gestiti da 16 esperti e offre una finestra di contesto di quasi 10 milioni di token, mantenendo al tempo stesso prestazioni ottimizzate per GPU singola. Maverick, che si basa sullo stesso numero di parametri ma con 128 esperti, è pensato per scenari più complessi e si confronta direttamente con modelli di punta come GPT-4o di OpenAI e Gemini 2.0 di Google, offrendo prestazioni superiori in ambiti come la codifica, il ragionamento, la traduzione multilingue e la comprensione di immagini.

Non meno ambiziosi sono i due modelli in arrivo. Llama 4 Behemoth, ancora in fase di addestramento, dovrebbe integrare ben 288 miliardi di parametri attivi, una cifra che lo pone al vertice degli LLM mondiali. Mark Zuckerberg non ha usato mezzi termini definendolo “il miglior modello base al mondo“. Parallelamente, si attende anche Llama 4 Reasoning, un modello progettato specificamente per scenari di pensiero logico e analisi approfondita, il cui debutto è previsto per il mese prossimo.

L’interesse verso Llama 4 cresce in vista di LlamaCon, la conferenza per sviluppatori dedicata all’intelligenza artificiale firmata Meta, che si terrà il 29 aprile. Tutti gli occhi del settore sono puntati su questo evento, che promette di svelare ulteriori dettagli e aprire nuove prospettive per l’integrazione dei modelli AI nel quotidiano. Con Llama 4, Meta si conferma una delle protagoniste assolute della corsa all’intelligenza artificiale, puntando su un ecosistema aperto, multimodale e pensato per essere davvero utile.

Continua a leggere su Fidelity News