Il 25 settembre 2024, durante l’attesissimo evento Meta Connect, l’azienda ha presentato una serie di novità entusiasmanti nel campo dell’intelligenza artificiale e della tecnologia, segnando un momento cruciale per l’evoluzione dei suoi prodotti. Ecco un riepilogo delle principali innovazioni annunciate.
Llama 3.2: un nuovo modello AI open source
Uno dei momenti clou dell’evento è stato il lancio di Llama 3.2, il nuovo modello di linguaggio naturale open source di Meta, capace di elaborare sia immagini che testo. Questo rappresenta un passo significativo rispetto al precedente Llama 3.1, lanciato solo due mesi prima, evidenziando il rapido progresso dell’azienda nel campo dell’intelligenza artificiale. Llama 3.2 è stato progettato per aprire nuove possibilità agli sviluppatori, consentendo la creazione di applicazioni avanzate in vari ambiti. Tra le potenziali applicazioni, ci sono strumenti di realtà aumentata che possono interpretare video in tempo reale, motori di ricerca visiva che organizzano le immagini in base al contenuto e sistemi di analisi dei documenti in grado di riassumere testi lunghi.
Con questo modello, Meta si posiziona tra le aziende leader del settore, affiancandosi a nomi come OpenAI e Google, che hanno già presentato modelli multimodali. Llama 3.2 include due modelli di visione (con 11 miliardi e 90 miliardi di parametri) e due modelli leggeri per il solo testo (con 1 miliardo e 3 miliardi di parametri). I modelli più compatti sono ottimizzati per funzionare su hardware mobile, dimostrando l’intenzione di Meta di estendere l’uso dell’AI a dispositivi portatili.
Contenuti generati dall’IA nei feed social
Un’altra novità significativa riguarda l’integrazione dell’intelligenza artificiale nelle piattaforme social di Meta. L’azienda ha annunciato che sta testando una nuova funzionalità che crea contenuti generati dall’IA, denominata “Imagined for You“. Questa funzione permette agli utenti di visualizzare immagini generate automaticamente in base ai propri interessi e alle tendenze attuali, inclusi alcuni che possono incorporare il volto dell’utente stesso. Quando gli utenti si imbattono in queste immagini nel loro feed, avranno l’opzione di condividerle o generare nuove foto in tempo reale, aumentando così l’interattività e il coinvolgimento con i contenuti. Tuttavia, l’idea di vedere la propria immagine associata a contenuti generati dall’IA potrebbe risultare inquietante per alcuni.
Voce AI di celebrità Meta
ha anche rivelato l’inserimento di voci dialogiche di celebrità nel suo chatbot AI, disponibile su Instagram, WhatsApp e Facebook. Gli utenti ora possono interagire con Meta AI e ascoltarla rispondere con le voci di celebri personalità come Awkwafina, John Cena, Keegan-Michael Key, Kristen Bell e Judi Dench. Questa funzionalità non solo rende le interazioni più coinvolgenti, ma rappresenta anche un modo per avvicinare gli utenti a un’esperienza più personale e divertente.
Logitech MX Ink: un nuovo strumento per creativi
Un’altra novità interessante presentata all’evento è il Logitech MX Ink, un controller a forma di penna progettato per facilitare il disegno, la scultura e la manipolazione di oggetti in ambienti di realtà mista. Il prezzo di vendita di questo strumento è di 129,99 dollari, e sarà compatibile con le cuffie Meta Quest 3S, Quest 3 e Quest 2. L’MX Ink è stato sviluppato per offrire un’esperienza più comoda e naturale rispetto ai tradizionali controller Quest, specialmente per gli artisti che sono abituati a lavorare con tavolette grafiche. La compatibilità con software creativi 2D e 3D, già annunciata per applicazioni come Open Brush, Gravity Sketch e Adobe Substance 3D Modeler, apre nuove possibilità per i creativi.