Meta, attraverso il suo laboratorio di ricerca Fundamental AI Research (FAIR), ha condiviso importanti progressi nell’ambito dell’Intelligenza Artificiale Avanzata (AMI), con applicazioni in neuroscienze, robotica e linguistica. L’azienda, impegnata a migliorare la vita quotidiana delle persone, ha dimostrato come le sue tecnologie possano affrontare sfide complesse e promuovere un cambiamento positivo in vari settori.
Uno degli sviluppi più interessanti riguarda il progetto PARTNR, che si concentra sull’ottimizzazione della collaborazione tra esseri umani e robot. Il progetto mira a migliorare l’interazione tra robot e persone, rendendo i robot in grado di affrontare compiti quotidiani come la gestione di consegne o faccende domestiche. L’approccio innovativo di PARTNR è open source, il che significa che il framework di ricerca, il dataset e il modello di simulazione sono disponibili per la comunità scientifica, consentendo ad altri ricercatori di contribuire e sviluppare ulteriormente questa tecnologia.
Una caratteristica chiave di PARTNR è l’uso di simulazioni su larga scala, che consentono di allenare i robot in ambienti virtuali. Questo approccio supera i limiti di sicurezza e scalabilità degli esperimenti fisici, permettendo ai ricercatori di testare i robot in scenari reali con maggiore sicurezza. Inoltre, l’evoluzione della piattaforma Habitat, che ha visto l’introduzione di Habitat 3.0, ha permesso di addestrare robot per compiti complessi di collaborazione con esseri umani, spingendo ancora più in là le capacità della robotica sociale.
Meta ha fatto anche progressi significativi nel campo delle interfacce cervello-computer. In collaborazione con il Basque Center on Cognition, –and Language (BCBL), l’azienda ha lavorato sulla decodifica dell’attività cerebrale per tradurre il linguaggio umano in tempo reale. L’innovazione in questo campo potrebbe portare al ripristino della comunicazione in persone che hanno perso la capacità di parlare a causa di lesioni cerebrali.
Il primo studio ha utilizzato tecniche non invasive come l’elettroencefalografia (EEG) e la magnetoencefalografia (MEG) per registrare l’attività cerebrale. Grazie all’AI, Meta è riuscita a decodificare fino all’80% dei caratteri delle frasi scritte, un miglioramento significativo rispetto ai metodi precedenti. Sebbene i risultati siano promettenti, la ricerca deve ancora superare diverse sfide, come la necessità di ambienti specializzati e la difficoltà di applicare la tecnologia a pazienti con lesioni cerebrali.
Un secondo studio ha esplorato i meccanismi neurali alla base della produzione del linguaggio, utilizzando l’AI per analizzare segnali MEG. I risultati hanno mostrato come il cervello coordini la generazione di sequenze di parole e come crei una “codifica neurale dinamica”, mantenendo coerenza tra concetti e azioni fisiche, un passo fondamentale verso l’interfaccia cervello-computer non invasiva.
Meta ha rafforzato il proprio impegno a favore della diversità linguistica, concentrandosi in particolare sulle lingue indigene e minoritarie, con l’iniziativa No Language Left Behind (NLLB). Questo motore di traduzione automatica open source è in grado di supportare numerose lingue poco rappresentate, promuovendo una maggiore inclusione digitale. Inoltre, in collaborazione con l’UNESCO, Meta ha lanciato il progetto Massively Multilingual Speech (MMS), volto a trascrivere automaticamente l’audio in oltre 1.100 lingue, molte delle quali con una disponibilità limitata di dati. Nel campo dell’audio, Meta ha introdotto Audiobox Aesthetics, un modello innovativo che valuta la qualità estetica dell’audio, prendendo in considerazione parametri come la complessità e il valore del contenuto, anziché concentrarsi esclusivamente su misurazioni tecniche. Questo strumento ha il potenziale di rivoluzionare la generazione di contenuti audio, stimolando l’innovazione nell’ambito musicale e nella sintesi vocale.
Infine, Meta ha introdotto una funzione di trascrizione automatica dei messaggi vocali su WhatsApp, garantendo privacy e sicurezza. I messaggi vocali vengono elaborati direttamente sul dispositivo, senza la necessità di inviare i dati al cloud, un passo importante per proteggere la privacy degli utenti.