Ray-Ban Display si evolvono: in arrivo la scrittura “in aria” e i Reels di Instagram direttamente sulle lenti

I Ray-Ban Display di Meta si preparano a evolversi con nuove funzioni come la scrittura in aria e la visualizzazione dei Reels di Instagram, rafforzando il ruolo degli occhiali intelligenti come piattaforma social e di interazione quotidiana.

Ray-Ban Display si evolvono: in arrivo la scrittura “in aria” e i Reels di Instagram direttamente sulle lenti

Anche se non sono ancora arrivati ufficialmente su tutti i mercati, i Ray-Ban Display continuano a essere al centro della strategia di Meta nel settore degli occhiali intelligenti. L’azienda guidata da Mark Zuckerberg guarda già oltre il debutto commerciale e anticipa nuove funzioni pensate per rendere l’esperienza d’uso più completa, naturale e coerente con il proprio ecosistema social.

Nel corso del 2026, come confermato dal CTO Andrew Bosworth, gli occhiali riceveranno due novità chiave: la possibilità di scrivere testo “in aria” grazie ai segnali muscolari e il supporto alla visualizzazione dei Reels di Instagram direttamente sul display integrato. Presentati nella seconda metà del 2025, i Ray-Ban Display rappresentano il primo vero tentativo di Meta di portare un prodotto consumer con schermo integrato sul volto degli utenti. Il dispositivo adotta un display monoculare, posizionato in una sola lente, una scelta che evidenzia come questa prima generazione sia rivolta soprattutto a un pubblico di appassionati e early adopter.

Nonostante i limiti hardware, Meta considera questi occhiali una piattaforma in continua evoluzione, destinata a migliorare nel tempo soprattutto attraverso aggiornamenti software e nuove modalità di interazione. Uno degli elementi distintivi del prodotto è il Meta Neural Band, un bracciale incluso nella confezione che sfrutta la tecnologia EMG, ovvero l’elettromiografia. Questo sistema è in grado di rilevare i segnali elettrici generati dai muscoli del polso e della mano, traducendoli in comandi digitali.

Al momento del lancio, il Neural Band consente operazioni basilari come scorrere i contenuti, selezionare elementi dell’interfaccia o confermare azioni, ma Meta ha sempre chiarito che si trattava solo del primo passo di un percorso molto più ambizioso. La funzione più innovativa in arrivo è senza dubbio la cosiddetta “scrittura EMG”. Secondo quanto spiegato da Bosworth, il sistema sarà in grado di riconoscere decine di nuovi segnali neurali, sufficienti a identificare in modo affidabile tutte le lettere dell’alfabeto.

In pratica, l’utente potrà scrivere messaggi, rispondere a notifiche o inserire testo disegnando le lettere su una superficie o semplicemente mimando i movimenti della mano, senza utilizzare tastiere fisiche o virtuali. L’accesso anticipato a questa tecnologia partirà nelle prossime settimane per un numero ristretto di utenti, mentre la diffusione su larga scala avverrà in modo graduale nel corso del 2026.

Parallelamente, Meta sta lavorando per colmare una delle lacune più evidenti dei Ray-Ban Display, ovvero la fruizione dei contenuti video. Per un’azienda che basa gran parte del proprio business sui social, l’assenza di un supporto nativo ai Reels di Instagram rappresentava un limite significativo. La situazione è destinata a cambiare: la visualizzazione dei Reels è attualmente in fase di test interni e dovrebbe arrivare nel giro di pochi mesi, consentendo agli utenti di consultare brevi video direttamente sulle lenti, con un approccio pensato per interazioni rapide e contestuali.

Dal punto di vista commerciale, i Ray-Ban Display restano un prodotto di nicchia. Il prezzo di listino è fissato a 799 dollari, circa 740 euro al cambio attuale, una cifra che include anche il Neural Band personalizzato. A questo si aggiungono alcune limitazioni, come il supporto ancora ridotto per le lenti graduate, che restringono il pubblico potenziale. Nonostante ciò, le nuove funzioni annunciate mostrano chiaramente la direzione di Meta: trasformare gli occhiali intelligenti in una vera estensione del proprio ecosistema digitale, puntando su interazioni sempre più naturali e su contenuti social fruibili senza passare dallo smartphone.

Continua a leggere su Fidelity News