Meta rinnova gli occhiali Ray-Ban: nuove funzioni AI pensate per l’accessibilità visiva

La tecnologia indossabile compie un passo importante verso l'inclusività, grazie a nuove funzionalità intelligenti pensate per migliorare l’autonomia delle persone ipovedenti.

Meta rinnova gli occhiali Ray-Ban: nuove funzioni AI pensate per l’accessibilità visiva

In occasione della Giornata globale della consapevolezza sull’accessibilità, Meta ha annunciato un aggiornamento significativo per i suoi occhiali smart Ray-Ban Meta. Il colosso guidato da Mark Zuckerberg ha puntato su funzionalità potenziate dall’intelligenza artificiale, progettate specificamente per facilitare la vita quotidiana delle persone con disabilità visive.

Il rinnovato dispositivo si arricchisce così di strumenti pensati per promuovere l’autonomia, rendendo la tecnologia ancora più umana e vicina ai bisogni reali. Una delle innovazioni più rilevanti è l’evoluzione della funzioneChiama un volontario”, realizzata in collaborazione con Be My Eyes. Questo servizio, già attivo in alcuni Paesi selezionati dal 2024, consente agli utenti di avviare una videochiamata in tempo reale con uno degli oltre 8 milioni di volontari iscritti.

Questi ultimi, grazie alla videocamera integrata negli occhiali, possono fornire un aiuto visivo immediato per leggere un’etichetta, ritrovare un oggetto o orientarsi in un luogo sconosciuto. Il servizio, che inizialmente copriva Stati Uniti, Regno Unito, Irlanda, Canada e Australia, sarà presto esteso a tutti i 18 Paesi in cui è attiva Meta AI.

L’interazione con gli occhiali è completamente a mani libere: basta pronunciare un comando come “Sii i miei occhi” per attivare l’assistenza. Una soluzione semplice ma potente, che mette la tecnologia al servizio dell’usabilità in scenari reali. Un ulteriore passo avanti è rappresentato dalla reattività dell’AI, che ora fornisce risposte più accurate e contestualizzate, adattandosi meglio agli ambienti e alle esigenze individuali. Meta ha colto l’occasione per sottolineare anche altre iniziative in tema accessibilità.

Sui visori Quest e sulla piattaforma Horizon Worlds, ad esempio, sono già presenti i sottotitoli in tempo reale e il riconoscimento vocale, pensati per migliorare l’esperienza immersiva anche per chi ha difficoltà uditive. Non meno interessante è il progetto sviluppato da Sign-Speaks per WhatsApp, che sfrutta l’AI e i modelli linguistici Llama per tradurre in tempo reale la lingua dei segni americana (ASL) in testo e viceversa.

Una soluzione pensata per abbattere le barriere comunicative all’interno di una delle app di messaggistica più diffuse al mondo. Guardando al futuro, Meta sembra intenzionata a non fermarsi: secondo alcune indiscrezioni, i prossimi modelli di occhiali intelligenti potrebbero integrare funzionalità di riconoscimento facciale avanzato, portando l’interazione uomo-macchina a un nuovo livello di naturalezza e immediatezza.

Continua a leggere su Fidelity News