Apple prepara una nuova offensiva nell’hardware basato sull’intelligenza artificiale e intensifica lo sviluppo di tre dispositivi indossabili destinati a ridefinire il rapporto tra utente, iPhone e assistente digitale. Secondo le ultime indiscrezioni diffuse da Mark Gurman di Bloomberg, il gruppo di Apple sta lavorando a occhiali intelligenti, a un ciondolo dotato di fotocamera da indossare come accessorio e a una nuova generazione di AirPods con funzionalità AI avanzate. Tutti e tre i prodotti ruotano attorno a Siri, che nelle prossime versioni dovrebbe evolversi in un assistente capace di comprendere il contesto visivo in tempo reale grazie all’uso di sensori e telecamere integrate.
L’obiettivo è chiaro: trasformare i dispositivi indossabili in estensioni intelligenti dell’iPhone, in grado di vedere, ascoltare e interpretare ciò che accade intorno all’utente.
Gli occhiali smart, nome in codice N50, rappresentano il progetto più ambizioso. Non includeranno inizialmente un display, ma integreranno fotocamere ad alta risoluzione, microfoni e altoparlanti per scattare foto, registrare video, effettuare chiamate e interagire con Siri in modo naturale. Il sistema sfrutterà una doppia fotocamera, una dedicata alle immagini tradizionali e una pensata per la visione artificiale, tecnologia già vista su Apple Vision Pro. L’idea è offrire un compagno AI sempre attivo, capace di riconoscere oggetti, leggere testi, suggerire azioni contestuali e fornire indicazioni basate su punti di riferimento reali. Il lancio, secondo le tempistiche attuali, potrebbe avvenire nel 2027.
Parallelamente prende forma un dispositivo più discreto: un ciondolo intelligente da agganciare ai vestiti o indossare al collo, concettualmente vicino all’ormai archiviato Humane AI Pin ma pensato come accessorio strettamente integrato con l’iPhone. Dotato di fotocamera a bassa risoluzione e microfono, fungerà da “occhi e orecchie” del telefono, elaborando i dati principalmente attraverso lo smartphone. Il prodotto è ancora in fase iniziale e potrebbe essere cancellato, ma rappresenta un tassello strategico nella visione di Apple di un ecosistema AI distribuito.
Gli AirPods di nuova generazione, invece, potrebbero arrivare già entro l’anno. Oltre alle funzioni audio, integreranno sensori visivi pensati non per scattare foto ma per migliorare l’interazione con l’intelligenza artificiale, ampliando capacità come la traduzione in tempo reale e il riconoscimento ambientale. L’approccio sarà meno invasivo rispetto agli occhiali, offrendo un’alternativa a chi non desidera indossare un dispositivo sul volto. Questa accelerazione arriva in un momento in cui Apple è chiamata a colmare il gap nell’AI rispetto a competitor come Meta Platforms e OpenAI. Il CEO Tim Cook ha recentemente parlato di nuove categorie di prodotto abilitate dall’intelligenza artificiale, lasciando intendere un cambio di passo deciso. Dopo l’esperienza non esattamente di massa del Vision Pro, la sfida ora è portare l’AI in oggetti quotidiani, più leggeri, meno costosi e soprattutto integrati in modo invisibile nell’ecosistema Apple. Il futuro dell’iPhone, in questa visione, non sarà sostituito ma affiancato da dispositivi che ne amplificano le capacità, spostando progressivamente l’interazione verso periferiche intelligenti sempre connesse.