Google I/O 2025: l’intelligenza artificiale secondo Big G è più vicina, potente e personale che mai

Al Google I/O 2025, Google ha rivoluzionato l'uso dell'IA con Gemini, ora più integrato, visivo e capace di assistere in modo naturale e personalizzato.

Google I/O 2025: l’intelligenza artificiale secondo Big G è più vicina, potente e personale che mai

Nel corso del Google I/O 2025, l’evento più atteso dell’anno dagli appassionati di tecnologia, la casa di Mountain View ha ridefinito ancora una volta il concetto di intelligenza artificiale. Con una serie impressionante di innovazioni che toccano ogni aspetto dell’ecosistema Google, Gemini si trasforma in un assistente sempre più integrato, contestuale e proattivo, capace di supportare l’utente nella vita quotidiana, nel lavoro, nella creatività e persino nelle conversazioni. Dal nuovo Gemini 2.5 con ragionamento regolabile all’espansione delle funzioni visive e vocali, passando per le evoluzioni nei servizi di traduzione, ricerca, produttività e coding, Google conferma una visione chiara: l’AI non è più uno strumento, ma un vero e proprio partner intelligente, cucito su misura per ogni persona.

Nel corso del Google I/O 2025, Big G ha svelato un’importante serie di evoluzioni per Gemini e la sua intelligenza artificiale in generale. Innanzitutto, Google sta introducendo un approccio innovativo per dare agli utenti un maggiore controllo sulla profondità del ragionamento dei suoi modelli AI. Con l’arrivo di Gemini 2.5, sarà disponibile un cursore regolabile che permetterà di scegliere quanto tempo il modello potrà dedicare all’elaborazione: da una risposta rapida in pochi secondi fino a un’analisi più approfondita che può durare fino a un minuto, offrendo così un equilibrio tra velocità e accuratezza.

Google ha annunciato in particolare significativi aggiornamenti per Gemini 2.5, con l’obiettivo di creare un “assistente AI universale” secondo Demis Hassabis, CEO di Google DeepMind. Gemini 2.5 Pro, leader nella classifica LMArena e WebDev Arena con un punteggio ELO di 1420, introduce Deep Think, una modalità sperimentale di ragionamento avanzato che eccelle in benchmark come USAMO 2025 e LiveCodeBench, raggiungendo l’84% su MMMU. Il modello offre una finestra contestuale di un milione di token, dialoghi vocali personalizzabili con supporto per 24 lingue, e funzionalità come il dialogo empatico e l’audio proattivo. Gemini 2.5 Flash, più efficiente con il 20-30% di token in meno, sarà rilasciato a giugno, mentre nuove protezioni contro le prompt injection rafforzano la sicurezza. Strumenti per sviluppatori, come i riassunti del ragionamento e il supporto MCP, completano un aggiornamento che unisce innovazione e usabilità.

Inoltre, le funzionalità di condivisione della fotocamera e dello schermo, finora riservate ai Pixel, saranno presto disponibili anche su tutti i dispositivi Android e iOS compatibili. Questo aggiornamento porta l’interazione con l’AI di Google a un livello più pratico e intuitivo, rendendo possibile mostrare ciò che si vuole spiegare anziché descriverlo a parole. Che si tratti di inquadrare un oggetto per identificarlo, ottenere suggerimenti per una riparazione o condividere lo schermo per ricevere supporto su app e documenti, Gemini si trasforma in un assistente visivo sempre più versatile.

Ma la vera novità è l’integrazione più profonda con l’ecosistema di Google: applicazioni come Maps, Calendar, Keep e Tasks dialogheranno direttamente con Gemini Live, permettendo all’intelligenza artificiale di rispondere in modo più contestualizzato e pertinente. Il tutto senza compromettere la privacy, grazie a controlli granulari che consentono all’utente di gestire in piena autonomia i livelli di accesso dell’AI ai propri dati personali.

Durante il Google I/O 2025, Big G ha svelato un’importante evoluzione per la suite Workspace, introducendo nuove funzioni basate sull’intelligenza artificiale Gemini. Le novità investono strumenti chiave come Gmail, Meet e Vids, con l’obiettivo di automatizzare attività ripetitive, ottimizzare la gestione del tempo e migliorare la qualità delle comunicazioni. In Gmail, Gemini permette ora di generare risposte personalizzate e contestuali, attingendo a messaggi precedenti e documenti correlati. È anche in grado di alleggerire la casella postale eliminando contenuti superflui tramite semplici comandi, e di pianificare appuntamenti senza uscire dalla mail. Con Vids, invece, si apre la porta alla creazione di video professionali a partire da semplici testi: le presentazioni diventano narrazioni dinamiche grazie a voiceover, animazioni e agli avatar digitali generati dall’AI. Anche Google Meet guadagna una funzione innovativa: la traduzione vocale simultanea, che conserva timbro e intonazione originale del parlante, facilitando le call multilingue. Tutto questo è già accessibile per gli abbonati AI Pro e Ultra, e segna un deciso salto in avanti verso un’integrazione dell’AI realmente utile e fluida nel lavoro quotidiano.

A partire da domani, Gemini sarà integrato direttamente nel browser Chrome, rendendo l’intelligenza artificiale un elemento nativo dell’esperienza di navigazione. L’assistente AI potrà leggere le pagine in tempo reale, suggerire azioni, semplificare ricerche e compilazioni, e offrire assistenza personalizzata basata sul contesto. È un passo decisivo verso un browser che non è più solo uno strumento, ma un vero collaboratore intelligente.

Le smart reply di Gmail diventano finalmente intelligenti per davvero: grazie all’integrazione con Gemini, i suggerimenti rapidi ora possono attingere ai nostri file presenti in Drive, Docs e nella posta, adattandosi anche allo stile di scrittura individuale. Questo rende le risposte automatiche molto più pertinenti e personalizzate, ideali per risparmiare tempo nelle comunicazioni lavorative o quotidiane, mantenendo comunque coerenza e tono adeguato.

Durante il Google I/O 2025, la società di Mountain View ha annunciato l’integrazione della traduzione simultanea su Google Meet grazie all’intelligenza artificiale di Gemini. Questa funzione rivoluzionaria consente di abbattere le barriere linguistiche in tempo reale, rendendo più fluide e naturali le conversazioni tra interlocutori di lingue diverse. L’AI non solo traduce accuratamente i contenuti, ma riesce anche a replicare il tono, la voce e le inflessioni del parlante originale, offrendo un effetto quasi cinematografico. Attualmente disponibile per l’inglese e lo spagnolo, la funzionalità sarà presto estesa anche all’italiano, al tedesco e al portoghese, con un rollout progressivo per gli abbonati e successivamente per le aziende. In un contesto dove le videoconferenze sono sempre più centrali, questa innovazione rappresenta un passo decisivo verso una comunicazione globale più inclusiva e priva di ostacoli.

Con la nuova funzione Search Live, gli utenti possono avviare una videochiamata direttamente con Google, che permette di vedere in tempo reale ciò che si riprende con la fotocamera del telefono. In questo modo, l’AI può guidare passo dopo passo l’utente nello svolgimento di attività quotidiane, come il giardinaggio, un esperimento di chimica o la rimozione di una macchia da una maglietta.

Il Google I/O 2025 ha portato importanti novità anche per il Play Store, che diventa sempre più intelligente e personalizzato grazie all’introduzione dei Topics e al potenziamento delle Collections. I Topics rappresentano una nuova modalità di esplorazione tematica dei contenuti: gli utenti potranno navigare app, giochi e media suddivisi per interessi specifici, come sport, intrattenimento e molto altro, con suggerimenti più mirati e coinvolgenti. Questa funzione debutterà inizialmente negli Stati Uniti, concentrandosi sulla categoria Media, per poi ampliarsi progressivamente. Parallelamente, le Collections si arricchiscono grazie all’integrazione dell’Engage SDK, che consente agli sviluppatori di offrire suggerimenti ancora più pertinenti, legati alle app già installate. Video, serie e giochi da riprendere saranno proposti in modo dinamico anche all’interno del Play Store, creando un ecosistema coerente e su misura. Inoltre, la scorciatoia Collections sulla schermata principale di Android sta iniziando il rollout globale da oggi, con i primi paesi inclusi come Brasile, India, Indonesia, Giappone e Messico. Anche se non ci sono ancora date ufficiali per altri mercati, l’arrivo in Europa sembra imminente.

Google ha reso disponibile AI Mode a tutti gli utenti negli Stati Uniti, estendendo così una funzione che fino a poco tempo fa era limitata a un gruppo selezionato. Questa modalità innovativa trasforma l’esperienza di ricerca tradizionale, integrando un chatbot avanzato basato sul modello Gemini 2.5 che risponde a domande complesse e offre assistenza personalizzata. AI Mode non solo aiuta a confrontare prodotti o approfondire argomenti, ma può anche compiere azioni pratiche come prenotazioni o acquisti, grazie alla collaborazione con partner come Ticketmaster e Resy. L’interfaccia diventa più visiva e personalizzabile, con grafici e suggerimenti basati sulle ricerche precedenti, segnando un passo importante verso una ricerca più intelligente e interattiva.

Prima di concludere il suo intervento, Sundar Pichai – CEO di Google – ha svelato una nuova funzione in arrivo su Gmail: grazie all’integrazione con Gemini, sarà possibile generare risposte automatiche che riprendono i saluti, il tono e lo stile delle email precedenti, replicando anche le espressioni e le formule linguistiche preferite dall’utente. Sul palco del Google I/O, l’illustre oratore ha presentato anche una dimostrazione della nuova funzione Agent Mode: una modalità avanzata pensata per gestire attività complesse e articolate al posto dell’utente. Durante la demo, Pichai ha illustrato come Agent Mode possa assistere concretamente nella ricerca di un appartamento, rispettando vincoli come il budget massimo, semplificando così operazioni che normalmente richiederebbero molto tempo e interazione manuale.

Non è mancato un accenno alla capacità dell’assistente AI di rispondere autonomamente ai messaggi dei propri amici, attingendo a informazioni personali come appunti salvati su Google Drive o prenotazioni archiviate in Gmail.In uno degli esempi mostrati, Gemini ha redatto una risposta dettagliata a un amico che chiedeva suggerimenti per un viaggio on the road, ricostruendo l’itinerario dell’utente e riproducendone anche lo stile comunicativo.“Onestamente, io gli avrei risposto con due righe vaghe e frettolose,” ha scherzato Pichai, “ma grazie a queste risposte intelligenti, riesco a sembrare molto più premuroso.

Google sta potenziando in modo deciso Project Mariner, trasformandolo in un vero e proprio assistente digitale capace di agire sul web in autonomia e in parallelo. Se prima era limitato a svolgere un solo compito per volta, ora è in grado di gestire fino a dieci attività simultaneamente, segnando un passo avanti significativo in termini di efficienza e versatilità. A rendere Mariner ancora più intelligente arriva la funzione “Teach and Repeat”, che permette di insegnargli un’azione una sola volta affinché sappia poi ripeterla in contesti simili, imparando dal comportamento dell’utente. Si tratta di una svolta che sposa pienamente l’idea di un’intelligenza artificiale contestuale e reattiva. Secondo Google, l’accesso a Mariner sarà esteso a un pubblico più ampio già nei prossimi mesi estivi.

Nel contesto dell’ascesa del vibe coding, una modalità di programmazione più fluida e naturale resa possibile dall’intelligenza artificiale, Tulsee Doshi – a capo della strategia prodotto per Gemini – ha mostrato le potenzialità di Google AI Studio. La piattaforma consente agli utenti di generare codice partendo da semplici istruzioni testuali, abbattendo le barriere tecniche tradizionali. A rafforzare ulteriormente questo approccio arriva Jules, il nuovo agente di codifica asincrono di Google ora in beta pubblica: secondo Doshi, è in grado di gestire operazioni complesse all’interno di codebase estese, come aggiornare intere versioni di ambienti obsoleti (ad esempio Node.js), eseguendo l’intero processo – dalla pianificazione alla modifica dei file – in pochi minuti.

Durante il Google I/O 2025, l’azienda di Mountain View ha mostrato una visione sempre più integrata e potente della sua intelligenza artificiale. Tra le novità più rilevanti spicca la nuova Modalità AI, ora capace di gestire domande complesse e follow-up con link utili per approfondire, oltre a suggerimenti personalizzati basati sulle attività dell’utente in app come Gmail. A questa si affianca Gemini Deep Research, che eleva le ricerche combinando documenti personali e fonti pubbliche per fornire risposte più su misura. L’esperienza di ricerca diventa ancora più universale grazie ad AI Overviews, ora disponibile in 40 lingue e 200 Paesi. Negli Stati Uniti, inoltre, Project Astra entra a far parte di Google Search, permettendo interazioni visive in tempo reale: basta attivare la fotocamera in Modalità AI, inquadrare ciò che si vuole capire e porre la domanda per ricevere una spiegazione con link correlati. In ambito shopping, Gemini lavora in tandem con lo Shopping Graph per proporre suggerimenti d’acquisto mirati e completare gli ordini automaticamente quando il prezzo è più conveniente. Inoltre, sul fronte della creatività, il colosso di Mountain View ha svelato due novità che alzano decisamente l’asticella della creatività assistita dall’intelligenza artificiale. Con Veo 3, Google introduce la possibilità di generare video completi di audio sincronizzato, un traguardo che segna un’evoluzione tangibile rispetto ai modelli precedenti. Ora è possibile realizzare scene complesse in cui il suono si adatta perfettamente all’ambientazione e ai movimenti in scena, con tanto di sincronizzazione labiale e fisica avanzata. In parallelo, Imagen 4 perfeziona la generazione di immagini, offrendo realismo estremo, risoluzione fino a 2.000 pixel e una gestione migliorata della tipografia. A completare il tutto, arriva Flow, una piattaforma innovativa pensata per i creativi che desiderano realizzare video sfruttando il potenziale dell’intelligenza artificiale. Questo nuovo strumento fonde le tecnologie di Veo, Imagen e Gemini, permettendo di generare filmati completi a partire da semplici input testuali. Con possibilità di regia virtuale, gestione degli asset e coerenza stilistica tra le scene, Flow si propone come un vero alleato nella narrazione visiva, rivoluzionando il modo in cui si concepiscono e si producono contenuti audiovisivi.

Durante il Google I/O 2025 è stato ufficialmente svelato Google Beam, la nuova frontiera delle videoconferenze tridimensionali, evoluzione diretta di Project Starline. A differenza della versione originale, che già prometteva una sorta di “iper-telepresenza”, Beam introduce importanti innovazioni basate sull’intelligenza artificiale. Il sistema sfrutta sei telecamere per catturare ogni angolazione del volto dell’interlocutore e, grazie a un modello AI di video volumetrico unito alla tecnologia di display a campo di luce, riesce a creare un effetto tridimensionale realistico, aggiornato in tempo reale a 60 fotogrammi al secondo. L’obiettivo di Google è superare le limitazioni delle classiche videochiamate, offrendo un’esperienza più naturale e immersiva, simile a una vera presenza fisica. I primi dispositivi arriveranno entro fine anno per una cerchia selezionata di clienti, ma non è stato ancora comunicato un prezzo ufficiale. In ogni caso, considerando che soluzioni simili — come Project Ghost di Logitech — partono da cifre comprese tra 15.000 e 20.000 dollari (ma senza supporto 3D), è evidente che Beam si posiziona come una svolta tecnologica potenzialmente rivoluzionaria nel modo di comunicare a distanza.

Project Aura, poi, segna una nuova collaborazione tra Xreal e Google per sviluppare occhiali smart basati su Android XR, presentati in anteprima al Google I/O 2025. Questo prototipo, più discreto rispetto a visori tradizionali come Project Moohan di Samsung, si presenta come un paio di occhiali da sole leggermente più spessi ma dotati di due micro-display con tecnologia optical see-through XR, che permette di visualizzare contenuti digitali sovrapposti alla realtà circostante, con la possibilità di regolare l’opacità delle lenti per mantenere il contatto visivo con l’ambiente. L’hardware prevede telecamere integrate nelle cerniere e nel ponte nasale, microfoni e pulsanti sulle aste laterali, mentre alla base c’è un chipset Qualcomm ottimizzato per applicazioni XR, ancora da specificare. Fondamentale è la presenza di Gemini AI per garantire un’esperienza immersiva e intelligente, supportata da un ampio campo visivo. Google conferma così la sua strategia di fornire piattaforme software a partner esterni per l’hardware, puntando a un rilancio più maturo e funzionale degli occhiali smart, con un’attenzione particolare alla community di sviluppatori e all’adattamento delle app già esistenti per Android XR. Project Aura si preannuncia come un dispositivo capace di rivoluzionare l’interazione digitale quotidiana, in attesa di dettagli su prezzo e data di uscita, che saranno svelati a giugno durante l’Augmented World Expo.

Google ha poi lanciato due nuovi piani in abbonamento, AI Pro e AI Ultra, pensati per offrire esperienze d’uso dell’intelligenza artificiale sempre più avanzate e personalizzate. AI Pro (19,99 dollari/mese) è ideale per professionisti e creativi, con strumenti come Flow e NotebookLM e sessioni più lunghe. AI Ultra (249,99 dollari/mese), al momento disponibile solo negli USA, dà accesso ai modelli più sofisticati e funzioni esclusive come la modalità Deep Think, generazione video con Veo 2/3, supporto a Project Mariner e 30 TB di spazio cloud. Un abbonamento completo per chi fa dell’AI il cuore del proprio lavoro.

Durante il Google I/O 2025, l’azienda di Mountain View ha presentato Gemma 3n, una nuova AI leggera e open source, progettata per operare interamente in locale su dispositivi mobili con specifiche anche modeste. Grazie all’architettura condivisa con Gemini Nano, Gemma 3n garantisce prestazioni solide senza necessità di connessione cloud, tutelando così la privacy e migliorando l’efficienza energetica. Una mossa strategica che rende l’AI accessibile anche in contesti offline e su hardware economico.

Al Google I/O 2025, iniziato il 20 maggio, Google ha risposto alla crescente sfida della disinformazione annunciando SynthID Detector, un innovativo strumento progettato per identificare contenuti generati dall’intelligenza artificiale. Con l’AI in grado di produrre immagini, video, audio e testi sempre più realistici, distinguere tra reale e artificiale è diventato cruciale, e Google punta a garantire trasparenza con questa novità. SynthID Detector, evoluzione del sistema di watermarking SynthID introdotto lo scorso anno, permette di caricare un file – che sia un’immagine, un audio, un video o un testo – e rileva se è stato creato con strumenti AI di Google, evidenziando le parti più probabilmente filigranate. Per le immagini, indica aree specifiche con possibili filigrane; per l’audio, individua segmenti marcati, offrendo un’analisi dettagliata. Disponibile da oggi per un gruppo ristretto di tester, il tool sarà presto accessibile su larga scala, con giornalisti, ricercatori e professionisti dei media invitati a unirsi alla lista d’attesa, segnando un passo avanti nella lotta alla manipolazione digitale.

Durante il keynote del Google I/O 2025, la casa di Mountain View ha ufficializzato una delle funzionalità più attese della prossima versione del robottino verde: la modalità desktop. Presentata come parte integrante di Android 16, questa novità è frutto di una collaborazione diretta con Samsung, e riprende molti elementi già visti nell’esperienza DeX. Come confermato dalla stessa Google, il sistema è stato sviluppato “sulle fondamenta” di DeX, con un’interfaccia che richiama da vicino quella dei sistemi operativi desktop: finestramento libero, barra delle applicazioni con scorciatoie a Gmail, YouTube, Chrome e Foto, oltre a indicatori di rete e batteria. Il nuovo ambiente promette un multitasking più efficace e adattivo, perfettamente compatibile con display esterni, pieghevoli, tablet e persino dispositivi per la realtà mista. Questa evoluzione rappresenta un passo strategico per Android, che punta così ad abbattere i confini tra smartphone e PC, offrendo un’esperienza produttiva completa e trasversale.

Il futuro di Android Auto si fa sempre più ricco e versatile. Durante il Google I/O 2025, oltre ai riflettori puntati sull’integrazione dell’AI Gemini, è emerso un altro annuncio destinato a ridefinire l’esperienza a bordo: l’arrivo imminente delle app video e browser, accompagnato da un’apertura più ampia verso le app meteo. Si tratta di un’evoluzione che rompe con l’approccio prudente adottato finora da Google, storicamente restia a permettere l’uso di app che potessero distrarre dalla guida. Le app video, infatti, saranno utilizzabili solo a veicolo fermo e con uno smartphone aggiornato ad Android 16, mentre per le nuove app meteo – ora fuori dalla fase beta – si apre finalmente un mercato più libero, con la possibilità per gli sviluppatori di pubblicarle senza restrizioni arbitrarie. Android Auto sta così diventando una vera piattaforma d’infotainment, pronta a rispondere non solo alle esigenze di funzionalità, ma anche a quelle di comfort e intrattenimento.

(aggiornato al 21 Maggio 2025)

 

 

 

Continua a leggere su Fidelity News