Per il Google I/O 2025, il CEO dell’azienda americana Sundar Pichai ha fatto il punto sulle tante innovazioni AI annunciate da Google per l’occasione, presentate nel periodo immediatamente precedente o in arrivo nel prossimo futuro.
Riguardo alle seconde, il CEO di Google ha menzionato ad esempio: il modello più intelligente dell’azienda, Gemini 2.5, o l’annuncio di una svolta rivoluzionaria come AlphaEvolve, fatto solo una settimana prima di I/O.
Il modello AI Gemini sta vedendo sviluppi continui e rapidi avanzamenti – ha sottolineato Sundar Pichai. Il punteggio Elo, che misura la performance dei grandi modelli linguistici, è cresciuto di oltre 300 punti rispetto a Gemini Pro di prima generazione. Oggi, Gemini 2.5 Pro domina la classifica di LMArena in tutte le categorie, sottolinea Google.
Questo miglioramento del modello secondo l’azienda è reso possibile dalla sua infrastruttura all’avanguardia a livello globale. La TPU di settima generazione, Ironwood, è la prima progettata per supportare su larga scala i carichi di lavoro dell’intelligenza artificiale orientata al ragionamento e all’inferenza. Offre prestazioni dieci volte superiori rispetto alla generazione precedente e integra una sorprendente capacità di calcolo di 42,5 exaflop per pod: un risultato che Google considera straordinario.
La solidità della sua infrastruttura, che arriva fino al livello delle TPU, secondo Google è ciò che consente all’azienda di offrire modelli significativamente più veloci, anche in un contesto di forte riduzione dei costi. Da sempre, l’azienda ha puntato a offrire i modelli migliori al prezzo più conveniente.
Sempre più intelligenza è disponibile, per tutti, ovunque. E il mondo sta rispondendo, adottando l’AI più velocemente che mai. Ecco alcuni indicatori importanti del cambiamento, secondo Google:
- L’anno scorso, in questo stesso periodo, l’azienda elaborava 9,7 trilioni di token al mese nei suoi prodotti e API. Ora ne elabora oltre 480 trilioni, ovvero 50 volte di più.
- Oltre 7 milioni di sviluppatori creano con Gemini, cinque volte in più rispetto all’anno scorso nello stesso periodo, e l’utilizzo di Gemini su Vertex AI è aumentato di 40 volte.
- L’app Gemini ha ora oltre 400 milioni di utenti attivi mensili. L’azienda assiste a una crescita e a un coinvolgimento forti, in particolare con la serie di modelli 2.5. Per chi usa 2.5 Pro nell’app Gemini, l’utilizzo è cresciuto del 45%.
Dalla ricerca alla realtà, con Google
Questi sviluppi secondo Google indicano che si è entrati in una nuova fase dell’evoluzione delle piattaforme di AI, dove anni di ricerca si stanno concretizzando in applicazioni reali per utenti, imprese e comunità in tutto il mondo.
In occasione di un I/O di qualche anno fa, Google ha presentato Project Starline, la sua innovativa tecnologia per i video 3D. L’obiettivo era creare la sensazione di condividere la stessa stanza con un’altra persona, pur trovandosi a grande distanza.
Il team ha continuato a progredire dal punto di vista tecnico e oggi l’azienda è pronta a presentare un nuovo capitolo: Google Beam, una nuova piattaforma di comunicazione video orientata all’AI. Beam impiega un modello video di ultima generazione per trasformare gli stream video 2D in un’esperienza 3D realistica: utilizzando un sistema di sei videocamere e l’AI, gli stream video vengono uniti e resi su un display 3D con tecnologia lightfield. Il sistema garantisce un tracciamento della testa quasi perfetto, sottolinea l’azienda, con precisione millimetrica e a 60 frame al secondo, tutto in tempo reale. Il risultato è un’esperienza conversazionale molto più naturale e immersiva. In collaborazione con HP, i primi dispositivi Google Beam saranno disponibili per i primi clienti entro la fine dell’anno.
Nel corso degli anni, l’azienda ha lavorato per rendere le esperienze in Google Meet sempre più immersive. Tra queste, vi è una tecnologia che aiuta a superare le barriere linguistiche grazie alla traduzione vocale, in arrivo su Google Meet. Quasi in tempo reale, è in grado di riprodurre la voce, il tono e persino le espressioni di chi parla, facilitando sempre di più conversazioni naturali e fluide tra lingue diverse. La traduzione in inglese e spagnolo è in fase di lancio per gli abbonati a Google AI Pro e Ultra in versione beta, altre lingue saranno aggiunte nelle prossime settimane. I clienti Business di Workspace potranno testare questa funzionalità in anteprima quest’anno.
Un altro progetto di ricerca presentato per la prima volta all’I/O è stato Project Astra, che esplora le abilità future di un assistente AI universale capace di comprendere il mondo circostante. Gemini Live ora incorpora le funzionalità di condivisione dello schermo e della fotocamera di Project Astra. Le persone lo stanno già utilizzando in modi interessanti, dalla preparazione a colloqui di lavoro all’allenamento per una maratona. Questa funzionalità è già disponibile per tutti gli utenti Android ed è stata ora estesa agli utenti iOS.
Google sta anche introducendo funzionalità simili in prodotti come la Ricerca.
È possibile pensare agli agenti come a dei sistemi che combinano l’intelligenza dei modelli avanzati di AI con l’accesso agli strumenti, così da poter agire per conto degli utenti e sotto il loro controllo.
Project Mariner, il prototipo di ricerca iniziale di Google, rappresenta un primo passo verso agenti in grado di utilizzare il computer per interagire con il web e svolgere attività al posto dell’utente. Rilasciato come prototipo di ricerca a dicembre, da allora il team ha fatto notevoli passi avanti, in particolare con nuove funzionalità di multitasking e con un metodo chiamato “insegna e ripeti”, che consente all’agente di imparare un’attività dopo averla osservata una sola volta e di applicare quanto appreso ad attività simili in futuro. Le capacità di utilizzo del computer di Project Mariner saranno rese disponibili agli sviluppatori tramite l’API Gemini. Alcuni trusted tester, come Automation Anywhere e UiPath, stanno già iniziando a creare soluzioni basate su questa tecnologia, che sarà distribuita più ampiamente questa estate.
Il computer è solo uno degli strumenti fondamentali necessari per costruire un ecosistema di agenti efficace. Ne sono un esempio il protocollo aperto di Google Agent2Agent, che consente agli agenti di comunicare tra loro, o il protocollo Model Context di Anthropic, che permette agli agenti di accedere a servizi esterni. Ora Google ha annunciato che la sua API Gemini e il suo SDK sono ora compatibili con gli strumenti MCP.
L’azienda sta anche iniziando a integrare funzionalità agentiche in Chrome, nella Ricerca Google e nell’app Gemini. Ad esempio, il nuovo Agent Mode nell’app Gemini aiuterà a portare a termine sempre più attività. Se si sta cercando casa, l’agente può trovare annunci in linea con i propri criteri su siti come Zillow, regolare i filtri, usare MCP per accedere agli annunci e persino fissare una visita. Una versione sperimentale di Agent Mode arriverà presto per gli abbonati nell’app Gemini. È un ottimo modo anche per aziende come Zillow, che possono così attrarre nuovi clienti e aumentare i tassi di conversione.
Si tratta di un ambito nuovo e in rapida evoluzione, e Google intende esplorarne il potenziale per offrire vantaggi reali agli utenti e all’ecosistema più ampio.
Il potere della personalizzazione
Il modo migliore per trasformare la ricerca in realtà concreta – sottolinea Google – è renderla davvero utile nella vita di tutti i giorni. Ed è qui che la personalizzazione diventa estremamente potente. L’azienda sta lavorando per realizzare questo obiettivo attraverso ciò che chiama contesto personale. Con il consenso dell’utente, i modelli Gemini potranno utilizzare informazioni contestuali personali rilevanti dalle app Google in modo privato, trasparente e completamente sotto il controllo degli utenti.
Un esempio sono le nuove risposte rapide personalizzate in Gmail. Se un contatto ci scrive per chiedere consigli su un viaggio on the road che abbiamo già fatto, Gemini può cercare automaticamente nelle vecchie email e nei file in Google Drive, elementi come, ad esempio, itinerari salvati in Documenti Google, per suggerire una risposta ricca di dettagli utili. La risposta rispecchierà, inoltre, anche il saluto tipico, il tono, lo stile e persino le parole che l’utente usa più spesso, per creare un testo che lo rappresenti in modo autentico. Le risposte rapide personalizzate saranno disponibili per gli abbonati entro la fine dell’anno.
I modelli Gemini contribuiscono a rendere la Ricerca Google più intelligente, agentica e personalizzata.
Dal lancio dello scorso anno, sottolinea Google, AI Overview è stata estesa a oltre 1,5 miliardi di utenti in 200 Paesi e territori. Col tempo, l’azienda sta osservando che gli utenti sono più soddisfatti dei risultati e tendono a eseguire ricerche con maggiore frequenza. Nei mercati principali di Google come Stati Uniti e India, AI Overview sta generando più del 10% di crescita nelle tipologie di domande che le mostrano. E la crescita continua ad aumentare nel tempo.
Si tratta di una delle novità della Ricerca di maggior successo nell’ultimo decennio, mette in evidenza Google.
Per chi desidera un’esperienza di ricerca completamente basata sull’AI, Google sta introducendo AI Mode, in versione rinnovata. La Ricerca viene completamente ripensata. Grazie a capacità di ragionamento più avanzate, sarà possibile porre ad AI Mode domande più lunghe e complesse. Gli early tester hanno già iniziato a fare domande da due a tre volte più lunghe rispetto alle ricerche tradizionali, con la possibilità di proseguire con domande aggiuntive. Questa funzionalità è disponibile come nuova scheda all’interno della Ricerca.
AI Mode è ora disponibile per tutti gli utenti negli Stati Uniti. Grazie agli ultimi modelli Gemini, le risposte AI raggiungono standard elevati di qualità e accuratezza, in linea con quelli della Ricerca, e sono inoltre le più rapide del settore, afferma Google. E, da questa settimana, Gemini 2.5 arriverà nella Ricerca.
Il modello più potente ed efficiente di Google, Gemini 2.5 Flash, è stato molto apprezzato dagli sviluppatori per la sua velocità e il costo contenuto, afferma l’azienda, che dichiara anche: il nuovo Flash 2.5 è migliore in quasi ogni aspetto, con significativi passi avanti in benchmark chiave relativi a ragionamento, multimodalità, codice e contesti estesi. È secondo solo a 2.5 Pro nella classifica di LMArena.
Google sta inoltre migliorando 2.5 Pro con l’introduzione di una nuova modalità avanzata di ragionamento, Deep Think, che si basa sulle ricerche più recenti dell’azienda su pensiero e ragionamento, e include tecniche di ragionamento parallelo.
Deep Research diventa più personale, per consentire agli utenti di caricare i propri file e, a breve, di connettersi a Google Drive e Gmail, migliorando la sua capacità di generare report di ricerca personalizzati. Inoltre, Google sta eseguendo l’integrazione con Canvas, per consentire la creazione di infografiche dinamiche, quiz e persino podcast in numerose lingue con un solo clic. Oltre a questo, Google sta assistendo all’entusiasmante adozione del vibe coding con Canvas, che permette a sempre più persone di creare app funzionali, semplicemente conversando con Gemini.
Per quanto riguarda Gemini Live, una funzionalità che ha riscontrato un grande apprezzamento tra gli utenti, l’azienda sta rendendo disponibili gratuitamente le funzionalità di condivisione della fotocamera e dello schermo per tutti, inclusi gli utenti iOS. A breve sarà possibile anche collegare Gemini Live alle proprie app Google preferite, per un’assistenza ancora più fluida.
Google ha inoltre presentato il suo ultimo modello video all’avanguardia, Veo 3, che ora include la generazione di audio nativa. Sta inoltre introducendo Imagen 4, il suo modello di generazione di immagini più recente e potente. Entrambi sono disponibili nell’app Gemini, che schiude un mondo completamente nuovo alla creatività.
L’azienda sta anche offrendo ai registi queste opportunità grazie a un nuovo strumento, Flow, con cui è possibile creare clip cinematografici e trasformare un clip breve in una scena più lunga.









