Google I/O 2025 : l’IA infuse tout l’écosystème Google
À l’occasion de sa conférence annuelle, Google a présenté une vague d’innovations centrées sur l’intelligence artificielle, qui redéfinissent ses produits grand public, ses outils pour développeurs et ses projets expérimentaux.
La conférence Google I/O 2025, qui s’est tenue cette semaine à Mountain View, a marqué un tournant dans la stratégie d’intégration de l’IA au sein de l’écosystème Google. De Search à Android, de Gmail à YouTube, en passant par des services encore en bêta comme Beam ou Flow, l’intelligence artificielle devient omniprésente. L’ensemble des nouveautés s’articule autour de Gemini, la famille de modèles d’IA de nouvelle génération.
Gemini : généralisation, agentivité et raisonnement
Le cœur des annonces est la montée en puissance de Gemini 2.5 Pro et de ses déclinaisons. Google a dévoilé “Deep Think”, un mode de raisonnement amélioré capable d’évaluer plusieurs hypothèses avant de répondre, en cours de test via l’API Gemini. Cette fonction s’adresse en priorité aux usages exigeant de la rigueur, comme le code, les mathématiques ou les recherches documentaires.
Le modèle Gemini 2.5 Pro est au centre de l’offre “Google AI Ultra”, un abonnement à 249 dollars par mois qui donne accès aux versions les plus avancées de Gemini, à des modèles créatifs comme Veo 3 et Imagen 4, à l’édition vidéo Flow, ainsi qu’à des outils d’agents comme Project Mariner. L’offre Pro (19,99 $) et la version gratuite coexistent toujours, avec des plafonds et fonctionnalités distincts.
En parallèle, Google généralise Gemini Live sur Android et iOS, permettant des échanges vocaux en temps réel avec l’IA, en utilisant la caméra ou l’écran comme source visuelle. L’Agent Mode, déployé sur desktop et mobile, permet à Gemini d’exécuter des tâches comme créer un événement, gérer une liste ou naviguer dans un site.
Création visuelle : Veo, Imagen, Flow
Du côté de la création de contenu, Google introduit Veo 3, un générateur vidéo capable de produire non seulement des images animées, mais aussi des sons, dialogues et ambiances. Il est intégré à Flow, un nouvel outil de réalisation assistée par IA, pensé pour les créateurs vidéo. Imagen 4, pour sa part, améliore la qualité des images générées avec une résolution pouvant atteindre le 2K et des détails fins comme les textures, reflets ou poils d’animaux.
Ces outils visent à rivaliser avec les offres d’OpenAI (Sora), Runway ou Adobe, tout en restant intégrés à l’environnement Google. Flow combine les modèles Veo, Imagen et Gemini pour proposer une expérience complète de génération, ajustement et montage.
Recherche et Workspace : Search devient interactif
Google Search bénéficie lui aussi d’une refonte majeure avec AI Mode. Cette nouvelle interface permet de poser des questions complexes, d’obtenir des synthèses enrichies, de visualiser des données en graphiques et d’interagir avec du contenu visuel via l’appareil photo (Search Live). Project Astra, la technologie multimodale de réponse en temps réel, alimente cette évolution.
AI Mode prend aussi en compte le contexte personnel, avec des résultats basés sur Gmail ou Google Calendar. Il s’intègre à Google Pay pour effectuer des achats depuis une interface conversationnelle. Les AI Overviews sont désormais disponibles dans 200 pays et 40 langues.
Dans Gmail, des fonctions comme les réponses intelligentes personnalisées, le nettoyage automatique de la boîte de réception et l’intégration directe avec Calendar arrivent progressivement. Google Meet bénéficie d’une traduction vocale en temps réel, tandis que Docs propose un mode rédaction assistée basé sur des sources définies.
Outils développeurs : Jules, Stitch, Android Studio
Du côté des développeurs, Google renforce Android Studio avec Gemini 2.5 Pro intégré, un mode “Journeys” pour guider le processus de développement et une fonction de débogage automatique alimentée par l’IA. Jules, l’agent de programmation, est désormais disponible en bêta ouverte. Il peut lire du code, écrire des tests, corriger des bugs ou créer des branches GitHub de manière autonome.
Stitch, un autre outil présenté, permet de concevoir des interfaces web et mobiles à partir d’une simple description textuelle ou d’une image. Il génère automatiquement les composants HTML et CSS associés.
Enfin, le Play Store propose de nouveaux outils pour les éditeurs d’applications, comme l’arrêt immédiat d’un déploiement en cas de bug, ou la gestion simplifiée des abonnements avec des options d’ajout groupé.
Projets expérimentaux et lunettes XR
Parmi les projets avancés, Google a officialisé la transformation de Project Starline en Beam, un système de visioconférence 3D avec suivi des mouvements, rendu spatial et traduction vocale IA. Il s’intègre à Google Meet et vise les usages professionnels.
Project Astra, quant à lui, continue de démontrer les capacités d’interaction multimodale quasi-instantanée, bientôt intégrées dans les lunettes Android XR. Ces lunettes, développées avec Samsung et Warby Parker, permettront de recevoir des messages, traduire des conversations, ou naviguer en réalité augmentée.
Google prévoit leur lancement commercial dans le courant de l’année.