Google intègre Gemini à Android Auto

Google a annoncé lors de son Android Show — organisé avant la conférence des développeurs I/O 2025 — que Gemini, son IA générative, sera déployée dans tous les véhicules compatibles avec Android Auto dans les mois à venir.
Selon l’entreprise, l’intégration de Gemini à Android Auto, puis plus tard cette année aux véhicules équipés du système d’exploitation intégré de Google, améliorera l’expérience de conduite en la rendant « plus productive — et amusante », comme le souligne un article de blog.
« C’est, selon nous, l’un des changements les plus importants apportés à la technologie embarquée depuis très longtemps », a déclaré Patrick Brady, vice-président Android pour les véhicules chez Google, lors d’un briefing avec les médias avant l’événement.
Gemini apparaîtra dans Android Auto de deux manières principales.
Gemini améliore l’assistance vocale embarquée avec des capacités en langage naturel pour des interactions plus intuitives
Principalement, Gemini servira d’assistant vocal nettement plus performant. Les conducteurs — ou les passagers, puisque la reconnaissance vocale n’est pas limitée au propriétaire du téléphone — pourront demander à Gemini d’envoyer des messages ou de lancer de la musique. Bien que ces fonctions soient déjà possibles avec Google Assistant, le traitement du langage naturel de Gemini permet une interaction plus fluide et conversationnelle, sans commandes vocales rigides.
Gemini pourra également « se souvenir » des préférences des utilisateurs — comme la langue préférée d’un contact pour les SMS — et gérer automatiquement les traductions. De plus, Google indique que Gemini sera capable de réaliser l’une des tâches technologiques les plus demandées en voiture : trouver les restaurants les mieux notés le long de l’itinéraire. Selon Brady, il pourra même explorer les fiches et avis Google pour répondre à des demandes plus précises, comme localiser des restaurants de tacos avec des options véganes.
« Gemini Live » permet des conversations continues et dynamiques sur une variété de sujets pendant la conduite.
Une autre fonctionnalité clé, « Gemini Live », maintient l’assistant IA actif en permanence, prêt à tenir des conversations complètes sur divers sujets. Brady précise que les utilisateurs pourront parler avec Gemini de voyages, de recettes pour enfants ou encore d’histoire romaine.
Si cela semble distrayant, Brady affirme au contraire que les capacités en langage naturel de Gemini simplifient l’usage d’Android Auto et réduisent la charge mentale.
Une affirmation audacieuse, alors que de nombreux conducteurs réclament le retour aux boutons physiques, délaissant les interfaces tactiles — une tendance déjà adoptée par certains constructeurs.
Gemini sera lancé avec un support cloud, avec des projets de traitement embarqué pour améliorer les performances et la fiabilité.
De nombreux détails restent à finaliser. Au lancement, Gemini s’appuiera sur le cloud pour fonctionner à la fois dans Android Auto et dans les véhicules équipés de Google Built-In. Toutefois, Brady a précisé que Google collabore avec les constructeurs automobiles pour intégrer davantage de puissance de calcul embarquée. Cela permettrait à Gemini de fonctionner localement (en edge computing), améliorant ainsi les performances et la fiabilité — des points cruciaux dans les véhicules qui changent fréquemment d’antenne relais.
Les véhicules actuels génèrent d’importantes quantités de données via des capteurs et, parfois, des caméras internes et externes. Interrogé sur la possibilité que Gemini exploite un jour ces données multimodales, Brady a répondu qu’il n’y avait « rien à annoncer » pour l’instant, tout en confirmant que l’idée est activement étudiée.
« Nous sommes convaincus que, avec l’augmentation du nombre de caméras dans les voitures, des cas d’usage très intéressants verront le jour », a-t-il déclaré.
Gemini pour Android Auto et Google Built-In sera déployé dans toutes les régions où l’IA générative de Google est déjà prise en charge, avec une disponibilité dans plus de 40 langues.
Lire l’article original sur : TechCrunch
À lire aussi : Google and Duolingo think AI can transform language learning. Do they?
Laisser un commentaire