Lors de The Android Show : XR Edition, Google a offert un premier aperçu de Project Aura. Pour ceux qui ne le savent pas encore, il s’agit de ses nouvelles lunettes XR développées avec Xreal. Alors, que nous réserve cet appareil hybride ?
Google nous dévoile un peu plus son Project Aura, prévu pour une sortie en 2026. La paire de lunettes intrigue par son format discret et ses capacités. Elle se situe à mi-chemin entre lunettes et casque. C’est un concentré de technologie dans des lunettes. Voici pourquoi.
Des lunettes AR qui font bien plus que superposer des infos
Project Aura ressemble à une paire de lunettes de soleil un peu surdimensionnée. Mais derrière ce design épuré se cache un vrai mini-ordinateur XR. Reliées à un petit boîtier externe qui sert aussi de pavé tactile et de batterie, ces lunettes offrent un champ de vision de 70 degrés. Elles permettent de manipuler des applications Android comme jamais auparavant.
Que ce soit pour consulter YouTube tout en travaillant sur Lightroom, Project Aura permet de rester productif. Vous pouvez aussi jouer à un jeu de plateau en 3D ou utiliser des outils comme Circle to Search pour identifier des objets dans votre environnement. L’expérience reste immersive sans isoler l’utilisateur du monde réel.
Les lunettes AR classiques se limitent souvent à superposer des informations numériques sur votre environnement. Mais grâce à Aura, votre espace devient un bureau virtuel ou un terrain de jeu interactif. Les applications Android existantes, notamment celles déjà disponibles sur le Galaxy XR, fonctionnent sans adaptation. Cela réduit la fragmentation qui freine souvent le développement sur d’autres plateformes XR.
Cette compatibilité avec un large écosystème d’applications est un vrai atout. Cela pourrait donner à Android XR un avantage décisif face à Meta et Apple, encore très fermés sur leurs écosystèmes respectifs.
Un futur XR accessible et interopérable
Les lunettes intègrent trois caméras pour suivre les mains et l’espace autour de l’utilisateur. De plus, elles permettent de prendre des photos et vidéos, analysées en direct par Gemini, l’IA de Google. Même la traduction en temps réel, les appels Google Meet et les widgets interactifs d’applications comme Uber ou YouTube Music fonctionnent parfaitement. L’interopérabilité va même jusqu’aux montres connectées sous Wear OS, qui peuvent afficher les photos prises par les lunettes.
L’un des points les plus surprenants révélés lors de la présentation est la compatibilité iOS prévue pour Project Aura. Les utilisateurs d’iPhone pourront profiter de l’expérience complète de Gemini sur les lunettes, avec un support des applications Google principales, comme Google Maps ou YouTube Music. Cette approche multiplateforme pourrait devenir un vrai différenciateur pour Google, alors que Meta et Apple restent plus restrictifs.
Google a également pris soin de répondre aux critiques héritées des Google Glass. Un voyant lumineux clignote lorsqu’une caméra est active. Et tous les contrôles de la caméra sont signalés avec des indicateurs rouges et verts visibles. Tout cela la transparence et le respect de la vie privée. L’ensemble du système repose sur l’écosystème Android et les protocoles de sécurité de Gemini.
Le design de Project Aura reste encore prototypique. Mais Google et Xreal explorent plusieurs variantes, du simple modèle audio aux lunettes équipées d’écrans doubles pour un champ de vision élargi. Les lunettes sont pensées comme un outil portable, à utiliser sur de courtes périodes. Mais leur boîtier et leur puce Qualcomm XR Gen 2 Plus permettent déjà de réaliser tout ce que l’on attend d’un casque VR beaucoup plus volumineux.
- Partager l'article :
