in

Une démo en direct vous révèle les secrets des lunettes Android XR de Google

lunettes Android xr google

Lors d’un événement TED récent, a montré ses nouvelles lunettes futuristes. Mais une séquence vidéo permet de voir ces dernières à l’œuvre. Traductions instantanées, détection d’objets ou encore guidage visuel : les possibilités sont nombreuses.

Le 08 avril 2025, une conférence TED a eu lieu. Nous vous rapportions alors que Google a montré un prototype de ses toutes premières lunettes AR durant cet événement. Pour rappel, ces lunettes, discrètes en apparence, tournent sous XR et peuvent capturer, traduire et transcrire des conversations en direct.

YouTube video

En outre, ces lunettes sont capables de se souvenir de ce que vous avez vu. Avec l’aide de Gemini, leur assistant IA, et d’une caméra intégrée, elles repèrent votre environnement. Besoin de retrouver un objet oublié ? Elles peuvent vous montrer où vous l’avez posé. Vous pouvez voir les détails dans notre article précédent.

Comme nous l’avions dit plus haut, début avril, un cadre de Google a pris la parole lors d’un événement TED. Il y a montré deux nouveautés : des lunettes connectées et un futur casque XR conçu avec . La présentation (une démonstration de 15 minutes) peut désormais être visionnée par tous. De plus, On peut désormais voir des images de la démo sur le profil TED Talk X.

Navigation, traduction, mémoire : les lunettes Android XR de Google en action

Lors de la démonstration, Shahram Izadi, responsable d’Android XR chez Google, et son collègue Nishtha Bhatia ont révélé les nombreuses capacités des lunettes Android XR. En matière de navigation, Gemini peut guider l’utilisateur vers un lieu précis. Il y a des instructions en 2D affichées devant lui et une mini-carte 3D visible en baissant les yeux.

L’IA est aussi capable de générer du texte à partir de ce qu’elle perçoit : Bhatia lui demande d’écrire un haïku en observant le public, et l’IA compose un poème sur le vif. Côté traduction, Gemini comprend automatiquement la langue affichée sur un panneau, et la traduit sans indication.

La mémoire contextuelle nous impressionne aussi. En évoquant simplement un « livre blanc » ou sa « carte de chambre d’hôtel », Gemini retrouve sans erreur l’objet en question dans l’environnement. L’IA comprend aussi plusieurs langues sans réglage préalable.

Lorsqu’un schéma est montré dans un livre, Gemini sait également en expliquer le contenu. Enfin, les lunettes permettent d’agir sur le smartphone : en pointant un album, Bhatia peut demander à l’IA de lancer un morceau, qui est diffusé dans les lunettes via Bluetooth.

Impressionnant, n’est-ce pas ?

Restez à la pointe de l'information avec REALITE-VIRTUELLE.COM !

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *