I tried the next-gen Android XR prototype smart glasses, and these frames are ready for your close-up

Cela devient un sentiment familier, ce moment de plaisir où un peu d’information, de vidéo, de photos, de navigation ou même de traduction en direct flotte devant mes yeux. Je l’ai vu maintenant avec les écrans Meta Ray-Ban et Meta Orion. Il s’agit du nouvel état de l’art en matière de lunettes intelligentes, et j’étais ravi de voir Android XR rejoindre enfin la fête.
Cette semaine marque un tournant critique pour le parcours de Google Android XR, un parcours qui a commencé de manière quelque peu peu propice avec le Samsung Galaxy XR, mais qui devrait bientôt tenir la promesse de lunettes intelligentes portables, à emporter partout et soutenues par l’IA Gemini.
Affichage, tête haute
Nous avons commencé avec les montures prototypes monoculaires Android XR, qui se distinguaient par leur légèreté plus volumineuse que les lunettes traditionnelles. Ils avaient été pré-équipés de verres correcteurs pour s’adapter à ma vue, qui se trouvaient juste derrière ce qui ressemblait à vos verres de lunettes transparents typiques.
Google utilise la technologie du guide d’ondes pour les versions mono et double affichage. Fondamentalement, cela utilise de minuscules écrans intégrés dans les bords des cadres. Les images sont ensuite projetées à travers la lentille et transmises via les guides d’ondes à l’œil ou aux yeux du porteur. Cela crée l’illusion d’un écran ou d’images flottantes.
L’une des astuces intéressantes ici est que même si des images nettes, par exemple de l’heure et de la température, peuvent rester flottantes devant vos yeux, elles n’occultent jamais votre vision. Au lieu de cela, vous changez simplement la mise au point de près (pour afficher les images AR) à loin pour voir ce qui se trouve réellement devant vous.
Soit dit en passant, cela contraste avec les micro-écrans haute résolution utilisés par la plupart des plateformes de réalité mixte comme Vision Pro et Galaxy XR. Avec ceux-ci, vous ne regardez jamais à travers un objectif ; au lieu de cela, le monde entier, à la fois réel et augmenté, vous est présenté sur les micro-écrans stéréo.
Google a gardé les deux prototypes fins, légers et confortables en confiant la plupart des tâches de traitement à un Google Pixel 10 couplé (le plan est de les faire fonctionner également avec les iPhones). Cela semble être la stratégie privilégiée pour ces types de lunettes intelligentes à porter en permanence et, pour être honnête, cela a du sens. Pourquoi essayer de recréer la puissance de traitement d’un téléphone dans vos lunettes alors que vous aurez presque certainement votre téléphone avec vous ? C’est un mariage qui, d’après ma brève expérience, fonctionne.
Android XR
Google appelle les montures « AI Glasses », en s’appuyant sur l’assistance toujours prête que Google Gemini peut fournir. Il y aura des modèles sans écran qui écouteront votre voix et fourniront des réponses via les haut-parleurs intégrés. Tout au long de mes démos, j’ai constaté que, même avec les écrans éteints, Gemini à votre écoute pouvait toujours être utile via des interactions audio.
Pourtant, il y a quelque chose dans les écrans intégrés à l’objectif qui est tout simplement convaincant.
Alors que l’affichage monoculaire n’affiche que pour un seul œil, votre cerveau effectue rapidement l’ajustement et vous interprétez les bits vidéo comme étant montrés aux deux yeux, même si une partie est légèrement à gauche du centre.
Mon expérience initiale était celle d’un temps et d’une température de flottement faibles ; Je pouvais me concentrer pour le voir ou regarder au-delà pour l’ignorer. Vous pouvez aussi, bien entendu, éteindre l’écran.
D’une certaine manière, l’expérience qui a suivi ressemblait beaucoup à celle que j’ai vécue il y a quelques mois avec Meta Ray-Ban Display.
Les cadres sont équipés de caméras que vous pouvez utiliser pour montrer votre monde à Gemini ou pour le partager avec d’autres.
Invoquant Gemini avec une longue pression sur la tige, je lui ai demandé de me trouver une musique qui correspondait à l’ambiance de la pièce. Je lui ai également demandé de jouer une chanson de Noël de David Bowie. Flottant devant mes yeux se trouvait un petit widget de lecture YouTube connecté à la version Bowie/Bing Crosby de “Petit garçon batteur”, Je pouvais entendre à travers les haut-parleurs intégrés aux lunettes. Les dirigeants de Google m’ont dit qu’ils n’avaient pas besoin d’écrire de code spécial pour que le contenu apparaisse dans ce format.

À un autre moment, j’ai regardé une étagère pleine de produits d’épicerie et j’ai demandé à Gemini de suggérer un repas basé sur les ingrédients disponibles. Il y avait des boîtes de tomates, alors naturellement, j’ai eu de la sauce tomate. J’ai profité de chaque occasion pour interrompre Gemini et le rediriger ou l’interroger. Il a géré tout cela avec aisance et politesse, comme quelqu’un avait l’habitude de traiter avec des clients impolis.
Prendre une photo est facile, mais les cadres ont également accès aux modèles Gemini et peuvent utiliser Nano Banana Pro pour ajouter des améliorations de l’IA.
J’ai regardé une étagère de fenêtre à proximité et j’ai demandé à Gemini de remplir l’espace avec des ours en peluche. Comme la plupart des autres demandes, cela est passé des lunettes au téléphone jusqu’au cloud de Google, où Nano Banana Pro a rapidement fait son travail.
En quelques secondes, je regardais une image photoréaliste d’ours en peluche adorablement situés sur le rebord de la fenêtre. Les images sont toujours relativement nettes et claires, mais sans jamais bloquer complètement ma vision.
Un membre de l’équipe Google a appelé les lunettes à l’aide de Google Meet ; J’ai répondu et j’ai vu une vidéo d’eux. Ensuite, je leur ai montré mon point de vue.

L’une des démonstrations les plus surprenantes a eu lieu lorsqu’une personne parlant chinois est entrée dans la pièce et que les lunettes ont automatiquement détecté sa langue et traduit à la volée. J’entendais ses mots traduits en anglais dans mes oreilles, mais je pouvais aussi les lire devant mes yeux. La vitesse et la précision apparente étaient étonnantes.
Naturellement, les lunettes pourraient constituer un excellent système de navigation tête haute. J’ai demandé à Gemini de trouver un musée à proximité, et une fois que nous avons choisi le Musée des Illusions (visuelles, pas magiques), je lui ai demandé de fournir des instructions étape par étape. Quand je levais les yeux, je pouvais voir où je devais tourner ensuite, et quand je baissais les yeux, je pouvais voir ma position sur la carte et dans quelle direction je faisais face.
Google s’est associé à Uber pour proposer cette expérience à l’intérieur. Ils m’ont montré comment le système pouvait m’aider à naviguer dans un aéroport en fonction des données de navigation d’Uber.

Double vision
J’ai ensuite enfilé les prototypes à double affichage. Ils ne semblaient ni plus gros ni plus lourds que les versions monoculaires, mais offraient une expérience visuelle radicalement différente.
Premièrement, vous bénéficiez d’un champ de vision plus large et, comme il s’agit de deux écrans (un pour chaque œil), vous obtenez une stéréovision instantanée.
Sur les cartes, cela vous donne des aperçus 3D des villes qui changent en fonction de la façon dont vous les voyez. Les cadres peuvent créer n’importe quelle image ou vidéo en 3D, même si certaines d’entre elles semblaient un peu bizarres à mes yeux ; Je préférerai toujours visualiser du contenu spatial réellement tourné en 3D.
Pourtant, c’est utile dans Google Maps où, si vous entrez dans un établissement, les bi-écrans transforment chaque image intérieure en image 3D.
Aura du projet Xreal
L’équipe Android XR de Google m’a donné une brève démonstration pratique du projet Aura.
Xreal est un leader dans le domaine des lunettes d’affichage qui produisent essentiellement des écrans virtuels de 200 pouces à partir de n’importe quel appareil connecté via USB-C (téléphones, ordinateurs portables, systèmes de jeux), mais Project Aura est une bête différente. Comme le Samsung Galaxy XR, il s’agit d’un système Android XR autonome, un ordinateur sur votre visage sous la forme de lunettes légères. C’est du moins la promesse.
Comme Xreal One, les lunettes utilisent des écrans Sony Micro LED qui projettent des images à travers des prismes épais vers vos yeux. Ces lunettes étaient également prééquipées avec ma prescription, afin que je puisse voir clairement l’expérience.
Contrairement aux prototypes Android XR, les lunettes du Xreal Project Aura se connectent via un port situé à l’extrémité arrière d’une tige à une rondelle de calcul de la taille d’un smartphone qui, fait intéressant, comprend un trackpad intégré pour le contrôle de la souris, même si je n’ai pas réussi à le faire fonctionner pour moi.
Ils offrent un FoV clair et relativement spacieux de 70 degrés. Comme le Samsung Galaxy XR, l’Aura utilise le contrôle gestuel. Il n’y a pas de caméra qui suit les yeux, j’ai donc dû pointer et pincer intentionnellement des éléments à l’écran. Puisqu’il s’agit d’un système Android XR, les métaphores de contrôle, les menus et les éléments d’interface sont, pour le meilleur ou pour le pire, identiques à ceux que j’ai trouvés avec le Samsung Galaxy XR.
Nous les avons utilisés pour nous connecter rapidement à un PC à proximité pour une expérience de productivité sur grand écran.
Ma partie préférée était une démo de plateau de jeu géant. Il s’agissait d’une sorte de jeu de cartes Donjons et Dragons dans lequel je pouvais utiliser une ou mes deux mains pour déplacer et redimensionner le plateau de jeu en 3D et plutôt détaillé. Lorsque j’ai retourné ma main, une demi-douzaine de cartes se sont déployées devant moi. Je pourrais saisir chaque carte virtuelle et l’examiner. Sur le terrain de jeu se trouvaient de petites pièces de personnages de jeu que je pouvais également ramasser et examiner. Pendant tout ce temps, la rondelle du processeur pendait à ma ceinture.
Contrairement aux prototypes des AI Glasses, le Project Aura est toujours considéré comme un appareil « épisodique », que vous pouvez utiliser occasionnellement, et généralement à la maison, au bureau ou peut-être lors d’un vol de retour.
Le Galaxy XR passe au niveau supérieur
L’appareil Android XR d’origine, le Galaxy XR, reçoit également une mise à jour mineure au cours de ce cycle.
J’ai essayé, pour la première fois, Likenesses du Galaxy XR, qui est la version Google de Personas sur Vision Pro. Contrairement à ceux-ci, cependant, vous capturez votre image avec votre téléphone. À partir de là, il génère une réplique animée de votre visage et de vos épaules.
J’ai mené un appel Google Meet avec un représentant de Google et j’ai pu voir sa ressemblance étrangement réaliste, qui semblait suivre tous ses mouvements du visage. Cela incluait même ses mains. Nous avons pu partager un écran Canva et travailler ensemble.
Google m’a dit que même si quelqu’un ne porte pas de casque comme le Galaxy XR, doté de caméras qui suivent votre visage, le système pourrait éventuellement utiliser uniquement des signaux audio pour piloter une ressemblance et créer un avatar animé réaliste à l’autre bout de l’appel.

Où aller ensuite ?
Bien que toutes ces démos aient été passionnantes, nous sommes encore à au moins quelques mois de la disponibilité commerciale du projet Aura, et c’est sinon plus, pour les lunettes d’affichage Android XR AI.
Google n’a pas beaucoup parlé de la durée de vie de la batterie ni de sa proximité avec les partenaires de cadres Warby Parker et Gentle Monster des cadres d’affichage AI fonctionnels (et relativement abordables).
Cependant, d’après ce que j’ai vu, nous sommes plus proches que je ne le pensais auparavant. De plus, l’écosystème des montures et des appareils connectés comme les très importants téléphones, montres pixel, ordinateurs et magasins d’applications semble se rassembler.
Je pense que nous en avons presque fini avec nos alliances avec les appareils d’immersion à usage épisodique trop coûteux. L’heure des lunettes AR alimentées par l’IA est maintenant arrivée et, pour ma part, je suis prêt à commencer.
Suivez TechRadar sur Google Actualités et ajoutez-nous comme source préférée pour obtenir nos actualités, avis et opinions d’experts dans vos flux. Assurez-vous de cliquer sur le bouton Suivre !
Et bien sûr, vous pouvez aussi suivez TechRadar sur TikTok pour des actualités, des critiques, des déballages sous forme vidéo et recevez des mises à jour régulières de notre part sur WhatsApp aussi.




