in ,

Google lance la Depth API pour ARCore et rattrape son retard sur Apple

google arcore depth api

vient de dévoiler la Depth API : un nouvel outil pour son framework de réalité augmentée ARCore. Grâce à cette API, les applications de réalité augmentée pour smartphones et tablettes permettront notamment d’afficher les objets virtuels de façon plus réaliste avec un phénomène d’occlusion…

En attendant l’ère des lunettes de réalité augmentée, Google poursuit le développement de son framework Google ARCore dédié au développement d’applications en RA. La firme dévoile aujourd’hui un nouvel outil intitulé  » Depth API « . Celui-ci offre plusieurs nouvelles possibilités.

Tout d’abord, cette API permet aux appareils mobiles de cartographier la profondeur par le biais d’une seule caméra RGB. Pour ce faire, elle s’appuie sur des algorithmes  » depth-from-motion  » conçus par Google. Ces derniers permettent la création d’une carte de profondeur en prenant de multiples images sous différents angles et en les comparant lorsque l’utilisateur bouge son smartphone. Cette méthode permet d’estimer la distance de chaque pixel.

D’ordinaire, les casques de réalité augmentée utilisent plusieurs capteurs de profondeur pour générer de telles cartes. La prouesse accomplie par Google est donc remarquable.

Grâce à cette capacité d’estimation de la profondeur, la Depth API permet de rendre les expériences en réalité augmentée plus naturelles en plaçant les éléments virtuels de façon réaliste. En effet, elle permet le phénomène d’occlusion consistant à placer les objets virtuels devant ou derrière les éléments physiques en fonction de leur position, comme dans le monde réel.

Dans un premier temps, l’occlusion sera tout d’abord proposée dans Scene Viewer : l’outil destiné aux développeurs sur lequel repose la réalité augmentée sur le moteur de recherche Search du géant. Plusieurs démonstrations ont été présentées pour montrer toutes les nouveautés apportées par cette API.

YouTube video

Google ARCore rattrape ARkit et démocratise l’occlusion pour la réalité augmentée

Cet effet était déjà proposé par Apple ARKit, le framework de réalité augmentée du grand rival de Google, depuis la version 3 lancée en juin 2019. Google accuse donc un certain retard.

Cependant, rappelons que seuls les iPhone et iPad équipés du processeur Bionic A12 lancé en 2018 par Apple sont compatibles avec ARKit 3. De fait, seules deux générations de produits pouvaient profiter de cette innovation jusqu’à présent.

Grâce à la Depth API de Google, en revanche, les 200 millions de smartphones Android compatibles ARCore pourront profiter de cette nouveauté. La portée de cette API est donc considérablement supérieure à celle d’Apple ARKit 3 et signe la démocratisation de l’occlusion dans la réalité augmentée sur mobile.

Pour cause, la Depth API ne requiert pas de caméra ou de capteurs spécialisés. Néanmoins, sur les futurs smartphones qui seront équipés de nouveaux capteurs  » time-of-flight  » (ToF), les objets virtuels pourraient même être obstrués par des objets physiques en mouvement. Le réalisme des expériences de réalité augmentée s’en trouverait donc encore accru !

En mai 2019, lors de la conférence I/O, Google avait lancé son outil  » Environmental HDR «  qui permettait déjà un éclairage plus réaliste des objets et des paysages en réalité augmentée. Les reflets et les ombres s’en trouvent aussi améliorés. À présent, la Depth API vient à son tour perfectionner le framework. Elle sera disponible prochainement, et les développeurs intéressés pour l’utiliser peuvent signer un formulaire à cette adresse.

Pour l’heure, les applications de réalité augmentée créées avec Google ARCore ou Apple ARKit ne peuvent être affichées que par des smartphones et des tablettes. Cependant, on peut s’attendre à ce que les deux firmes se basent sur les progrès accomplis pour leurs plateformes respectives pour confectionner les outils de développement de leurs futurs casques et lunettes AR. Il est même probable que les applis créées avec ces frameworks soient directement compatibles avec ces appareils à venir…

1 commentaires

Un commentaire

Répondre
  1. Non cet « effet » n’est pas proposé par ARKit 3, ARKit propose l’occlusion du corps humain en temps réel, tandis que ARCore propose une occlusion de tous les objets fixes dans la scène.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *