Ce n’est plus un secret : d’ici 2027, Apple compte lancer ses lunettes intelligentes. La marque veut à tout prix rattraper son retard sur Meta. Pour ce faire, elle va utiliser une intelligence visuelle qui analyse en direct tout ce qui se trouve autour de vous. Ainsi, vos lunettes vont devenir des guides capables d’expliquer ce que vos yeux fixent.
Les gadgets connectés progressent énormément depuis que l’intelligence artificielle est partout. Aujourd’hui, Meta est en tête du marché avec ses lunettes Ray-Ban qui reconnaissent tout ce qu’elles voient. Pour rattraper son retard, Apple prépare discrètement son propre modèle, un projet secret appelé « N50 » qui fonctionnera grâce à l’intelligence visuelle.
L’ambition d’Apple avec l’intelligence visuelle
La stratégie d’Apple s’appuie sur une nouveauté appelée « Visual Intelligence ». Grâce à cette technologie, une caméra peut identifier des objets, lire des textes ou reconnaître des lieux en un clin d’œil. D’ailleurs, les spécialistes pensent que la fabrication en usine débutera dès la fin de l’année 2026.
Pour que ces lunettes restent légères et abordables, elles n’auront pas d’écran au départ. En revanche, elles seront équipées de deux caméras différentes : l’une pour les photos classiques et l’autre, très économe en batterie, pour scanner ce qui vous entoure sans arrêt.
L’objectif est aussi de vous guider très précisément dans la rue en repérant des détails visuels. De plus, Siri pourra répondre à vos questions en comprenant exactement ce que vous regardez. Par exemple, le système pourra traduire des panneaux étrangers pour vous donner la réponse directement dans les oreilles.
De la même manière, Apple veut faire fonctionner les lunettes avec les AirPods pour mettre en avant uniquement la voix de la personne que vous fixez. Enfin, comme les informations sont traitées directement à l’intérieur de l’appareil, vos images restent privées et sécurisées.
Meta mène la danse face aux premiers essais d’Apple
Pour l’instant, Meta conserve une longueur d’avance avec ses lunettes Ray-Ban déjà disponibles sur le marché. Leur fonction « Regarder et demander » permet d’identifier des plantes, des monuments ou des animaux avec une grande efficacité.
Des tests comparatifs montrent que l’IA de Meta est souvent plus bavarde et précise que celle d’Apple. Par exemple, Meta réussit mieux à expliquer les règles d’un jeu de société ou l’histoire d’un tableau célèbre. L’outil d’Apple, actuellement testé sur l’iPhone 16, se montre parfois trop minimaliste dans ses descriptions.
La solution de Meta permet aussi de diffuser des vidéos en direct sur les réseaux sociaux en gardant les mains libres. Cependant, le système d’Apple possède déjà des points forts, notamment dans l’estimation calorique des repas faits maison. La compétition se joue également sur l’ergonomie logicielle. Meta offre un historique des conversations visuelles très pratique pour l’utilisateur.
De son côté, Apple doit encore améliorer Siri qui peine parfois à enchaîner les questions. La bataille de 2027 s’annonce donc décisive pour déterminer quel géant saura le mieux fusionner le monde réel et le monde numérique. Les futurs accessoires comme les pendentifs ou les montres intelligentes viendront bientôt compléter cet écosystème visuel.
- Partager l'article :
