À l’occasion de sa conférence annuelle, Meta a dévoilé une nouvelle génération de lunettes intelligentes et d’outils de création immersive, affirmant son ambition d’imposer une informatique augmentée par l’IA dans les usages quotidiens. Derrière l’argument de simplicité se profile une convergence stratégique entre matériel, IA embarquée et infrastructure métavers.
Les lunettes connectées ne sont plus un gadget de niche. En les dotant de capacités conversationnelles, d’enregistrement audiovisuel et d’assistance contextuelle continue, Meta entend façonner un nouvel usage technologique de proximité. Les annonces de Connect 2025 visent à installer une continuité d’expérience entre les objets du quotidien et les plateformes immersives, avec en ligne de mire un marché professionnel friand de productivité augmentée.
Trois modèles ont été présentés : les nouvelles Ray‑Ban Meta (Gen 2), les Oakley Meta Vanguard à destination des activités sportives et extérieures, et le modèle haut de gamme Ray‑Ban Display équipé d’un écran projeté et d’un bandeau EMG (« Neural Band ») pour piloter l’interface par micro‑gestes. L’autonomie moyenne grimpe à huit heures pour les modèles standard, jusqu’à neuf heures pour la version Vanguard. L’ensemble s’accompagne d’un renforcement de la capture visuelle en ultra‑HD et d’un élargissement du champ de vision à 122°.
Outre les performances matérielles, Meta introduit la fonction Conversation Focus, destinée à améliorer la captation audio dans les environnements bruyants, et propose une mise à jour logicielle pour les versions antérieures. Signe de maturité, le prix des modèles s’échelonne de 419 € à plus de 800 $, marquant une volonté de couvrir à la fois les usages grand public et professionnels.
Vers une informatique de proximité en environnement ouvert
Avec cette gamme, Meta affirme son intention de faire des lunettes intelligentes un point d’accès récurrent à l’IA, en complément du smartphone et des assistants vocaux. Le couplage avec Meta AI, son assistant conversationnel multimodal, doit permettre d’interagir avec l’environnement (reconnaissance d’objets, consultation de notices, réponses contextuelles) sans avoir à sortir son téléphone. Pour cela, les lunettes sont conçues pour un usage dit “environnemental” : activation automatique, traitement embarqué et visualisation rapide, sans latence excessive.
Ce positionnement transforme l’expérience numérique en une assistance éthérée mais toujours disponible, et potentiellement intégrée aux usages métiers : gestion de stocks, formation, guidage en intervention, visualisation contextuelle, voire accès mains libres à des données métiers critiques. Mais cette vision se heurte à des enjeux de confidentialité, d’acceptabilité sociale et de gouvernance des données, notamment en Europe.
Un métavers réamorcé, mais plus discret
Meta ne renonce pas à sa vision du métavers, mais en revoit les modalités. Le moteur Horizon Engine est entièrement repensé : graphismes plus réalistes, gestion physique des objets, instanciation plus fluide. Un nouveau studio de création, Horizon Studio, permet aux concepteurs de générer les environnements, les textures, les animations et les sons via de simples invites textuelles, grâce à l’IA générative.
Une nouvelle fonctionnalité baptisée Hyperscape Capture promet la génération d’environnements immersifs à partir d’un scan 3D via casque Quest. L’objectif est de simplifier la création de “jumeaux immersifs” et ouvrir l’usage à des domaines comme la formation, l’architecture ou la vente au détail. Meta tente ainsi de repositionner le métavers non plus comme un univers parallèle, mais comme une extension naturelle des espaces physiques ou professionnels.
Un pari industriel à concrétiser face aux incertitudes réglementaires
Meta s’avance sur un terrain à la fois technologique et politique. La standardisation d’un assistant IA contextuel intégré dans des lunettes suppose un équilibre entre autonomie logicielle, contrôle des données et sobriété énergétique. En visant un assistant “toujours actif”, même pour une durée de 1 à 2 heures, Meta explore une hybridation entre matériel embarqué et traitement cloud déporté, qui pourrait poser des difficultés en matière de souveraineté des flux et de conformité.
Le groupe devra aussi convaincre les entreprises que ces lunettes peuvent s’intégrer dans des environnements de travail normés et sécurisés. À défaut, leur usage restera cantonné aux loisirs ou à des niches métiers spécifiques. Mais si cette intégration réussit, l’impact pourrait être comparable à celui des smartphones dans les années 2010, avec l’ouverture d’un nouveau cycle applicatif centré sur l’interaction environnementale.
La convergence lunettes/IA, catalyseur d’agentification des outils
Pour les métiers, les apports immédiats seraient mesurables en termes de rapidité d’accès à l’information, de réduction des manipulations, de documentation continue (enregistrement mains libres), ou encore d’accessibilité accrue pour les utilisateurs mobiles. La convergence lunettes/IA pourrait aussi servir de catalyseur à l’agentification des outils : au lieu d’ouvrir une application, l’utilisateur formule une intention, et l’assistant l’exécute ou la reformule en tâche déléguée.
Encore faut-il que l’expérience d’usage tienne la promesse d’instantanéité et d’intelligence contextuelle. C’est là que se jouera la différenciation entre Meta et ses concurrents potentiels, qu’ils viennent du monde des smartphones, de l’optique, ou des agents IA. Dans cette optique, Meta Connect 2025 ne signe pas un lancement de produit isolé, mais une tentative de modeler un nouveau mode de relation à l’environnement numérique, où l’IA devient moins visible, mais plus proche.