L’intégration de l’intelligence artificielle au niveau du système marque une rupture plus profonde que la simple généralisation des assistants connectés au cloud. Derrière des annonces parfois similaires en apparence, les stratégies divergent fortement entre ajout d’une couche d’IA conversationnelle et transformation structurelle de l’architecture logicielle et matérielle des terminaux.
Depuis deux ans, la plupart des constructeurs revendiquent une « IA intégrée » dans leurs appareils. Dans les faits, cette intégration recouvre des réalités techniques très différentes. Dans sa forme la plus répandue, l’IA prend la forme d’un service distant, accessible via une interface système ou applicative, sans modification substantielle de l’architecture du terminal. À l’opposé, certaines annonces récentes suggèrent une bascule plus structurelle, où l’IA devient une composante native du système, au même titre que la gestion de l’énergie, de la mémoire ou des entrées-sorties.
Pour cela, le CES 2026 constitue une caisse de résonnance idéale, où les annonces récentes de Lenovo, Microsoft, Arm et Nvidia illustrent ce clivage naissant. Cette distinction, rarement explicitée dans les communiqués, constitue pourtant un marqueur déterminant pour comprendre la transformation en cours des plateformes informatiques personnelles et professionnelles.
Qira, le choix revendiqué d’une IA au niveau du système
Au CES 2026, Lenovo a annoncé Qira comme une plateforme d’IA personnelle intégrée au niveau du système, commune à ses PC et aux terminaux Motorola. Le communiqué insiste explicitement sur ce point, en distinguant Qira d’un assistant conversationnel ou d’une simple application connectée à des services d’IA dans le cloud.
Lenovo décrit Qira comme une couche persistante capable d’exploiter directement les ressources locales des terminaux, notamment les NPU intégrées aux plateformes Intel Core Ultra, AMD Ryzen AI et Qualcomm Snapdragon X. Qira est présentée comme un mécanisme d’orchestration capable d’arbitrer dynamiquement entre inférence locale et appels à des services distants, en fonction du contexte, de la latence attendue et des contraintes énergétiques. Cette approche suppose une interaction étroite avec le système d’exploitation, la gestion de l’énergie, les priorités de calcul et les flux de données locaux.
Dans cette configuration, l’IA ne se limite plus à répondre à des requêtes explicites. Elle devient une capacité transversale, susceptible d’agir en continu sur l’environnement logiciel du terminal. Lenovo positionne ainsi Qira comme la brique chargée de donner un sens opérationnel aux « AI PC », au-delà de la seule présence d’unités d’inférence matérielles.
IA ajoutée ou IA structurelle, un abysse les séparent
Dans la majorité des offres actuelles, l’IA reste encapsulée dans une couche applicative. Elle se matérialise par une interface conversationnelle ou contextuelle, reliée à des modèles hébergés dans le cloud, avec parfois un traitement local préalable. Cette approche améliore l’accessibilité de l’IA, mais elle ne modifie pas la nature du système d’exploitation ni son rôle fondamental.
À l’inverse, une IA intégrée au niveau du système implique une présence permanente dans la pile logicielle. Elle suppose une capacité à déclencher des traitements sans interaction utilisateur directe, une gestion fine des accélérateurs matériels et une articulation étroite avec les mécanismes de sécurité et de permissions. Ce modèle rappelle des transitions antérieures, comme l’introduction de la virtualisation ou de la gestion avancée de l’énergie, où le système devient l’orchestrateur de capacités invisibles mais structurantes.
Windows et Copilot par le sommet de la pile logicielle
Chez Microsoft, les annonces autour de Windows 11 et des « AI PC » illustrent une approche plus progressive. L’éditeur a renforcé les capacités de Windows à exploiter l’inférence locale via Windows ML, ONNX Runtime et des interfaces standardisées pour les NPU. L’objectif consiste à faire de chaque PC Windows 11 une plateforme capable d’exécuter des scénarios d’IA locale de manière cohérente.
Dans le même temps, Copilot devient une couche centrale d’accès aux expériences d’IA. Lors d’Ignite 2025, Microsoft a détaillé une évolution de Windows vers un environnement capable d’héberger et de coordonner plusieurs agents IA, avec une gestion unifiée des contextes, des autorisations et des flux applicatifs. Cette couche d’orchestration facilite l’intégration de l’IA dans les usages bureautiques et professionnels.
Toutefois, cette intégration s’opère principalement par le haut de la pile logicielle. Windows conserve une architecture classique, dans laquelle l’IA s’ajoute comme un ensemble de services privilégiés, sans refonte du cœur du système autour d’un moteur d’inférence natif et permanent. L’approche renforce l’écosystème, mais ne transforme pas encore Windows en système pensé dès l’origine autour de l’IA.
Arm, l’IA intégrée dès le silicium
La stratégie défendue par Arm se situe à un niveau plus bas de la pile. Dans sa prise de position sur le « next platform shift », Arm décrit une informatique orientée IA physique et edge, où les contraintes énergétiques, thermiques et de latence structurent la conception même des processeurs.
Les architectures Armv9, les extensions vectorielles et les blocs dédiés à l’inférence sont conçus pour exécuter localement des modèles d’IA dans des smartphones, des objets connectés, des équipements industriels ou des systèmes autonomes. Cette intégration est réelle et profonde, mais elle s’applique à des plateformes spécialisées. Arm fournit les briques matérielles et logicielles, sans porter directement un système d’exploitation universel comparable à Windows.
Nvidia, une intégration centrée sur l’infrastructure
Chez Nvidia, les annonces récentes concernent avant tout les plateformes d’infrastructure et l’IA dite « physique ». Les architectures Rubin, les GPU de nouvelle génération et les piles logicielles associées visent à industrialiser l’entraînement et l’inférence à grande échelle, dans les centres de données, les usines et les systèmes autonomes.
Sur les terminaux personnels, Nvidia reste un fournisseur d’accélérateurs et de bibliothèques optimisées, notamment pour Windows. L’IA y est massivement accélérée, mais elle demeure dépendante du système d’exploitation hôte et de ses choix d’architecture. Nvidia n’y propose pas de couche système unifiée faisant de l’IA une capacité native du terminal.
À travers ces initiatives, une ligne de fracture nette apparaît. Certains acteurs enrichissent des systèmes existants par des couches d’IA toujours plus visibles. D’autres engagent une transformation plus profonde, où l’IA devient une fonction structurelle de la plateforme. En revendiquant explicitement une intégration au niveau du système avec Qira, Lenovo se positionne dans ce second camp, ouvrant un débat industriel qui dépasse les effets d’annonce et pose les bases de la prochaine génération de systèmes informatiques.