Avec l’émergence des NPU dans les ordinateurs portables et tablettes, les fabricants multiplient les annonces autour de l’intelligence artificielle embarquée. Mais au-delà des promesses marketing, ces plateformes sont-elles suffisamment puissantes pour tenir leurs promesses ? Ou ne sont-elles qu’un tremplin vers une migration industrielle encore inachevée ?
Depuis le début de 2024, l’architecture des PC a profondément évolué avec l’introduction massive de coprocesseurs IA (NPU, pour Neural Processing Unit). Longtemps réservée aux smartphones ou aux équipements spécialisés, cette brique devient le nouveau standard des ordinateurs dits « IA-ready ». Intel l’intègre dans ses puces Core Ultra, AMD dans ses Ryzen AI, Qualcomm dans son Snapdragon X Elite, Apple dans toute la gamme M. Objectif commun : intégrer une puissance d’inférence locale pour exécuter des modèles d’IA sans dépendre systématiquement du cloud.
Ces puces visent des traitements embarqués : la transcription, la reconnaissance d’image, le résumé de texte, la détection d’anomalies… à faible latence et sans transfert de données. Microsoft a fixé un seuil symbolique de 40 TOPS pour qualifier un PC de « Copilot+ ». Pourtant, tous les usages métiers ne bénéficient pas encore pleinement de ces capacités. Entre promesses, contraintes techniques et maturité logicielle, le décalage reste tangible.
Des plateformes aux performances contrastées selon les usages
Trois grands acteurs se distinguent aujourd’hui sur le marché des PC IA embarquée. Chez Intel, la série Core Ultra (Meteor Lake) embarque un NPU de 11 à 48 TOPS selon les modèles, avec pilotage via OpenVINO et Windows ML. Chez Qualcomm, le Snapdragon X Elite intègre un NPU de 45 TOPS (architecture Hexagon), épaulé par un GPU performant, avec une exécution optimisée des modèles ONNX, TFLite et DirectML. AMD déploie sa nouvelle architecture XDNA 2 avec un NPU de 50 TOPS dans les Ryzen AI 300. Nvidia, de son côté, propose une approche plus GPU-centrée avec ses Tensor Cores, mais sans NPU dédié dans les PC clients.
À capacité égale, le rendement varie fortement. Les premiers retours indiquent que l’accélération est efficace sur des tâches spécifiques (OCR, transcription, détection simple), mais encore insuffisante pour les modèles multimodaux complexes ou les LLM locaux. L’autonomie, l’enveloppe thermique, et surtout la fragmentation logicielle (drivers, quantification, frameworks) limitent les gains dans certains scénarios. On observe ainsi une dualité : puissance embarquée théorique d’un côté, dépendance persistante au cloud de l’autre.
Que disent les benchmarks ?
Pour objectiver ces écarts, plusieurs benchmarks indépendants permettent d’évaluer la performance réelle des NPU actuels. Le Snapdragon X Elite de Qualcomm (45 TOPS) affiche une très bonne efficacité énergétique, et des performances IA solides dans les tests INT8 (transcription, NLP compact), bien que son GPU reste modeste en puissance brute. Le Core Ultra 7 258V d’Intel, avec un NPU estimé à 47 TOPS et un GPU Xe-LPG de 67 TOPS IA théoriques, surpasse légèrement le Snapdragon en tâches INT8.
AMD propose la plateforme la plus puissante à date côté NPU, avec 50 TOPS pour son Ryzen AI 300. Nvidia, absent du label Copilot+, maintient une approche GPU intensive : les GeForce RTX 40 intégrées aux stations de travail portables offrent jusqu’à 400 TOPS IA cumulés, mais au prix d’une consommation et d’une intégration moins adaptées au nomadisme. En résumé, la puissance brute existe, mais son usage local et temps réel dépend d’un équilibre entre architecture, intégration et optimisation logicielle.
Une migration progressive, mais clairement engagée
Pourquoi les fabricants poussent-ils malgré tout cette transition ? D’abord parce que les besoins en IA locale s’intensifient : transcription vocale embarquée, traitement d’images en mobilité, synthèse contextuelle déconnectée, etc. Ensuite, parce que les contraintes réglementaires (confidentialité, souveraineté, temps réel) favorisent l’inférence locale. Enfin, parce que les cas d’usage en environnements critiques (défense, industrie, mobilité) réclament des systèmes capables d’agir sans réseau ni supervision constante.
Les plateformes actuelles peuvent donc être perçues comme des briques préparatoires. Elles permettent de tester, de valider, et de structurer les chaînes d’IA locales. La montée en puissance du Copilot+ de Microsoft, l’arrivée de PC ARM et la standardisation d’ONNX, pour l’apprentissage machine, au plus près du système posent les bases d’une informatique décentralisée, où le terminal redevient une entité autonome. Les NPU actuels ne suffisent pas à tout faire, mais ils permettent déjà beaucoup.
Vers un seuil critique de maturité de l’IA embarquée ?
Faut-il attendre les prochaines générations ? Oui, pour les scénarios impliquant des modèles génératifs multimodaux complexes, ou des fonctions conversationnelles hybrides de nouvelle génération. Et non, pour nombre de tâches de traitement intelligent en contexte local. Les plateformes IA d’aujourd’hui sont en effet suffisantes pour implémenter de nouveaux outils métiers : agents de transcription, assistants de maintenance, traducteurs embarqués, vision industrielle, filtrage contextuel, etc.
La question n’est donc plus uniquement technologique. Elle devient stratégique : quelles fonctions doit-on embarquer en local ? Quelles données garder à la périphérie ? Comment structurer une chaîne IA distribuée entre terminaux, edge et cloud ? La réponse ne viendra pas uniquement des fabricants, mais des usages eux-mêmes. Et les terminaux IA de première génération, malgré leurs limites, jouent déjà un rôle structurant dans cette redéfinition du rapport au calcul.