La remise en cause du modèle centré sur le processeur x86 s’est amorcée sous l’effet conjugué de l’IA, du calcul haute performance et des contraintes énergétiques. Le CES 2026 sert de chambre d’écho aux acteurs les plus avancés, désireux de consolider un avantage déjà pris. Nvidia, AMD, Intel et Qualcomm n’y ont pas révélé une rupture soudaine, mais exposé l’état d’avancement d’une transformation structurelle du socle matériel de l’informatique. L’architecture x86 s’est imposée comme norme industrielle à une époque où le calcul généraliste dominait les usages. Les serveurs, les postes de travail et les chaînes logicielles se sont construits autour d’un processeur central, garant de compatibilité et de stabilité. Dès les années 2000, le calcul parallèle, le HPC et l’apprentissage profond ont commencé à fissurer ce modèle. Les GPU ont d’abord été intégrés comme accélérateurs, puis sont devenus des éléments incontournables de certaines charges critiques. La bascule actuelle prolonge cette trajectoire. Elle ne supprime pas le CPU, mais le replace dans un ensemble plus vaste où la mémoire, l’interconnexion, le réseau et les accélérateurs spécialisés conditionnent la performance globale. Dans ce contexte, le CES 2026 jour le rôle de vitrine « d’avancement des travaux ». Les entreprises qui y ont occupé le devant de la scène sont précisément celles qui ont investi depuis plusieurs années dans des architectures alternatives au modèle x86 classique. Le salon leur offre un cadre pour formaliser un discours industriel et pour présenter des plateformes arrivées à un degré de maturité suffisant pour être industrialisées.

Nvidia : du GPU accélérateur au système de calcul complet

Chez Nvidia, cette évolution est engagée depuis plus d’une décennie, avec Cuda comme point d’entrée logiciel et les premières architectures de calcul accéléré. La nouveauté n’est pas l’abandon du CPU, mais la formalisation d’une plateforme où celui-ci devient un composant parmi d’autres. Avec Rubin, Nvidia met en avant un ensemble co-conçu associant CPU, GPU, interconnexion NVLink, cartes réseau, unités de traitement de données et commutation Ethernet. Jensen Huang parle désormais de « superordinateurs IA » pour qualifier des racks pensés comme des unités de production de calcul, et non comme des assemblages de serveurs. Cette approche répond à une contrainte économique précise. Dans les infrastructures d’IA, la métrique clé n’est plus la performance brute, mais le coût unitaire du jeton généré en entraînement et en inférence. Nvidia travaille donc sur la densité de calcul, la bande passante mémoire, l’efficacité énergétique et la maîtrise thermique. Le CPU conserve un rôle d’orchestration et de compatibilité, mais la valeur se concentre dans l’architecture système, dans le réseau et dans la capacité à faire fonctionner des milliers d’accélérateurs comme un tout cohérent.

AMD : une trajectoire parallèle fondée sur l’ouverture

AMD s’inscrit dans la même dynamique, avec un positionnement historiquement différent. L’entreprise a d’abord reconstruit sa crédibilité autour du CPU généraliste avec Epyc, avant d’élargir son offre vers les accélérateurs Instinct et le réseau via Pensando. Helios, présenté comme une plateforme de calcul à l’échelle du rack, synthétise cette stratégie. Accélérateurs, processeurs et réseau sont conçus comme un ensemble, unifié par l’environnement logiciel ROCm. Lisa Su, présidente-directrice générale d’AMD, évoque une transition vers le calcul à l’échelle yotta, rendue nécessaire par la croissance continue des charges d’IA. La différence tient dans l’insistance sur l’ouverture. AMD cherche à rassurer les grandes organisations sur leur capacité à éviter un enfermement technologique, en proposant une alternative crédible aux plateformes intégrées propriétaires. Dans les faits, le message est que la compétition ne se joue plus au niveau d’un processeur isolé, mais à celui d’une plateforme complète, capable de s’intégrer dans des écosystèmes logiciels existants.

Intel et Qualcomm : deux réponses à la perte de centralité du CPU

Pour Intel, cette bascule constitue un défi stratégique et de survie à long terme. L’entreprise ne renonce pas à x86, mais elle en redéfinit l’usage. Les processeurs Core Ultra combinent CPU, GPU intégré et accélérateur IA, dans une logique de plateforme hétérogène. Intel admet implicitement que le CPU seul ne suffit plus à porter les usages émergents, en particulier sur le poste de travail où l’inférence locale, l’assistance contextuelle et la sobriété énergétique prennent de l’importance. Qualcomm, de son côté, part d’une autre histoire. Habitué aux SoC mobiles, le groupe applique au PC une logique d’intégration verticale poussée. Les Snapdragon X associent calcul généraliste, graphisme, accélération IA et connectivité dans un bloc optimisé pour l’autonomie et la gestion thermique. Cette approche séduit des constructeurs qui cherchent à différencier leurs gammes professionnelles par l’endurance et par la capacité à traiter localement certaines charges, dans un contexte où la maîtrise des flux de données devient un critère de choix. En servant de caisse de résonance à ces stratégies, le CES 2026 a surtout rendu visible un état de fait. L’informatique a cessé d’être structurée autour d’un processeur central unique. Elle se construit désormais autour de plateformes hybrides, conçues comme des systèmes complets, du poste de travail au centre de données. Le CPU reste indispensable, mais il a perdu son statut de pivot exclusif. Pour les entreprises, les administrations et les fournisseurs de services, cette évolution ouvre des gains mesurables en densité de calcul, en efficacité énergétique et en cohérence d’architecture. Elle impose aussi de nouveaux arbitrages industriels et stratégiques, dans un paysage où la valeur se déplace durablement du composant vers la plateforme.
publicité