Malgré les promesse de puissance et de vitesse, le quantique isolé ne suffit pas. Alors que la technologie des ordinateurs quantiques progresse rapidement, leur déploiement opérationnel reste contraint par des verrous technologiques majeurs : instabilité des qubits, bruit, faibles durées de cohérence, manque de tolérance aux erreurs. Aucun acteur ne prévoit une généralisation des calculateurs quantiques tolérants aux fautes avant la fin de la décennie. En attendant, une solution s’impose dans les laboratoires comme dans les industries pionnières : l’hybridation des approches, combinant calcul classique haute performance (HPC) et accélération quantique ciblée.
C’est dans cette perspective que s’inscrit l’alliance annoncée le 26 août dernier par IBM et AMD. L’ambition commune est de développer une architecture « quantum-centric » articulant les ordinateurs quantiques d’IBM, le langage open source Qiskit, ainsi les processeurs EPYC, les GPU Instinct et les FPGA d’AMD. Une démonstration en fonctionnement de cette plateforme est prévue avant fin de 2025. Les deux partenaires entendent ainsi répondre à un besoin croissant dans les domaines de la modélisation chimique, de l’optimisation, de la recherche opérationnelle et de la simulation avancée.
Une convergence structurante pour l’industrie
Ce rapprochement stratégique traduit un glissement progressif de toute l’industrie vers le paradigme hybride. IBM, l’un des plus avancé mondialement dans le calcul quantique, avec plus de 100 qubits accessibles via le cloud, et une feuille de route vers la tolérace aux pannes à l’horizon 2029, voit dans cette collaboration un levier d’accélération pour la mise en production des premiers algorithmes actionnables. AMD, de son côté, confirme son intention de peser dans le calcul intensif de nouvelle génération, après avoir conquis plus de 20 % du marché des serveurs avec ses gammes EPYC et consolidé son offre GPU avec les puces MI300.Le choix du tout open source, notamment via Qiskit, permet de renforcer l’interopérabilité, attirer les développeurs et standardiser les briques logicielles nécessaires à cette cohabitation entre paradigmes. Il s’agit aussi, pour les deux entreprises, de contrer les initiatives des autres géants du secteur : Azure Quantum chez Microsoft, Braket chez AWS, Quantum chez Nvidia. Mais aucune de ces plateformes ne combine, à ce jour, l’intégralité de la chaîne matérielle et logicielle sous contrôle industriel comme le promet cette initiative conjointe.
L’hybridation, passage obligé vers des cas d’usage concrets
Les cas d’usage ciblés par cette architecture hybride concernent des secteurs où les calculs traditionnels atteignent leurs limites : modélisation de matériaux, découverte de molécules, planification logistique à grande échelle, cryptographie post-quantique. Dans chacun de ces domaines, les premiers travaux de recherche montrent qu’un traitement quantique partiel, orchestré par des infrastructures classiques, peut apporter des gains tangibles en précision et en temps de calcul, sans nécessiter de qubits tolérants aux fautes.Cette convergence amorce une recomposition profonde du paysage du calcul intensif. Le HPC devient l’épine dorsale d’un nouveau modèle hybride, où les ressources classiques orchestrent des accélérateurs spécialisés, qu’ils soient quantiques, neuromorphiques ou photoniques. À l’horizon 2030, cette architecture composite pourrait s’imposer comme la nouvelle norme, avec des bénéfices mesurables pour les entreprises : réduction des cycles de simulation, diminution des coûts d’expérimentation, amélioration de la précision prédictive.
Mais pour transformer l’essai, il faudra standardiser les couches logicielles intermédiaires, former les équipes aux langages hybrides et intégrer ces modèles dans les chaînes de décision existantes. C’est cette marche industrielle qu’IBM et AMD ambitionnent d’enclencher ensemble. Leurs concurrents, eux aussi, n’auront d’autre choix que de composer avec ce nouvel équilibre technologique.