Attendue comme le domaine technologique qui va transformer la recherche et le calcul HPC, l’informatique quantique est attendue « dans les bacs » pour 2023. Toutefois, malgré l’enthousiasme général, elle s’apparente un saut dans l’inconnu, car tout ou presque est à inventer.

L’année 2023 semble être celle sur laquelle s’accordent les fabricants et les éditeurs pour le premier lancement commercial des ordinateurs quantiques. La course aux calculateurs subatomiques ne touche pas seulement le privé. Les états investissent des sommes colossales pour atteindre la suprématie quantique. Une suprématie qui relève plus de la géostratégie et de la souveraineté, que des capacités de calcul. « Les technologies quantiques font partie de ces quelques clés du futur que la France doit absolument avoir en main », avait rappelé le président Emmanuel Macron, en préambule de son annonce d’un plan quantique de 1,8 milliard d’euros, en janvier dernier.

Ce n’est donc pas étonnant que l’informatique quantique bénéficie de financements généreux. Elle promet des pas de géant dans la recherche. Tant et si bien qu’elle est devenue la technologie numéro un en Europe, et figure parmi les trois premières technologies des 500 meilleurs centres de données HPC dans le monde. Issues des résultats de la première étude mondiale réalisée par IDC pour Atos et IQM, ces données prédisent une croissance soutenue dans les prochaines années. L’étude fait un état de la situation actuelle et des perspectives de l’informatique quantique dans le domaine du calcul haute performance (HPC). Pour ce faire, les enquêteurs ont interrogé 110 décideurs des centres de données HPC les plus importants dans le monde.

S’attaquer à de nouveaux défis

D’après cette étude, 76 % des centres de données HPC dans le monde prévoient d’utiliser l’informatique quantique d'ici 2023, tandis que 71 % prévoient de passer à l’informatique quantique sur site d'ici 2026. Les chercheurs y voient des avantages indéniables selon leurs domaines de recherche. L’étude montre qu’ils permettent de s’attaquer à de nouveaux défis, comme la logistique de la chaîne d’approvisionnement ou le changement climatique (45 %), mais aussi de résoudre plus rapidement des problèmes déjà existants (38 %) et de réduire les coûts informatiques (42 %).

Selon les résultats de l’enquête, le cloud apparaît comme essentiel à une architecture HPC, alliant des éléments standard et des composants d’infrastructure développés sur mesure. Selon l’étude, les déploiements hybrides et sur le cloud sont particulièrement importants au sein de la région EMEA. Pour 50 % des participants, la mise en œuvre d’une architecture HPC hybride est une priorité, contre 46 % en Amérique du Nord et 38 % en Asie-Pacifique.

Un saut dans l’inconnu, ou presque

Mais si l’enthousiasme pour le calcul quantique est général, le saut quantique s’apparente aussi à un saut dans l’inconnu, car des incertitudes demeurent. Tout ou presque devra être réinventé, allant du code et des environnements de développement aux infrastructures permettant de connecter, dans un ordinateur hybride, le quantique au silicium. Car, « pour l’heure, tempèrent les rédacteurs du rapport, nous manquons de données sur la façon dont l’informatique quantique fonctionnera avec une infrastructure HPC classique. Face à l’essor de l’informatique quantique, les opérations et la maintenance continueront donc d’être externalisées auprès de partenaires ».

Pour les analystes d’IDC, le succès de l’informatique quantique dépend de deux éléments essentiels : le développement et les tests de cas d’usage réels. « Les cas d’usage les plus importants en informatique quantique impliquent actuellement l’analyse d’énormes quantités de données, écrivent-ils, et la résolution de cas d’usage sectoriels spécifiques ». Les répondants des centres HPC interrogés ont identifié quatre cas d’usage principaux : la recherche dans des bases de données (59 %) ; l’analyse des risques d’investissement (45 %) ; la modélisation moléculaire (41 %), et la gestion d’actifs (32 %).