AMD étend son offensive dans les infrastructures IA avec « Helios », une plateforme rack-scale ouverte basée sur la norme Open Rack Wide (ORW). Présentée lors de l’OCP Global Summit 2025, cette architecture marque une étape majeure dans la standardisation du calcul à grande échelle.
Le constructeur de semi-conducteurs franchit un nouveau cap dans la conception d’infrastructures IA. En dévoilant Helios, AMD pousse la logique d’ouverture de l’Open Compute Project (OCP) jusqu’à l’échelle du rack. La plateforme s’appuie sur la norme Open Rack Wide, promue par Meta, qui définit un format de baie double largeur destiné à optimiser la puissance, le refroidissement liquide et la maintenance.
Helios est une architecture de référence à destination des fabricants de serveurs, des hyperscalers et des intégrateurs. Elle combine les processeurs Epyc de dernière génération, gravés en 3 nanomètres et capables de gérer plusieurs téraoctets de mémoire vive par nœud, avec les GPU Instinct destinés à l’entraînement et à l’inférence de modèles massifs. Les composants Pensando, issus du rachat de la société en 2022, assurent la gestion des réseaux et du stockage via des processeurs DPU intégrés, dédiés au traitement des flux et à la sécurité. L’ensemble est encapsulé dans un châssis conforme aux spécifications OCP DC-MHS (Data Center Modular Hardware System) et UALink, garantissant la compatibilité avec les architectures désagrégées et les interconnexions à très faible latence.
AMD met en avant un design pensé pour la maintenance rapide et la circulation thermique maîtrisée. Les modules sont accessibles en façade, tandis qu’un système de refroidissement liquide à déconnexion rapide assure la continuité des performances. L’ensemble peut fonctionner en mode scale-up ou scale-out, selon les contraintes de charge.
Vers une standardisation du calcul à grande échelle
Avec Helios, AMD cherche à étendre son influence au-delà du silicium, en se positionnant comme un acteur de la standardisation matérielle de l’IA. En misant sur l’interopérabilité et la modularité, le groupe tente de fédérer un écosystème de partenaires autour du format ORW, dans la continuité de l’esprit open hardware. Cette stratégie lui permet aussi de rivaliser plus directement avec Nvidia et ses architectures DGX/HGX, souvent perçues comme plus fermées.
Le défi principal reste l’adoption : pour devenir un standard de fait, Helios devra convaincre les constructeurs de serveurs, les intégrateurs et les grands exploitants de centres de données d’abandonner leurs designs propriétaires. AMD compte sur les initiatives de l’OCP et les alliances avec les grands opérateurs du cloud pour accélérer ce mouvement.
Un levier d’efficience pour les data centers IA
En cas d’adoption à large échelle, Helios pourrait faire baisser les coûts d’intégration et simplifier la maintenance des infrastructures IA, en réduisant les temps d’installation et en standardisant les composants. Les DSI et responsables d’infrastructures y verraient une possibilité d’ajuster plus finement les capacités de calcul, sans dépendre d’un fournisseur unique.
Pour AMD, cette plateforme consolide une stratégie : occuper tous les étages de la chaîne de valeur du calcul – de la puce au rack – et s’imposer comme l’un des piliers techniques du futur écosystème IA distribué.