L’inflation de taille des modèles d’intelligence artificielle, dopée par les usages de génération automatique, de simulation ou d’analyse multimodale, bouleverse en profondeur l’architecture des centres de données. Pour répondre à ces nouvelles contraintes, Eviden, entité produit d’Atos, étend sa gamme BullSequana AI avec trois nouvelles configurations taillées pour l’entraînement et l’inférence à grande échelle. Deux serveurs (BullSequana AI 642-H02 et 642-H03) et une lame haute densité (BullSequana AI 1242) viennent renforcer une offre qui mise sur la performance brute, l’efficience énergétique et l’intégration des derniers GPU Instinct d’AMD.

Derrière cette annonce, c’est toute une chaîne de traitement qui s’adapte à l’ère des modèles massifs : calcul parallèle distribué, refroidissement haute performance, gestion thermique intelligente, mais aussi modularité et maîtrise du coût total de possession. Les serveurs AI 642-H02 et AI 642-H03 – compatibles avec les plateformes BullSequana AI 600H – intègrent respectivement les GPU AMD Instinct MI325X et MI355X. Dotés d’un refroidissement hybride (70 % liquide, 30 % air), ils visent la création de grappes de calcul optimisées pour des modèles fondationnels et les pipelines d’entraînement intensif.

Allier puissance de calcul et sobriété énergétique

Côté haut de gamme, la lame BullSequana AI 1242 embarque elle aussi les GPU Instinct MI355X, mais dans un châssis 100 % refroidi par liquide, via la quatrième génération du système Direct Liquid Cooling breveté par Eviden. Intégrée à la plateforme AI 1200H, elle cible des environnements critiques nécessitant une tolérance thermique jusqu’à 40 °C, tout en garantissant une densité et des performances de calcul.

Dans un contexte de forte tension énergétique, Eviden fait le choix d’un compromis entre puissance et sobriété. Cette stratégie vise clairement les secteurs académique, industriel et public en quête de solutions sur site capables de rivaliser avec les offres cloud hyperscale. « En mettant l’accent à la fois sur la puissance de calcul et sur l’efficacité énergétique, nous alignons notre stratégie produit avec les principaux défis de la conception de systèmes IA et HPC », affirme Bruno Lecointe, vice-président HPC, IA et quantique chez Eviden.

Eviden opte pour l’environnement d’AMD

Alors que les entreprises repensent leurs infrastructures pour absorber la croissance exponentielle des besoins en IA, Eviden choisit AMD cette fois-ci pour composer ses briques technologiques capables de concilier la montée en charge, le pilotage thermique et la résilience opérationnelle. Pour AMD, partenaire technologique de cette évolution, l’enjeu est tout aussi stratégique : proposer une alternative crédible aux solutions dominantes du marché, notamment Nvidia, tout en renforçant la compatibilité de son écosystème ROCm avec les déploiements industriels.

ROCm, pour Radeon Open Compute, est la pile logicielle ouverte développée par AMD pour l’informatique haute performance et l’intelligence artificielle. Elle joue un rôle équivalent à celui de Cuda chez Nvidia, en fournissant les outils nécessaires pour programmer, compiler, exécuter et optimiser des applications sur les GPU AMD, notamment les cartes Instinct.