Le concepteur de processeurs Ampere Computing accélère son offensive dans l’infrastructure cloud et l’inférence IA avec deux annonces structurantes. D’une part, l’entreprise lance Ampere Systems Builders, un programme destiné à structurer un réseau de partenaires industriels autour de plateformes modulaires, ouvertes et interopérables.

D’autre part, elle dévoile une extension de sa gamme AmpereOne M avec de nouvelles plateformes à 12 canaux de mémoire, conçues pour répondre aux besoins croissants en bande passante et en performance par watt des charges de travail IA intensives.

Ampere, qui développe ses propres cœurs de processeur conformes à l’architecture Arm, poursuit ici une trajectoire différenciante sur le marché des semiconducteurs. En s’éloignant des architectures x86 et des environnements GPU fermés, la société s’est donné pour mission de proposer une alternative aux géants du secteur, avec une promesse de performance durable et de capacités de mise à l’échelle. Le processeur AmpereOne M, qui peut intégrer jusqu’à 192 cœurs, a été pensé pour les environnements cloud et les usages massivement parallèles, tout en maîtrisant la consommation énergétique et les coûts d’exploitation. Cette orientation fait écho aux besoins exprimés par les fournisseurs de services cloud, les entreprises orientées edge computing ou encore les déploiements basés sur l’IA à l’échelle régionale ou sectorielle.

Rassembler un écosystème de partenaires

Avec Ampere Systems Builders, la société entend rassembler un écosystème de partenaires technologiques prêts à collaborer sur la base de standards ouverts. Parmi les premiers membres du programme figurent Broadcom, Supermicro, Giga Computing, Jabil, ASRock Rack et Rebellions. Ce consortium a pour objectif de concevoir et d’industrialiser des plateformes sur mesure, capables d’intégrer des composants variés — processeurs, accélérateurs, solutions de stockage et de connectivité — dans une logique de personnalisation et de mise sur le marché rapide.

L’initiative repose sur la norme DC-MHS, qui définit des spécifications matérielles modulaires pour les centres de données et favorise l’interopérabilité entre les fournisseurs. « Alors que l’industrie généralise l’infrastructure IA, il est essentiel de préserver les principes d’efficacité, d’évolutivité et d’ouverture qui ont permis des décennies d’innovation », souligne Jeff Wittich, Chief Product Officer chez Ampere.

Optimiser la performance sur des charges IA

En parallèle, Ampere annonce la mise à disposition de nouvelles plateformes à 12 canaux de mémoire basées sur AmpereOne M, afin d’augmenter la bande passante mémoire et d’optimiser la performance sur des charges IA fortement parallélisées. Ces configurations permettent de répondre aux exigences croissantes en bande passante mémoire, souvent critique pour l’inférence à haute densité, tout en conservant une efficacité
énergétique élevée.

Plusieurs partenaires du programme ont déjà commencé à développer ou commercialiser ces plateformes, notamment Giga Computing, Jabil et ASRock Rack. Celles-ci visent des scénarios allant des datacenters hyperscale jusqu’aux déploiements en périphérie de réseau, en passant par les environnements cloud souverains.

Ces évolutions traduisent une stratégie claire : faire d’Ampere un pilier des infrastructures d’intelligence artificielle ouvertes et durables. En augmentant la capacité mémoire des plateformes, Ampere cible les modèles IA à forte intensité de données et les architectures distribuées, qui nécessitent une orchestration fluide et une réactivité optimale sans recourir systématiquement aux GPU. En structurant un écosystème autour de standards modulaires, l’entreprise prépare également le terrain pour une diversification des offres, adaptées aux besoins spécifiques des entreprises et des secteurs, et affranchies des dépendances technologiques propriétaires.

Densité, flexibilité et sobriété

À travers ces annonces, Ampere pose les fondations d’une nouvelle génération d’infrastructures IA, orientées vers la densité, la flexibilité et la sobriété. Son approche s’inscrit dans un mouvement plus large de remise en question des modèles de traitement centralisés, alors que l’IA entre dans une phase d’adoption massive au sein des entreprises.

Mais au-delà du produit, c’est l’approche écosystémique qui retient l’attention. Le programme Ampere Systems Builders, basé sur la norme DC-MHS, marque une volonté de fédérer des acteurs industriels autour d’un socle modulaire, interopérable, librement composable. Cette posture tranche avec celle de Nvidia, dont l’écosystème “tightly-coupled” (CUDA, HGX, DGX) verrouille l’amont et l’aval de la chaîne de valeur. En pariant sur une architecture CPU haute performance, cloud-native et interopérable, Ampere entend bien s’imposer comme une alternative de choix dans un marché en pleine recomposition.