Samsung et AMD ont signé un protocole d'accord formalisant leur collaboration sur les mémoires HBM4 et les solutions DRAM de nouvelle génération pour l'infrastructure d'IA. Samsung fournira la mémoire HBM4 pour l'accélérateur AMD Instinct MI455X et développera des modules DDR5 optimisés pour les processeurs EPYC de sixième génération, au cœur de l'architecture rack AMD Helios.
La cérémonie de signature, tenue en présence de Lisa Su, directrice générale d'AMD, et de Young Hyun Jun, vice-président exécutif de Samsung Electronics, marque une intensification d'une collaboration qui couvre près de vingt ans d'histoire commune dans les semiconducteurs. L'accord intervient à un moment charnière pour le marché de la mémoire à haute bande passante. Samsung, qui détient environ 22% du marché HBM face aux 57% de SK Hynix, cherche à renforcer son positionnement sur le segment le plus stratégique de la chaîne de valeur IA.
La HBM4 représente sa sixième génération de mémoire DRAM empilée, construite sur un nœud 10 nanomètres de classe 1c et une puce logique de base en 4 nanomètres. Elle atteint des vitesses de transfert de 13 gigabits par seconde et une bande passante maximale de 3,3 téraoctets par seconde, dépassant les standards actuels de l'industrie. Samsung est le premier fabricant à porter cette génération en production de masse.
La signature coïncide avec la conférence GTC 2026 de Nvidia, où Jensen Huang a publiquement salué les capacités de la HBM4 de Samsung et confirmé un partenariat de fonderie avec le groupe coréen. Le timing n'est pas fortuit : il signale que Samsung s'impose comme fournisseur central pour les deux principaux challengers de Nvidia dans l'infrastructure IA, AMD et potentiellement d'autres acteurs cherchant à diversifier leurs sources d'approvisionnement en mémoire haute performance.
Une co-optimisation de l'architecture mémoire et du GPU
L'accélérateur AMD Instinct MI455X constitue la pièce maîtresse de cet accord côté AMD. Annoncé en début d'année et attendu en production dans le second semestre 2026, il concurrence directement la plateforme Vera Rubin de Nvidia. La HBM4 de Samsung y jouera le rôle de fournisseur principal de mémoire, une désignation qui va au-delà du simple contrat d'approvisionnement et implique une co-optimisation de l'architecture mémoire et du GPU pour maximiser les performances en entraînement et en inférence des grands modèles d'IA.
L'architecture rack AMD Helios constitue le second niveau de ce partenariat. Conçue pour les déploiements à grande échelle dans les centres de données, elle combine des GPU Instinct, des CPU EPYC et des solutions mémoire intégrées. Les modules DDR5 que Samsung développera pour les EPYC de sixième génération, nom de code Venice, seront dimensionnés pour les nœuds GPU-intensifs où les processeurs orchestrent des grappes d'accélérateurs. La cohérence entre la mémoire HBM4 des GPU et les DIMM DDR5 des CPU constitue un enjeu d'optimisation système que les deux entreprises cherchent à traiter de manière coordonnée.
Un partenariat de fonderie en discussion
Au-delà de la mémoire, l'accord mentionne explicitement des discussions ouvertes sur un partenariat de fonderie, dans lequel Samsung pourrait fabriquer de futurs produits AMD. Cette perspective revêt une importance stratégique considérable pour Samsung Foundry, dont la montée en puissance reste freinée par des rendements historiquement inférieurs à ceux de TSMC sur les nœuds avancés. Obtenir AMD comme client fonderie représenterait une validation de premier plan dans un marché où la crédibilité des références clients conditionne l'accès aux grands contrats.
AMD a par ailleurs récemment sécurisé un accord pluriannuel de fourniture de puces IA avec Meta Platforms, évalué jusqu'à 60 milliards de dollars, ainsi qu'un accord similaire avec OpenAI. Ces contrats structurants accroissent mécaniquement les besoins en mémoire HBM de l'éditeur et donnent à Samsung un intérêt direct dans la trajectoire commerciale d'AMD. Young Hyun Jun indique que Samsung est en mesure de fournir des capacités couvrant la mémoire HBM4, les architectures mémoire de nouvelle génération, la fonderie avancée et le packaging, positionnant le groupe comme partenaire de pile complète plutôt que comme simple fournisseur de composants.
La bande passante mémoire, nouveau goulet de l'IA
Pour les entreprises et leurs architectes d'infrastructure qui dimensionnent des environnements d'entraînement ou d'inférence à grande échelle, cet accord éclaire une dynamique profonde du marché des semiconducteurs. La bande passante mémoire est devenue le principal facteur limitant des systèmes d'IA modernes. Les GPU les plus puissants restent sous-exploités lorsque la mémoire ne peut pas alimenter les matrices de calcul à la vitesse requise. La HBM4, avec ses 3,3 téraoctets par seconde, représente un bond significatif par rapport à la HBM3E actuellement déployée dans les accélérateurs MI350X et MI355X d'AMD, que Samsung fournit déjà.
La consolidation de l'écosystème autour de quelques grandes alliances mémoire-calcul, Samsung-AMD d'un côté et SK Hynix-Nvidia de l'autre, dessine une recomposition de la chaîne d'approvisionnement en semiconducteurs pour l'IA. Pour les opérateurs de centres de données et les entreprises qui bâtissent leur infrastructure GPU, cette concentration accroît les interdépendances et réduit les marges de négociation, tout en accélérant la cadence d'innovation sur les composants les plus critiques de la pile.























