La valeur de l’IA remonte la chaîne technologique et se concentre désormais sur le silicium. Puces de pointe, mémoire HBM, inférence distribuée et architectures hybrides déplacent le centre de gravité économique vers les semiconducteurs. Pour les DSI, cette recomposition transforme déjà les arbitrages d’infrastructure, renforce la dépendance aux composants avancés et fait du matériel un facteur stratégique de compétitivité.
La chaîne de valeur de l’IA s’est d’abord organisée autour du logiciel, puis autour du calcul centralisé. Elle se recompose aujourd’hui autour du matériel. Cette évolution ne relève pas d’un cycle conjoncturel. Elle découle de l’industrialisation de l’apprentissage automatique, de la diffusion de l’inférence sur le terrain et de l’entrée progressive de stations de travail IA et de pods privés dans les environnements d’entreprise. Le déplacement est déjà visible dans les chiffres, mais la redistribution de valeur reste en cours.
Dans une analyse publiée en janvier 2026, McKinsey évalue le marché des semiconducteurs à 775 milliards de dollars en 2024, en intégrant les puces conçues en interne par les hyperscalers, les OEM et les acteurs captifs, absentes des comptabilisations fondées uniquement sur les ventes. Cette année sert de référence chiffrée à l’étude, avant des projections à horizon 2030.
Puces de pointe et mémoire HBM
Sur cette base, le cabinet chiffrait dès 2024 le segment « computing et stockage » à 350 milliards de dollars, devant le sans-fil à 200 milliards et l’automobile à 75 milliards. Le calcul représentait déjà près de la moitié de la valeur totale du marché. Les auteurs indiquaient que « la demande serveurs, en particulier pour les serveurs IA, expliquait l’essentiel de cette progression ». Les nœuds de gravure de pointe atteignaient simultanément 220 milliards de dollars, soit autant que l’ensemble des mémoires NAND, DRAM et HBM réunies.
Cette concentration se renforce. Les composants directement liés à l’IA captent l’essentiel de la croissance. McKinsey projette un rythme annuel supérieur à 20 % pour les nœuds avancés et pour la mémoire HBM à horizon 2030. Selon ses scénarios, 62 % de la croissance totale du marché provient des puces de pointe destinées aux charges IA, et 31 % de la mémoire, dont près de la moitié liée à la HBM.
Les volumes confirment cette polarisation. Les wafers de pointe restent minoritaires en unités produites, mais leur prix moyen dépasse déjà 20 000 dollars pour les plus petits nœuds. À l’inverse, les nœuds avancés et matures progressent autour de 3 % par an, avec une pression croissante sur les prix liée aux extensions de capacité. Une logique de captation asymétrique de la valeur s’installe, dominée par quelques acteurs sur les segments IA.
IoT/OT : l’inférence quitte le centre de données
Parallèlement, l’inférence sort du centre de données. Vision industrielle, maintenance prédictive, robotique, contrôle qualité en temps réel et automatisation logistique alimentent une demande soutenue pour des processeurs spécialisés, des microcontrôleurs avancés et des accélérateurs basse consommation. L’IoT et l’OT consomment peu de GPU, mais augmentent fortement les volumes sur les nœuds matures et avancés, ce qui stabilise la demande globale même lorsque les cycles serveurs ralentissent.
L’étude identifie déjà des poches de croissance dans les semiconducteurs de puissance et dans les puces de connectivité optique, directement liées à l’électrification industrielle et à l’extension des centres de données. Cette diffusion du calcul vers l’edge multiplie les points de consommation de silicium et ancre durablement la demande dans les opérations métiers.
Hyperscalers et OEM internalisent la conception du silicium
Autre transformation structurelle toujours active, l’intégration verticale. Les acteurs à conception interne affichaient un taux de croissance annuel de 21 % sur la période 2014–2024, le plus élevé de tous les modèles industriels du secteur. Cette évolution réduit la part de valeur visible dans les ventes classiques, tout en renforçant le poids économique des semiconducteurs dans les chaînes numériques.
McKinsey évaluait dès 2024 à 52 milliards de dollars la contribution des OEM à conception interne et à 25 milliards celle des concepteurs captifs. « Une part croissante du silicium est produite pour un usage interne afin d’optimiser les performances et les coûts des services cloud », précisaient les auteurs, soulignant que cette dynamique rend le marché partiellement invisible aux outils statistiques traditionnels tout en accélérant la concentration de valeur.
Stations de travail et pods ramènent le silicium dans l’entreprise
Cette recomposition ne concerne plus uniquement les géants du cloud. Les stations de travail IA et les pods privés d’inférence entrent progressivement dans les architectures d’entreprise. Les DSI déploient des infrastructures hybrides combinant serveurs spécialisés, mémoire HBM, réseaux à faible latence et parfois accélérateurs edge, afin de rapprocher le calcul des données opérationnelles.
Selon les projections du cabinet, le segment « computing et stockage » passerait de 350 milliards de dollars en 2024 à 810 milliards en 2030, soit plus de la moitié de la croissance totale du marché. Même si l’entraînement des grands modèles ralentit, l’inférence distribuée, l’embarqué industriel et les usages métiers prolongent la pression sur la demande en semiconducteurs.
L’IA devient une équation matérielle
Les chiffres de 2024 marquent le début du basculement. La dynamique actuelle le confirme : l’IA cesse d’être principalement logiciell, elle devient une équation matérielle. La capacité à produire du calcul au bon endroit, au bon moment et avec une efficacité énergétique maîtrisée s’impose comme facteur limitant de l’innovation. McKinsey avertit que « les opportunités ne seront pas réparties équitablement » et que « les puces de pointe et la HBM capteront l’essentiel de la nouvelle valeur, tandis que les autres segments entreront dans une compétition dominée par les coûts et l’échelle ».
Pour les entreprises, cette redistribution se traduit déjà par des arbitrages entre cloud et edge, par une dépendance accrue aux chaînes d’approvisionnement en composants avancés et par une exposition directe aux tensions géopolitiques autour du silicium. Gouverner l’IA suppose désormais de maîtriser ses fondations matérielles. À défaut, la compétitivité opérationnelle se joue en amont du logiciel, au niveau des semiconducteurs, de la mémoire et des capacités d’inférence locales.





















