Fujitsu et Scaleway s’allient pour proposer une nouvelle approche de l’inférence IA, en misant sur le processeur Monaka afin de concilier performance, souveraineté européenne et efficacité énergétique. Cette collaboration marque une étape dans la diversification des infrastructures cloud, avec l’ambition d’offrir des options plus durables pour les déploiements IA à grande échelle.

L’adoption généralisée de l’intelligence artificielle sur le marché européen impose une transformation profonde des infrastructures cloud, à la fois pour soutenir des modèles toujours plus complexes et pour répondre à l’urgence d’une sobriété énergétique accrue. Les organisations, confrontées à une intensification de leurs besoins en capacité de calcul, cherchent aujourd’hui à arbitrer entre performance, prévisibilité des coûts et conformité aux exigences en matière de souveraineté et de durabilité. Dans ce contexte, les architectures basées sur processeur central reprennent de l’intérêt, porté par les avancées de la recherche appliquée et la pression croissante sur le coût énergétique des infrastructures spécialisées.

La collaboration stratégique entre Fujitsu et Scaleway, annoncée le 4 décembre 2025, s’inscrit dans cette dynamique de redéfinition des standards. Le choix du processeur Monaka illustre une volonté partagée d’offrir aux organisations européennes une alternative crédible aux accélérateurs propriétaires. Monaka promet en effet jusqu’à 1,9 fois plus d’efficacité énergétique et 1,7 fois plus d’efficacité économique sur des charges d’inférence, tout en garantissant une compatibilité avec des modèles d’IA de très grande taille. Ce positionnement technique s’accompagne d’une démarche structurée autour de la sécurité, de l’intégration dans des environnements hétérogènes et de la conformité aux attentes de souveraineté.

Monaka, densité et architecture chiplet pour maximiser l’inférence

Développé par Fujitsu dans la continuité de ses travaux sur le calcul haute performance, le processeur Monaka a été spécifiquement conçu pour répondre aux enjeux du déploiement massif de l’IA en production. Le processeur de Fujitsu se distingue par une microarchitecture spécifiquement conçue pour optimiser les traitements liés à l’intelligence artificielle en environnement cloud. L’architecture « many‑core » repose sur des puces embarquant jusqu’à 144 cœurs Armv9 répartis dans quatre chiplets de calcul (36 cœurs par chiplet). Dans une configuration serveur standard, un serveur peut intégrer deux sockets Monaka, ce qui porte à 288 le nombre de cœurs disponibles.

Ce partitionnement par chiplets, combiné à un die mémoire SRAM distinct, permet de réduire la surface active des cœurs sur le silicium 2 nm et d’améliorer le rendement thermique. L’interface d’E/S (entrée/sortie) regroupe le contrôleur mémoire DDR5 (12 canaux), la connectivité PCIe 6.0 et le support de CXL 3.0, ce qui permet de répondre aux besoins des environnements cloud ou HPC.

Ce niveau élevé de parallélisme, plusieurs dizaines voire centaines de cœurs, se révèle particulièrement adapté aux charges d’IA reposant sur l’inférence de modèles volumineux (modèles de langage, deep learning, calcul scientifique). En multipliant les cœurs, Monaka permet de répartir les calculs de manière fine, d’exploiter massivement le parallélisme des opérations matricielles ou vectorielles, et de limiter les goulets d’étranglement liés à la mémoire grâce au couplage étroit entre cœurs et cache de niveau élevé.

En l’absence de mémoire vive haut débit intégrée (pas de HBM), la combinaison de DDR5 à haut débit, d’un cache SRAM très dimensionné, et d’une connexion haut débit via CXL offre une alternative performante : latence réduite, bande passante mémoire importante, et possibilités d’extension mémoire ou de connexion d’accélérateurs externes. Ainsi, Monaka mise sur la mise à l’échelle, la densité de calcul et l’efficacité énergétique plutôt que sur l’ultra‑bande passante mémoire brute.

Un bon ratio performance par watt

Ce choix d’architecture rend Monaka particulièrement pertinent pour l’inférence IA en production, car il autorise une montée en charge homogène, un bon ratio performance par watt, et une modularité facilitant le dimensionnement des infrastructures selon les besoins métier (cloud, HPC, edge, IA en continu).

La compatibilité native de Monaka avec les principales bibliothèques open source d’IA (TensorFlow, PyTorch, ONNX, etc.) s’appuie sur des accélérations matérielles dédiées, réduisant la nécessité de recourir à des couches d’abstraction logicielle. Ce choix technique favorise une exécution directe des modèles IA et garantit une portabilité aisée entre différentes infrastructures cloud. Enfin, l’architecture intègre des mécanismes avancés de sécurité matérielle, protégeant à la fois les flux de données et les charges de calcul, élément devenu critique dans les contextes d’inférence multisectorielle ou de traitements de données sensibles.

Pour Scaleway, l’intégration de Monaka révèle une stratégie de diversification du portefeuille d’infrastructures IA. Il s’agit de proposer une alternative, mais sans aller jusqu’à remplacer l’écosystème de Nvidia. Monaka représente une alternative crédible à l’écosystème Nvidia pour des cas d’usage spécifiques : inférence IA régulière, production cloud IA, déploiement à échelle, contexte européen soucieux de souveraineté, workloads modulaires ou variés. Dans ces contextes, le ratio performance/coût/efficacité/gouvernance peut devenir favorable. Cependant, pour des applications IA intensives, entraînement de modèles massifs, IA à très haute performance, usages nécessitant accélération maximale ou infrastructures déjà optimisées pour GPU, l’écosystème Nvidia reste aujourd’hui difficile à remplacer. D’où l’intérêt stratégique du choix de certains acteurs de combiner CPU Monaka et GPU Nvidia, afin de bâtir des architectures hybrides tirant parti des forces de chacun.

Vers un modèle de déploiement IA plus responsable et souverain

La collaboration entre Fujitsu et Scaleway intervient dans un contexte de fragmentation croissante du marché des infrastructures IA, où la souveraineté technologique et la réduction de l’empreinte carbone deviennent des arguments clés. Selon Yann-Guirec Manac’h, head of Hardware R&D chez Scaleway, « notre engagement à fournir une efficacité énergétique inégalée dans le cloud reste au cœur de tout ce que nous faisons, nous poussant à innover continuellement pour un futur numérique durable ». Cette orientation répond à une demande croissante d’alternatives aux solutions d’accélération traditionnelles, souvent associées à une consommation énergétique élevée et à des dépendances extraterritoriales.

L’évaluation de Monaka dans des environnements d’inférence relève d’une démarche pragmatique pour tester l’adéquation de cette technologie avec la diversité des cas d’usage, tout en garantissant la conformité aux réglementations sur la gestion des données et la cybersécurité. La stratégie de Scaleway repose sur une transparence totale, permettant aux clients un accès transparent à la performance, aux coûts d’exploitation et à l’impact environnemental de chaque option déployée. Ce modèle permet de soutenir l’industrialisation de l’IA tout en accompagnant les choix écologiques du secteur numérique.

Des alternatives crédibles aux offres des hyperscalers

L’un des enjeux majeurs de ce partenariat réside dans la capacité à proposer des alternatives crédibles aux offres des hyperscalers américains, sur un marché marqué par une concentration extrême des capacités de calcul. Scaleway revendique une maîtrise complète de la chaîne de valeur, depuis l’exploitation des data centers jusqu’à la fourniture de services à valeur ajoutée, le tout dans un cadre européen sécurisé. Cette maîtrise permet d’intégrer rapidement des innovations comme Monaka et d’ajuster l’offre en fonction de l’évolution des besoins du marché. Pour Fujitsu, ce partenariat ouvre la voie à une diffusion élargie de ses technologies sur le marché européen, tout en valorisant son savoir-faire en matière de performance énergétique.

Toutefois, certains observateurs pourraient être tentés de voir dans le partenariat Fujitsu–Scaleway une solution de repli, motivée avant tout par la pénurie de GPU et l’incertitude sur l’accès aux accélérateurs propriétaires. Mais une analyse approfondie nuance ce diagnostic, en montrant qu’il s’agit d’une réponse à la fois pragmatique, stratégique et potentiellement structurante pour l’écosystème européen du cloud et de l’IA. À court terme, la démarche peut effectivement s’apparenter à un « pis-aller » pour les acteurs confrontés à la raréfaction des GPU Nvidia ou à la rétention des puces spécialisées par les grandes plateformes américaines. La généralisation des restrictions à l’exportation, la priorité donnée aux marchés nationaux américains et la verticalisation des offres cloud poussent les fournisseurs européens à explorer toutes les pistes alternatives pour ne pas dépendre de ressources inaccessibles ou devenues prohibitivement coûteuses.

En ce sens, le choix d’une architecture CPU optimisée, disponible sur le marché et développée dans une logique ouverte, apparaît comme une réponse d’opportunité, faute de mieux. Mais réduire ce mouvement à une simple stratégie par défaut serait réducteur. L’intérêt de ce partenariat réside dans sa capacité à amorcer une transition vers des modèles de calcul plus souverains, mieux alignés avec les exigences européennes en matière de conformité, de sécurité et de durabilité. Monaka n’est pas seulement une roue de secours : il permet d’expérimenter à grande échelle des processeurs réinventés pour l’IA, d’accélérer la diversification des chaînes d’approvisionnement et de réduire la dépendance technologique vis-à-vis des géants américains.

À moyen terme, cette dynamique pourrait contribuer à faire émerger une nouvelle génération d’infrastructures cloud, moins vulnérables aux tensions géopolitiques, plus agiles et adaptées aux contraintes spécifiques des organisations européennes. Le partenariat Fujitsu–Scaleway apparaît ainsi comme une initiative hybride, à la fois subie et choisie, qui répond à l’urgence d’un marché tendu tout en préfigurant une évolution structurelle du secteur. La capacité des acteurs européens à transformer ce « pis-aller » en avantage concurrentiel durable dépendra de leur aptitude à industrialiser ces solutions, à fédérer un écosystème logiciel autour de ces nouvelles architectures, et à démontrer leur valeur sur le terrain de la performance, des coûts et de la souveraineté numérique.

Cette pression sur les chaînes d’approvisionnement concerne l’ensemble du secteur, y compris des acteurs comme OpenAI, qui explore activement la possibilité de concevoir ou de codévelopper ses propres puces pour sécuriser ses futurs besoins. L’ensemble du marché se prépare ainsi à une période de tension prolongée sur les ressources matérielles, où la capacité à innover et à intégrer des alternatives, comme les CPU IA de nouvelle génération, pourrait devenir un avantage compétitif déterminant pour les acteurs européens.

publicité