Vast Data et Nvidia ont annoncé le lancement du CNode-X, un serveur GPU sur lequel tourne directement le Vast AI Operating System. La plateforme unifie le stockage, les bases de données vectorielles, l’analytique SQL et l’inférence au sein d'un système intégré, pour éliminer la nécessité d'assembler des stacks distincts. Pour les entreprises, l'enjeu est de supprimer les silos de données qui bloquent la transition des projets IA de l'expérimentation à la production. Le CNode-X sera commercialisé via Cisco et Supermicro.
Selon Vast Data, 90 % des données d'entreprise restent stockées dans des systèmes jamais conçus pour alimenter des modèles en temps réel. Les architectures classiques contraignent les équipes à dupliquer les données vers une infrastructure IA séparée, ce qui génère des silos, des conflits de version et des risques de conformité. Le CNode-X inverse cette logique en faisant tourner le Vast AI OS directement sur des serveurs GPU équipés de puces Nvidia RTX PRO 6000 Blackwell : le calcul est exécuté là où les données résident, sans mouvement préalable.
Le CNode-X intègre plusieurs bibliothèques Nvidia directement dans les services centraux de Vast. La bibliothèque cuVS accélère la recherche vectorielle et le clustering, réduisant la latence de récupération pour les pipelines RAG en production. Le moteur Sirius, basé sur Nvidia cuDF et publié en open source, assure l'exécution des requêtes analytiques SQL par GPU au niveau de la couche de calcul. Vast annonce des benchmarks préliminaires indiquant jusqu'à 44 % de réduction du temps de requête et jusqu'à 80 % de réduction des coûts associés. Ces résultats restent à valider en conditions de production réelles.
Architecture Dase : accès universel aux données
La Vast DataBase combine cette exécution GPU avec une organisation des données côté stockage intégrant des mécanismes de pushdown et de filtrage qui réduisent les I/O inutiles avant que la requête n'atteigne la couche de calcul. Cette combinaison produit une base de données optimisée simultanément pour le stockage et pour le GPU, à la différence des approches qui délèguent l'accélération à une seule couche.
La plateforme repose sur l'architecture Disaggregated Shared Everything (Dase) de Vast Data. Chaque nœud CNode-X accède à l'intégralité des données via NVMe over Fabrics, sans coordination inter-nœuds, sans sharding et sans trafic est-ouest. L'ensemble fonctionne sous forme de conteneurs stateless orchestrés par Kubernetes managé dans le Vast AI OS. Cette architecture élimine la nécessité d'assembler des systèmes distincts de stockage, de bases de données vectorielles, de moteurs d'analytics et d'infrastructure IA.
Les pipelines RAG qui nécessitaient auparavant des clusters GPU séparés, des bases vectorielles indépendantes et des couches de stockage dédiées s'exécutent désormais comme un workflow unifié, l'ensemble des composants accédant simultanément au même corpus de données. Les politiques d'accès se propagent automatiquement des données brutes jusqu'à l'inférence, sans couche de sécurité additionnelle à administrer.
Inférence longue durée et systèmes multiagents via Nvidia CMX
Vast intègre la plateforme Nvidia Context Memory Storage (CMX) avec des configurations de cluster incluant les DPU Nvidia BlueField-4 et le réseau Spectrum-X. L'objectif est d'accélérer l'accès au cache KV partagé et de réduire le time-to-first-token pour les workloads d'inférence longue durée et multiagents. L'architecture Dase permet par ailleurs d'intégrer des services de données d'entreprise hors bande sans compromettre les temps de récupération KV.
Vast déploie également les microservices Nvidia NIM sur CNode-X et publie en open source des plans DataEngine ciblant trois cas d'usage : l'intelligence vidéo, le RAG documentaire en entreprise et la recherche en génomique. Ces plans permettent de réduire le délai d'industrialisation pour les équipes qui prototypent sur des stacks hétérogènes. Vast prévoit de distribuer les serveurs CNode-X via deux partenaires OEM, Cisco et Supermicro. Ce choix permet aux entreprises de se procurer l'infrastructure GPU via leurs fournisseurs habituels tout en bénéficiant de l'expérience logicielle, du support et des opérations Vast. L’éditeur prévoit de distribuer les serveurs CNode-X via deux partenaires OEM : Cisco et Supermicro. Ce choix permet aux entreprises de se procurer l'infrastructure GPU via leurs fournisseurs habituels tout en bénéficiant de l'expérience logicielle, du support et des opérations Vast.
La recomposition des stacks IA en entreprise
L'annonce Vast Data-Vast s'inscrit dans un mouvement structurel documenté par l'ensemble des grandes firmes d'analyse sur la période 2025-2026. Cette dynamique de convergence est le résultat d’un fait de marché : l'industrialisation plus lente que prévu des déploiements IA est freinée par la qualité des données et la dépendance aux plateformes externes. La réponse apportée par les acteurs de marché consiste à absorber les couches manquantes plutôt qu'à les interfacer. Gartner identifie dans ses dix tendances stratégiques 2026 les plateformes conçues nativement pour l'IA et les supercalculateurs dédiés comme les deux prérequis d'une industrialisation réussie. Deloitte estime que près des deux tiers de la puissance de calcul IA consommée en 2026 le seront à l'inférence, et non à l'entraînement, ce qui déplace l'enjeu de performance précisément vers la couche que Vast et Nvidia cherchent à optimiser conjointement.
Cette logique de consolidation des couches se manifeste simultanément à plusieurs niveaux du marché. À l'échelle des éditeurs de plateformes métier, Salesforce a finalisé en novembre 2025 l'acquisition d'Informatica pour 8 milliards de dollars afin de contrôler la gouvernance et la qualité des données nécessaires à ses agents Agentforce. À l'échelle des éditeurs de middleware hybride, IBM a intégré à Think 2025 Watsonx.data comme point d'accès central entre les agents IA et les silos documentaires, après l'acquisition de DataStax pour renforcer la recherche vectorielle. À l'échelle des acteurs souverains, Mistral AI a racheté en février 2026 la startup parisienne Koyeb et investi 1,4 milliard de dollars dans des centres de données en Suède, construisant méthodiquement sa pile complète — modèles, inférence, exécution, infrastructure physique — pour s'affranchir des hyperscalers américains et répondre aux exigences de localisation des grands comptes européens. Une coentreprise associant MGX, Bpifrance, Mistral AI et Vast pour un campus IA en France illustre par ailleurs que cette consolidation emprunte aussi des voies publiques-privées à l'échelle nationale.
Une course pour le contrôle d’une ressource stratégique
Microsoft a suivi la même trajectoire à Ignite 2025, en structurant sa pile comme couche fédératrice d'orchestration : Agent 365, Fabric IQ, Foundry IQ et Copilot forment un ensemble où les données, les workflows et les agents partagent le même référentiel de gouvernance. Capgemini, dans son rapport TechnoVision 2026, qualifie ce mouvement de « course au contrôle des ressources stratégiques » couvrant les semi-conducteurs, le stockage et les modèles, et anticipe qu'il structurera durablement le paysage numérique mondial.
Pour les DSI, la position de Forrester est sans ambiguïté : un quart des dépenses IA risque d'être reporté à 2027 faute de retours concrets, et un dirigeant IT sur quatre sera sollicité pour sauver des projets initiés par les métiers sans fondations techniques suffisantes. Le CNode-X répond à ce diagnostic précis — éliminer les frictions d'intégration qui empêchent les projets IA de passer de l'expérimentation à la production — mais dans le cadre d'un écosystème dont les conditions d'évolution restent fixées par ses deux architectes principaux.























