Dell renforce son offre de stockage pour l’intelligence artificielle avec une plateforme modulaire, pensée pour unifier les données distribuées et accélérer les charges de travail IA. Intégrée au design de référence de Nvidia, la Dell AI Data Platform s’étend désormais à des moteurs analytiques, des services de gouvernance et des protocoles d’agentification, dans une logique de convergence industrielle.

Alors que les entreprises intensifient leurs investissements dans l’IA, la performance des systèmes d’infrastructure devient un facteur critique. Pour répondre à cette exigence, Dell Technologies étend sa plateforme Dell AI Data Platform, conçue pour absorber, organiser et activer des volumes croissants de données hétérogènes. L’enjeu : franchir les limites du stockage traditionnel en le reconfigurant comme un socle dynamique de l’intelligence artificielle à l’échelle industrielle.

Présentée comme une brique essentielle du programme Dell AI Factory, cette plateforme modulaire prend appui sur quatre composantes principales : un stockage haute performance, des moteurs de données, une résilience intégrée et des services avancés de gestion. Elle s’inscrit dans le design de référence Nvidia AI Data Platform, gage d’une compatibilité optimisée avec les accélérateurs GPU de dernière génération.

Vers une dissociation fonctionnelle entre stockage et traitement IA

La plateforme repose sur une architecture disjointe entre le traitement et le stockage, une approche conçue pour éliminer les goulets d’étranglement observés dans les pipelines d’IA classiques. Les composants Dell PowerScale et ObjectScale jouent un rôle central dans cette logique, en conjuguant performances, accès multi-protocoles et évolutivité granulaire.

PowerScale, certifié Nvidia Cloud Partner, se distingue par sa capacité à supporter des déploiements IA à grande échelle, jusqu’à 16 000 GPU, tout en réduisant significativement l’empreinte rack et la consommation énergétique. ObjectScale, présenté comme la plateforme objet la plus rapide du marché, introduit le support expérimental du protocole S3 over RDMA, promettant un gain de débit de 230 % et une baisse de latence de 80 % sur certaines charges. Cette évolution technique préfigure l’arrivée de pipelines IA massifs plus agiles et mieux intégrés aux environnements de production.

Moteurs de données et agentification des pipelines analytiques

L’autre volet stratégique de la plateforme repose sur l’ajout de moteurs de données spécialisés, conçus avec des partenaires clés comme Elastic et Starburst. Le Data Search Engine, adossé à Elasticsearch, cible les cas d’usage en génération augmentée (RAG) et en recherche sémantique. Il exploite les métadonnées exposées par MetadataIQ pour naviguer dans des volumes hétérogènes et créer des applications RAG optimisées dans LangChain ou équivalent.

De son côté, le Data Analytics Engine, co-développé avec Starburst, introduit une couche dite « agentique » qui convertit automatiquement les données brutes en objets métiers. Cette approche, couplée à des fonctions de gouvernance embarquées, vise à industrialiser la production de connaissances contextualisées, compatibles SQL, en intégrant nativement l’IA dans les workflows d’entreprise. Le tout sera orchestré par un composant MCP Server, orienté développement multi-agents, prévu pour 2026.

Intégrations avancées et ouverture vers l’écosystème Nvidia

La plateforme Dell AI Data Platform s’inscrit dans une logique d’interopérabilité croissante avec les outils Nvidia. L’intégration des systèmes GB200 et GB300 NVL72, déjà validée, permet doptimiser les tâches d’entraînement et d’inférence. En parallèle, l’arrivée de cuVS (GPU-accelerated Vector Search) dans le moteur de recherche Dell ouvre la voie à une recherche hybride (textuelle + vectorielle) accélérée par GPU, avec hébergement sur site.

Cette convergence technologique est saluée par les partenaires industriels, qui y voient une opportunité d’accélération des cycles IA dans des secteurs aussi variés que la santé, la maintenance industrielle ou la cybersécurité. Les intégrateurs comme Maya HTT positionnent déjà l’offre de Dell comme catalyseur de projets IA à forte intensité de données non structurées.

Vers une dissociation fonctionnelle entre stockage et traitement IA

La disponibilité de l’ensemble des composants s’échelonnera sur plusieurs mois. Certaines briques comme PowerScale avec les nouveaux GPU Nvidia sont d’ores et déjà disponibles. D’autres, comme la couche agentique du Data Analytics Engine ou l’intégration cuVS, arriveront au cours du premier semestre 2026. L’ambition affichée est de proposer une plateforme unifiée, modulaire et interopérable, capable d’adresser les besoins d’une IA d’entreprise en pleine industrialisation.

Cette configuration révèle une orientation stratégique nette : la plateforme cible prioritairement les charges d’inférence, les pipelines de génération augmentée (RAG) et les workflows de fine-tuning léger. L’architecture dissociée, couplée à des optimisations telles que le protocole S3 over RDMA, est pensée pour alimenter des systèmes de réponse rapides, adaptables et multi-sources. L’ajout de moteurs vectoriels GPU (cuVS) et d’un moteur analytique agentique positionne clairement la chaîne de traitement Dell comme un socle pour l’industrialisation de l’IA dans les cas d’usage métiers — diagnostics, maintenance prédictive, assistants experts — plutôt que comme une plateforme d’entraînement massif de modèles fondamentaux.

En reconfigurant les bases du stockage autour des charges IA, Dell ne se contente pas de mettre à niveau son infrastructure. L’entreprise impose un modèle opérationnel centré sur la donnée comme ressource stratégique, orchestrée, gouvernée et valorisable en temps réel. Une approche qui reflète l’évolution des priorités dans l’IA d’entreprise : moins de modèles isolés, plus d’écosystèmes coordonnés.

publicité