Everpure, ex-Pure Storage, annonce l'extension de son offre Evergreen//One à FlashBlade//EXA ainsi que la prochaine version bêta de Data Stream, un pipeline automatisé d'ingestion jusqu'à l'inférence. Ce faisant, l'éditeur californien rejoint un mouvement de fond qui traverse l'ensemble du secteur de l'infrastructure : des fournisseurs nés sur la couche physique remontent la pile technique pour prendre en charge la préparation, l'orchestration et la gouvernance des données IA. Une tendance qui redessine les frontières entre infrastructure et plateforme de données.
L'IA d'entreprise bute rarement sur la puissance de calcul. Elle bute sur les données — leur fragmentation, leur dispersion entre environnements hétérogènes, et la complexité de les acheminer vers les GPU dans le format approprié. Ce constat, répété depuis deux ans par les DSI, est désormais intégré comme postulat stratégique par une nouvelle catégorie d'acteurs : ceux qui sont nés au niveau physique de la pile — stockage flash, interconnexion réseau, serveurs — et qui remontent couche après couche vers les fonctions autrefois dévolues aux éditeurs de middleware et de bases de données.
Everpure illustre cette dynamique. L'extension d'Evergreen//One à FlashBlade//EXA fournit les performances et le débit nécessaires à l'entraînement et à l'inférence à grande échelle — jusqu'à 192 nœuds selon le témoignage de STN, un client opérant des charges HPC intensives. Les benchmarks SPECstorage Solution 2020 et MLPerf cités par l'éditeur valident la capacité à alimenter plus de 6 300 tâches d'IA simultanées et à maintenir au-dessus de 90 % l'utilisation des GPU sur des clusters Nvidia Hopper. Mais ce qui distingue l'annonce de la simple progression d'un stockage flash, c'est Everpure Data Stream : un pipeline automatisé, co-développé avec Supermicro sur la base de l'architecture de référence Nvidia AI Data Platform, destiné à supprimer les manipulations manuelles entre l'ingestion des données et l'inférence.
De la couche physique à l'orchestration
Le mouvement qu'incarne Everpure est structurel. NetApp en offre l'exemple le plus documenté parmi les acteurs historiques du stockage. Lors de sa conférence, en octobre dernier, l'éditeur a présenté NetApp AFX, une architecture de stockage désagrégée, et le NetApp AI Data Engine (AIDE), un pipeline ETL intégré qui découvre, classe, anonymise et vectorise les données pour les rendre directement utilisables par les LLM et les agents. NetApp affirme que 71 % des entreprises souffrent d'un manque d'intégration entre leur couche de stockage et leurs pipelines de données IA — un chiffre qui justifie le repositionnement de l'éditeur sur une offre qu'il qualifie désormais de « plateforme de données unifiée ».
Vast Data va plus loin encore dans cette trajectoire : l'éditeur revendique le titre d'AI Operating System, une plateforme qui unifie stockage, base de données et calcul pour orchestrer l'intégralité du pipeline IA. Son architecture intègre DataStore pour le stockage all-flash, DataBase pour les données structurées et les vecteurs, DataEngine pour le traitement événementiel en temps réel, InsightEngine pour la recherche sémantique et le RAG, et AgentEngine, disponible en 2026, pour le déploiement de pipelines d'agents IA en production. Fondée en 2016 comme spécialiste du stockage flash pour le HPC, Vast Data a progressivement intégré dans sa propre plateforme chaque composant qui intervenait dans les pipelines de données, avec l'ambition déclarée de « posséder le pipeline de bout en bout ».
Une dynamique descendante aussi
La remontée dans la pile se double d’une descente de cette même pile. Des éditeurs positionnés sur les couches applicatives, les bases de données et les entrepôts de données, effectuent un mouvement symétrique en descendant vers l'infrastructure. AWS, Google, Snowflake et Databricks ont tous annoncé un support natif d'Apache Iceberg, y compris la gouvernance via des catalogues. Microsoft a adopté Iceberg pour partager des données entre Snowflake et Fabric, et Salesforce a construit un accès sans copie aux lacs de données ouverts via le même format. Cette convergence crée une zone de friction — et d'opportunité — entre les acteurs de l'infrastructure et ceux de la gestion des données.
Matt Turck,tauteur de la cartographie annuelle MAD (Machine Learning, AI & Data) Landscape, écrit dans son édition 2025 : « L'infrastructure de données et l'infrastructure IA s'effondrent en un seul plan ; les coutures sont là où la valeur s'échappe ». Cette compression de la pile produit une recomposition des positionnements, les frontières entre stockage, base de données, orchestration et gouvernance s'estompent au profit d'offres intégrées pour couvrir l'ensemble du cycle de vie de la donnée IA.
Une recomposition de la chaîne de valeur de l'infra
Le diagnostic déclencheur de cette migration, et posé par ces acteurs, estime que l'obstacle au passage du pilote à la production n'est pas le modèle de langage, mais le pipeline qui l'alimente. Everpure Data Stream répond à ce diagnostic par une approche architecturale compacte, combinant le matériel Supermicro avec le stockage à définition logicielle d'Everpure, sur la référence Nvidia AI Data Platform. L'ambition est de réduire les frictions d'intégration pour les organisations qui ne disposent pas des ressources d'ingénierie nécessaires pour assembler manuellement les différents composants d'un pipeline IA. Le modèle de consommation Evergreen//One, à paiement à l'usage et évolutif à la demande, a pour objectif de lever les obstacles à l'entrée pour les déploiements globaux, avec la suppression des contraintes de planification de capacité comme principal bénéfice opérationnel.
La trajectoire d'Everpure, de NetApp et de Vast Data dessine une recomposition profonde du marché de l'infrastructure. Les acteurs qui ne portent pas de vision d'une pile de données IA intégrée à leur système de stockage laissent cette responsabilité aux éditeurs d'analytique et de gestion de données comme Databricks et Snowflake, et prennent le risque d'être cantonnés à un rôle de fournisseur de commodité.
Pour les DSI évaluant leur infrastructure IA, la question des performances brutes ou du coût par téraoctet se double d’une interrogation plus pratique. Celle-ci porte sur la capacité de leur fournisseur d'infrastructure à intégrer nativement la préparation, la vectorisation et la gouvernance des données dans la couche de stockage elle-même, sans nécessiter d'assembler une chaîne d'outils supplémentaire dont la maintenance représente, à terme, un coût opérationnel significatif. Que cette intégration soit pleinement opérationnelle ou encore en version bêta — comme c'est le cas d'Everpure Data Stream — ne change pas l'orientation stratégique. Elle confirme que le stockage d'entreprise, au sens traditionnel du terme, appartient désormais au passé.























