NetApp lance AI Data Engine (AIDE), une plateforme de données IA co-conçue avec Nvidia et intégrée à l'architecture de référence AI Data Platform. L'annonce marque un tournant dans le positionnement de l'éditeur : NetApp ne se présente plus comme un fournisseur de stockage d'entreprise, mais comme l'opérateur d'un pipeline de données IA de bout en bout, depuis la découverte des données jusqu'aux agents. Un repositionnement qui intervient au moment précis où l'ensemble du secteur de l'infrastructure converge vers cette même ambition.

Depuis plusieurs années, NetApp qualifie son offre d'« infrastructure intelligente de données ». AI Data Engine donne une traduction technique concrète à cette formule. La plateforme repose sur un catalogue global de métadonnées généré automatiquement et actualisé en continu, qui dépasse les métadonnées classiques des systèmes de fichiers : AIDE analyse le contenu des fichiers pour enrichir les métadonnées sur place, sans déplacer les données. Ce choix architectural est délibéré — il évite la multiplication des copies, réduit les coûts de transfert et les risques associés à la circulation de données sensibles entre environnements.

Ces métadonnées enrichies constituent le socle du pipeline. Elles permettent aux organisations de repérer, sélectionner et piloter leurs données tout au long du cycle IA — de la sélection et la transformation jusqu'à la mise en service auprès des applications et des agents. AIDE sera accessible à une première série de clients et partenaires dès mars 2026, avant une disponibilité élargie prévue pour l'été. Les intégrations ISV annoncées incluent Google Cloud Vertex AI et LangChain, deux plateformes de référence pour le développement d'applications IA en production.

Traite le contenu sans déplacer les données

Le positionnement technique d'AIDE repose sur une distinction que NetApp juge structurelle : les approches traditionnelles de préparation des données pour l'IA impliquent des déplacements massifs de données entre systèmes — ingestion, transformation, vectorisation, stockage dans une base vectorielle externe. Chaque étape introduit de la latence, des coûts de transfert et des surfaces d'exposition supplémentaires. AIDE cherche à court-circuiter cette chaîne en traitant les données là où elles résident, sur le patrimoine NetApp existant — séries AFF A-Series, AFF C-Series et FAS incluses.

« Même si les entreprises investissent massivement et sont poussées par le marché à exploiter l'IA pour optimiser leur productivité et améliorer leurs prises de décision, elles se heurtent à des problématiques de gestion des données qui bloquent les projets avant leur passage en production », détaille Syam Nair, Chief Product Officer chez NetApp. La réponse de Netapp repose sur une architecture qui sépare explicitement le stockage, les services et la gouvernance, afin que chacune de ces couches puisse évoluer indépendamment, sans enfermement propriétaire.

Nvidia STX et BlueField-4 : l'architecture matérielle

AIDE s'appuie sur une pile matérielle optimisée. NetApp annonce le support de Nvidia STX, l'architecture de référence modulaire pour le stockage en rack dédiée à l'IA agentique, conçue avec les processeurs Vera Rubin et les DPU BlueField-4. Cette architecture intègre un niveau de mémoire spécialisé pour le stockage KV-cache, un composant critique pour les charges d'inférence à long contexte et les workflows agentiques multiétapes, où la latence d'accès aux données se traduit directement en dégradation des performances des agents.

Jason Hardy, Vice-président des technologies de stockage chez Nvidia, situe l'enjeu dans une perspective de gouvernance : « La demande fondamentale pour des usines d'IA pousse les entreprises à rechercher de nouvelles méthodes pour gouverner et exploiter l'immense patrimoine de données dont elles disposent, afin d'en tirer de la valeur pour leur activité. » AIDE vise à fournir ce cadre de gouvernance à l'échelle, en centralisant la gestion intelligente des données entre la puissance de calcul massive des GPU et le stockage des données non structurées. Par ailleurs, NetApp étendra le support d'AIDE aux GPU Nvidia RTX PRO 4500 et RTX PRO 6000 Blackwell Server Edition, présentés au GTC.

Cisco FlexPod AI et LangChain : l'écosystème partenaire

NetApp architecture le déploiement d'AIDE autour d'un réseau de partenaires ISV qui couvre à la fois la couche infrastructure et la couche applicative. Du côté infrastructure, l'intégration avec Cisco FlexPod AI, solution qui réunit calcul, stockage, réseau, sécurité et observabilité, illustre la logique de convergence. « En associant NetApp AIDE à cette solution, l'IA est amenée directement au cœur des données de nos clients, là où elles résident, ce qui accélère les flux de données et apporte une valeur ajoutée plus rapidement », résume Jeremy Foster, SVP et directeur général de Cisco Compute.

Du côté applicatif, les intégrations avec Google Cloud Vertex AI et LangChain permettent aux équipes de développement de construire des applications IA exploitant les données d'entreprise non structurées sans les extraire de leur environnement de stockage natif. L'été 2026 apportera des capacités supplémentaires : un support du cloud hybride pour étendre AIDE aux données réparties entre le stockage local et le cloud, un traitement des données multimodales incluant les données visuelles, et un support renforcé de l'IA agentique pour des flux de travail gouvernés à l'échelle mondiale.

Pour les entreprises, la question posée par AIDE est celle de la localisation réelle du traitement dans le pipeline IA. Enrichir les métadonnées sur place plutôt que de déplacer les données vers des outils externes représente un choix architectural avec des implications directes sur la gouvernance, la conformité et le coût opérationnel. NetApp positionne explicitement cette approche comme une alternative aux architectures qui multiplient les déplacements de données, et, ce faisant, les points de contrôle et les surfaces d'exposition.