Avec la disponibilité du Dell Pro Max avec GB10 en France, Dell entend redistribuer les cartes de l’architecture IA locale. Ce poste de travail à très haute performance, reposant sur la puce Grace Blackwell et DGX OS, permet désormais d’entraîner ou d’inférer des modèles de plusieurs centaines de milliards de paramètres, sans passer par le cloud ni par un superpod. Une offensive qui cible les chercheurs, startups, industries réglementées et créateurs.
Dévoilé au GTC 2025, le Dell Pro Max avec GB10 se présente comme un poste de travail au format compact (15 x 15 x 5,1 cm, 2,9 kg), mais doté d’une capacité de calcul de niveau data center. Il embarque le superprocesseur Nvidia Grace Blackwell GB10, avec 20 cœurs ARM haute performance, et repose sur une mémoire unifiée LPDDR5x de 128 Go, capable de soutenir des modèles allant jusqu’à 200 milliards de paramètres. Dell annonce une performance de 1000 TOPS en FP4, soit près d’un pétaflop dans ce format desktop.
Outre ses performances brutes, la machine se distingue par sa modularité : deux unités peuvent être interconnectées via un lien à très faible latence (ConnectX‑7 Smart NIC) pour former un nœud unique prêt à gérer des modèles de 400 milliards de paramètres. Elle est livrée avec un environnement complet prêt à l’emploi (DGX OS, CUDA, TensorRT, PyTorch, JupyterLab, AI Workbench), qui permet de prototyper, entraîner et déployer sans délai, ni configuration complexe.
Un repositionnement stratégique face aux superpods cloudisés
Avec cette offre, Dell prend le contrepied des modèles de centralisation incarnés par les superpods Blackwell des hyperscalers. Alors que ceux-ci concentrent la puissance IA dans des centres hyperspécialisés pour la formation de modèles fondamentaux, le Dell Pro Max avec GB10 incarne une logique inverse, celle de l’exécution locale, décentralisée, modulaire. Il cible ainsi les entreprises, les laboratoires ou les développeurs qui souhaitent conserver la souveraineté de leurs données, éviter les latences du cloud ou contenir les coûts d’inférence à grande échelle.
Cette stratégie répond également aux limites du marché intermédiaire : les stations IA classiques plafonnent à 45 milliards de paramètres, selon Dell, obligeant souvent à compresser les modèles ou à transférer les données vers des clouds publics coûteux et inadaptés aux contraintes réglementaires. En positionnant sa solution comme un « micro-pod » local, Dell propose une alternative au cloud souverain, sans rupture fonctionnelle.
Des cas d’usage étendus, de la recherche à la création
La cible de Dell est plurielle. Les chercheurs peuvent itérer sur des modèles complexes comme Llama 3.3 70B en local, sans passer par des files d’attente ni dépendre de quotas. Les startups disposent d’un environnement de développement et de mise à l’échelle à bas coût, avec des cycles de prototypage réduits à quelques jours. Les industriels régulés, notamment dans la banque ou la santé, trouvent ici une solution conforme à leurs exigences de souveraineté : l’IA de diagnostic ou de détection de fraude peut être entraînée sur site, dans un périmètre maîtrisé.
Enfin, Dell met en avant l’ouverture aux créateurs indépendants : développeurs de jeux intégrant des agents personnalisés, studios de design affinant des modèles de vision ou freelances explorant des IA génératives spécifiques. En mettant à disposition une machine capable de supporter de lourdes charges IA sans infrastructure externe, Dell facilite l’émergence de nouveaux profils producteurs d’IA.