L’industrie des centres de données est à la croisée des chemins, confrontée à des choix stratégiques pour concilier durabilité, innovation technologique et rentabilité économique. En 2025, sa capacité à relever ces défis sera déterminante pour le succès dans un monde où l’IA redéfinit les priorités technologiques et économiques.
La demande pour les infrastructures numériques connaît une croissance sans précédent, notamment sous l’impulsion de l’IA. Cependant, cette expansion rapide suscite des préoccupations environnementales et politiques. Les gouvernements devront arbitrer entre le soutien à cette industrie pour ses bénéfices économiques et technologiques et les engagements climatiques, souvent mis en retrait pour permettre cette croissance.
L’étude annuelle d’Uptime Institute met en évidence les défis et les transformations majeurs auxquels les centres de données seront confrontés en 2025. Parmi ces enjeux, la montée des besoins en ressources est un point central. En raison de leur impact écologique et des promesses non tenues sur la création d’emplois, les centres de données font face à une opposition croissante. Parallèlement, les gouvernements privilégient les bénéfices économiques et technologiques liés à l’intelligence artificielle, souvent au détriment des engagements climatiques, dans un contexte où la pression sur les réseaux électriques ne cesse de croître.
Des traitements en heures creuses
D’après l’étude, et face à la complexité et aux coûts élevés des infrastructures nécessaires à l’entraînement des modèles d’IA, la migration vers le cloud devient inévitable pour de nombreuses entreprises. Un seul serveur Nvidia H100 peut coûter plusieurs centaines de milliers de dollars, tandis que la mise en place d’un cluster et son stack peut atteindre plusieurs millions, sans inclure les coûts liés au stockage, au refroidissement et àla main-d’œuvre qualifiée.
En conséquence, 84 % des fournisseurs de colocation prévoient une augmentation de leurs dépenses en 2025, tout comme 71 % des opérateurs d’entreprise, bien que ces derniers disposent souvent de moins de flexibilité financière pour investir dans des infrastructures dédiées. La majorité des entreprises préfèrent utiliser des services cloud payants et des modèles préentraînés, réduisant ainsi leurs besoins en calcul tout en optimisant les coûts.
Le rapport constate aussi que cette évolution s’accompagne d’un besoin accru de flexibilité énergétique. Les centres de données, pour alléger la pression sur les réseaux électriques, devront spécifiquement gérer les charges non sensibles à la latence, comme les entraînements d’IA, et pourraient être incités financièrement ou contraints à réduire leur consommation lors des périodes de forte demande. En somme, ils peuvent adopter le traitement en heures creuses. Contrairement aux applications critiques nécessitant une réactivité immédiate, ces entraînements peuvent être planifiés et exécutés à des moments où la demande énergétique globale est plus faible, comme la nuit ou en dehors
des heures de pointe.
Transformer l’électrification des centres de données
En parallèle, les exigences croissantes en matière de puissance et de densité énergétique des systèmes d’IA transforment l’électrification des centres de données. Les racks actuels atteignent des densités de 40 kW, bien au-delà des normes standardisées qui se situent souvent sous les 30 kW. Les prochaines générations pourraient atteindre des densités de 60 à 130 kW, et même dépasser 300 kW par rack d’ici 2026.Pour relever ces défis, des solutions technologiques comme la distribution en moyenne tension, comprise entre 1 000 et 35 000 volts, permettent de réduire les pertes énergétiques et d’optimiser l’espace. Le développement de transformateurs à
semi-conducteurs, plus compacts et efficaces, pourrait également simplifier la chaîne de conversion d’énergie en produisant directement du courant continu.
Une autre solution consiste à utiliser des innovations technologiques, comme les logiciels de gestion de l’énergie alimentés par l’IA. Ils seront amenés à jouer un rôle crucial, en permettant de surveiller en temps réel la consommation, d’identifier les opportunités d’optimisation et de coordonner les opérations énergétiques avec les gestionnaires de réseau. Cette capacité à ajuster rapidement et intelligemment les charges non critiques sera un levier stratégique pour les centres de données, à la fois pour réduire leur empreinte énergétique et pour améliorer leur résilience économique et opérationnelle.
Remplacer les GPU par des ASIC dédiés
Enfin, le dernier constat relevé par les chercheurs de l’Uptime Institute concerne le défi que représente la domination des GPU de Nvidia pour l’inférence et le ML. Une remise en question légitime au regard des coûts et de la consommation de ces puces. À la décharge de Nvidia, ses GPU n’ont pas été développés pour l’IA à l’origine. Bien qu’ils soient devenus essentiels pour les grands modèles d’IA, leur coût élevé et les difficultés de déploiement encouragent l’émergence d’alternatives, en particulier pour les tâches d’inférence nécessitant des ressources réduites.Développée à l’origine pour le streaming et l’encodage vidéo, l’architecture GPU de Nvidia s’est avérée être une plateforme bien plus adaptée pour le traitement de l’intelligence artificielle que les CPU d’Intel et d’AMD. Ils exploitent une architecture parallélisée bien plus adaptée aux calculs intensifs complexes et interconnectés. Certes, Nvidia a adapté son architecture en introduisant plusieurs évolutions dans ses GPU, telles que les Tensor Cores, les optimisations de CUDA, ainsi que des interconnexions NVLink plus performantes, permettent aux GPU de partager la charge de calcul et les données plus efficacement.
Toutefois, cela n’a pas effacé les défauts inhérents à ces puces comme la consommation excessive. Pour passer outre ces limitations, de nombreuses entreprises et institutions dans le monde développent des puces spécifiques à l’IA : ASIC, TPU, IPU et d’autres architectures optimisées. Pour leur part, les hyperscalers, tels qu’AWS et Google, investissent de plus en plus dans leurs propres circuits intégrés spécifiques, les ASIC, pour réduire les coûts et améliorer les performances.
Dans une large mesure, les tendances observées en 2024 se confirment pour 2025. Les réglementations environnementales imposent une responsabilité stricte en matière de carbone, forçant les opérateurs à justifier leurs objectifs de durabilité. L’adoption du refroidissement liquide reste limitée, bien que prometteuse, en raison des coûts élevés et des contraintes de compatibilité.