L’irruption de ChatGPT dans le champ médiatique ne remonte qu’à novembre 2022 mais l’engouement pour l’intelligence artificielle générative est telle qu’il faut déjà s’interroger sur son impact environnemental. Alexandre de Vries, expert dans ce domaine, tire le sonnette d’alarme, solides arguments à l’appui.

Dans sa note d’analyse sur l’impact énergétique des IA génératives, « The growing energy footprint of artificial intelligence », Alex de Vries, fondateur de Digiconomist, dresse un constat plutôt sévère sur les conséquences énergétiques de leur montée en puissance, même s’il pondère son propos en soulignant les avancées possibles pour limiter leur impact. Après le lancement réussi de ChatGPT d'OpenAI, qui a atteint le volume fulgurant de 100 millions d'utilisateurs en deux mois et dans un délai record de 2 mois, Microsoft et Alphabet ont lancé leurs propres chatbots, Bing Chat et Bard, respectivement. Un développement accéléré qui soulève des questions sur la consommation d'électricité et l'impact environnemental potentiel de l'IA et des centres de données.

ChatGPT et DALL-E d'OpenAI utilisent un traitement du langage naturel et un processus de traitement commun : une phase de formation initiale suivie d'une phase d'inférence. La première phase est la plus énergivore mais la phase d'inférence contribue aussi significativement aux coûts énergétiques.

La société de recherche SemiAnalysis a suggéré qu'OpenAI nécessitait 3 617 serveurs HGX A100 de NVIDIA, avec un total de 28 936 unités de traitement graphique (GPU), pour prendre en charge ChatGPT, ce qui implique une demande d'énergie de 564 MWh par jour. Autre sujet de préoccupation, si l'IA générative est intégrée dans chaque recherche Google, la consommation quotidienne pourrait être de 80 GWh et la consommation annuelle de 29,2 TWh. C’est considérable. Le président d'Alphabet (Google) a indiqué en février 2023 que l'interaction de son moteur de recherche avec un modèle de langage d’IA pourrait probablement consommer 10 fois plus qu'une recherche standard par mot-clé.

Un des moyens pragmatiques de mesurer la consommation électrique de l’IA est d’analyser les ventes de GPU de NVIDIA qui détient 95 % du marché des puces de traitement de l’IA. La consommation des serveurs à base de puces Nvidia, s’ils fonctionnent à pleine capacité, est de 6,5 kW pour les serveurs à base de puces NVIDIA DGX A100 et 10,2 kW pour les serveurs à base de DGX H100 !

Le verre à moitié vide et à moitié plein

Côté pessimiste, il faut prendre en compte la consommation d'électricité du refroidissement des serveurs, par exemple. D’autre part, le grand intérêt pour l'IA générative en 2022 et 2023, entraîne un effet de rebond sur la consommation.

Côté plus optimiste, le modèle de langage généraliste de Google (GlaM), pour ne citer que lui, a été entraîné avec 7 fois plus de paramètres que ceux inclus dans GPT-3, mais a nécessité 2,8 fois moins d'énergie,18 mois seulement après l'apprentissage du modèle de GPT-3. Cependant, cette perspective ne tient pas compte du paradoxe de Jevons, formulé en 1865 et qui se produit lorsque l'augmentation de l'efficacité se traduit par une augmentation de la consommation.

D’anciens mineurs de crypto-monnaies utilisant des GPU ont commencé à réaffecter leur puissance de calcul pour des tâches liées à l'IA. De plus, Ethereum, la deuxième crypto-monnaie la plus importante, a remplacé son algorithme de minage énergivore par un algorithme de minage plus durable.

Alexandre de Vries affirme qu’il serait souhaitable que les développeurs puissent non seulement se concentrer sur l'optimisation de l'IA, mais aussi sur la nécessité d'utiliser systématiquement l'IA dans leurs projets. Il est en effet peu probable que toutes les applications doivent bénéficier de l'IA ou que ses avantages l'emportent toujours sur les coûts dus à la consommation d’énergie.