Alors que la durabilité de l’intelligence artificielle s’impose comme un sujet central, Google publie une méthodologie pour quantifier l’impact environnemental de l’inférence. Les chiffres fournis traduisent des gains d’efficacité notables, mais soulèvent des critiques méthodologiques. À l’échelle de projets d’entreprise, les simulations montrent des volumes de consommation significatifs.

Depuis deux ans, la durabilité de l’intelligence artificielle est au cœur des discussions entre chercheurs, observateurs et régulateurs. Les études universitaires alertent sur la consommation énergétique colossale des modèles génératifs et sur l’empreinte en eau des centres de données. L’université de Californie à Riverside estime qu’un entraînement de modèle de grande taille peut mobiliser plusieurs centaines de mégawatts heures et des millions de litres d’eau de refroidissement.

Le MIT Technology Review rappelle de son côté que l’inférence, par le volume massif de requêtes quotidiennes, pourrait à terme dépasser en intensité énergétique la phase d’entraînement. Cette inquiétude s’étend au domaine réglementaire : l’Europe intègre désormais l’IA dans ses indicateurs de durabilité, en exigeant des mesures précises des émissions et de la consommation de ressources.

Ce que l’étude change dans le débat

C’est dans ce contexte que Google a publié une méthodologie visant à mesurer l’impact environnemental de l’inférence de ses modèles. Contrairement aux approches limitées aux processeurs, l’entreprise prend en compte l’ensemble de l’infrastructure : puces d’accélération, serveurs hôtes, machines en veille et refroidissement. Selon ses calculs, une requête médiane sur son service Gemini consomme 0,24 Watt-heure, émet 0,03 gramme de CO₂ et utilise 0,26 millilitre d’eau.

Ces résultats permettent de disposer d’un ordre de grandeur clair pour évaluer les usages quotidiens de l’IA. Une requête médiane signifie que la moitié des requêtes observées consomment moins que cette valeur de référence et l’autre moitié consomment plus. Ce n’est pas une moyenne pondérée, mais un point central de distribution, choisi pour éviter que les requêtes très lourdes (par exemple génération multimodale complexe) ou très légères (requêtes très courtes) ne biaisent le calcul.

Cette publication apporte deux éléments clés. D’abord, elle déplace l’attention sur l’inférence, qui, dépassant l’entraînement, devient la principale source d’empreinte avec la diffusion massive de l’IA. Ensuite, elle propose un périmètre élargi, incluant tous les composants matériels et les systèmes, là où les mesures antérieures se limitaient souvent au calcul pur. Google met également en avant des gains spectaculaires : en un an, la consommation énergétique médiane par requête aurait été divisée par 33 et l’empreinte carbone par 44.

Les intentions sont claires : il s’agit de démontrer la capacité technique de Google à améliorer l’efficacité et de se positionner comme initiateur d’un standard de mesure reconnu. L’initiative vise à la fois à rassurer les clients B2B, qui intègrent de plus en plus ces indicateurs dans leurs bilans ESG, et à anticiper les futures exigences réglementaires, en particulier européennes.

Des chiffres en baisse, mais contestés

Les critiques n’ont pas tardé. Des chercheurs estiment que la méthodologie sous-estime certains postes, notamment l’eau utilisée pour produire l’électricité alimentant les centres de données. Ils reprochent aussi le recours à une méthode « market-based » pour les émissions carbone, qui valorise les investissements de Google dans les énergies renouvelables, mais ne reflète pas la réalité du mix énergétique local. En d’autres termes, l’empreinte réelle d’une requête pourrait être plus élevée que celle affichée.

Pour donner une échelle de lecture, un projet courant tel que la rédaction d’un rapport à partir de notes de réunion et d’une transcription peut mobiliser entre 50 et 200 requêtes. Cela inclut l’extraction des points clés, la synthèse, la rédaction des sections et plusieurs reformulations. À ce niveau, l’impact reste modeste : entre 12 et 48 Watts-heures, soit l’équivalent d’une ampoule LED de 10 watts allumée pendant cinq heures, et de 13 à 52 millilitres d’eau, l’équivalent d’une gorgée. Mais si une entreprise produit mille rapports de ce type en un an, l’empreinte atteint 12 à 48 kilowatts-heures, l’équivalent de la consommation annuelle d’un petit réfrigérateur, et de 13 à 52 litres d’eau.

Ces équivalences montrent que l’impact d’un projet isolé est faible, mais qu’il devient très vite significatif lorsque les usages se multiplient et s’industrialisent. C’est précisément cette logique d’échelle qui justifie la nécessité d’indicateurs fiables : sans cadre de mesure, les entreprises ne peuvent pas anticiper la trajectoire environnementale de leurs
activités liées à l’IA.

Si l’impact d’une requête paraît minime, les ordres de grandeur changent radicalement dès que l’on projette ces chiffres sur des projets entiers. Pour un projet moyen de cinq millions de requêtes, la consommation atteint environ 1,2 mégawatt heure, soit l’équivalent de la consommation annuelle d’électricité de deux foyers français, avec 150 kilogrammes de CO₂ émis et près de 1 300 litres d’eau utilisés. Pour un projet long de cinquante millions de requêtes, on atteint près de 12 mégawatts heures, 1,5 tonne de CO₂ et plus de 13 000 litres d’eau. Ces volumes replacent l’inférence de l’IA dans une échelle comparable à celle de projets industriels classiques.

Durabilité : un caillou dans la chaussure

La durabilité est un véritable caillou dans la chaussure des fournisseurs de services d'inférence. Google n’est pas seul à tenter de cadrer le débat. Microsoft a publié en 2024 des indicateurs de consommation énergétique pour ses services Azure AI, en insistant sur son recours croissant aux énergies renouvelables, mais sans fournir de métrique détaillée par requête. AWS, de son côté, s’appuie sur un tableau de bord « Customer Carbon Footprint » qui permet aux entreprises clientes d’estimer leurs émissions Scope 1, 2 et 3 liées à l’usage du cloud, mais qui reste généraliste et ne distingue pas les charges IA.

Nvidia adopte une autre approche, en mettant en avant l’efficacité énergétique de ses puces et de ses architectures DGX, sans publier d’équivalents chiffrés par prompt, mais en soulignant que ses systèmes récents délivrent jusqu’à trois fois plus de performance par watt que les générations précédentes.

Dans ce paysage, Google se différencie en ciblant l’inférence elle-même, là où la majorité des acteurs se concentrent sur l’efficacité des infrastructures ou le reporting global. Cette posture lui permet de l’installer comme référence sur un sujet qui deviendra inévitable dans les appels d’offres : combien coûte vraiment une requête IA en énergie,
en carbone et en eau.

Vers une standardisation nécessaire

La publication de Google constitue un pas important vers la transparence, mais son périmètre reste discuté. Les chiffres permettent d’éclairer les décisions des entreprises et de répondre à une partie des attentes des régulateurs, sans pour autant constituer une mesure exhaustive. Le paradoxe de Jevons s’impose : même si chaque requête devient plus efficiente, l’usage massif finit par accroître l’impact global. Pour les entreprises, le défi est double : intégrer ces indicateurs dans leurs bilans ESG et exiger des fournisseurs des méthodologies plus complètes et vérifiables.

L’enjeu dépasse le cas de Google. Les entreprises utilisatrices d’IA devront, dans les prochaines années, concilier adoption technologique et contraintes environnementales, en s’appuyant sur des standards de mesure robustes. L’étude publiée par Google ouvre la voie, mais elle appelle une réponse collective du secteur pour établir une véritable référence commune.