La montée en puissance de l’intelligence artificielle et des modèles de consommation à l’usage oblige les DSI à repenser en profondeur l’économie de la technologie. McKinsey identifie quatre leviers de transformation, dont la pertinence doit être analysée à l’aune des contraintes européennes et des incertitudes financières liées à l’IA générale.
Depuis plus de deux décennies, les entreprises investissent massivement dans leur transformation numérique. Cloud, plateformes, architectures distribuées, automatisation : la dépense technologique n’a cessé de croître, portée par la nécessité d’accélérer les flux, de sécuriser les opérations et d’outiller les métiers. Mais à mesure que l’intelligence artificielle s’impose comme la nouvelle couche d’abstraction du système d’information, une question centrale refait surface : que produit réellement l’IT en termes de valeur ?
Dans le même temps, les promesses d’accélération portées par l’intelligence artificielle générative viennent s’ajouter à une dette technique souvent sous-estimée. Résultat : les dépenses IT progressent fortement, 8 % par an en moyenne aux États-Unis depuis 2022, sans produire de gains de productivité équivalents. Selon l’analyse de McKinsey (The New Economics of Enterprise Technology in an AI World, mai 2025), la croissance de la productivité n’a pas dépassé 2 % sur la même période. Ce déséquilibre alimente une crise de légitimité des investissements technologiques au sein des comités exécutifs.
Face à cette situation, McKinsey identifie quatre leviers capables de restaurer un lien opérationnel et économique entre technologie, performance et conformité : la mesure unitaire des consommations, l’extension du modèle produit, l’investissement à grande échelle et la refonte du modèle de talents. Ces leviers, conçus dans un cadre anglo-saxon, doivent aujourd’hui être confrontés aux contraintes réglementaires européennes et aux réalités d’architecture des SI français.
Un pilotage unitaire des consommations
La bascule vers des environnements cloud et as-a-service a inversé la structure des budgets informatiques : 79 % des dépenses IT relèvent désormais de l’Opex, selon Gartner. Cette mutation fragilise le lien entre les ressources mobilisées et la valeur réellement créée. McKinsey plaide pour une approche en « consommation mesurée », où chaque ressource — jeton IA, appel d’API, service de chiffrement — est tracée, valorisée et imputée à son utilisateur ou à son domaine fonctionnel. Des pratiques telles que le FinOps en fournissent l’ossature, mais le modèle reste à généraliser hors du périmètre cloud.
En France, l’application de cette logique reste embryonnaire. Pourtant, elle constitue un socle favorable à l’alignement avec les exigences du RGPD, de l’IA Act et des dispositifs de traçabilité des risques liés à l’automatisation. La combinaison de métriques unifiées, de journalisation systématique et d’attribution automatique ouvre la voie à des architectures « auto-mesurantes » capables de produire, en continu, une évaluation du coût marginal et du poids de la dette technique. Certaines DSI y voient un préalable à l’adoption raisonnée d’agents IA dans l’exploitation.
Étendre la logique produit
Depuis plusieurs années, les équipes IT ont entamé une mue vers un modèle produit : des services gérés comme des actifs, confiés à des équipes autonomes responsables du cycle de vie complet. McKinsey recommande désormais d’étendre cette logique à l’ensemble des fonctions métiers, dans une perspective d’alignement global. Les entreprises les plus matures sur ce modèle affichent une marge opérationnelle supérieure de 16 %, grâce à une meilleure gestion des interdépendances, des coûts indirects et des objectifs de performance.
Les contraintes européennes rendent ce modèle d’autant plus pertinent. Les directives NIS2 et DORA, tout comme le Cyber Resilience Act, imposent une responsabilisation par domaine et une traçabilité systématique des décisions techniques. En inscrivant les exigences de sécurité, de résilience et de conformité dès la conception, la logique produit fournit un cadre naturel pour répondre à ces obligations. Elle devient également un outil de collaboration transversale entre équipes IT, métiers, juridiques et RSSI.
Passer de l’expérimentation à la valeur à grande échelle
L’un des constats les plus frappants de l’étude concerne l’échec récurrent des pilotes isolés : 80 % des reprises de trajectoire numérique passent par une redéfinition du périmètre pour viser une échelle suffisante. Cibler un domaine fonctionnel complet — approvisionnement, support client, gestion des ressources — permet d’agréger des bénéfices structurants : réduction des coûts, fiabilité accrue, conformité native. À l’inverse, les initiatives dispersées sans logique d’extension pérennisent la dette technique et dégradent le bilan de valeur.
En France, cette exigence de cohérence entre échelle, standardisation et documentation rejoint les principes des feuilles de route IA prônées par le Cigref et les référentiels de transformation du Secrétariat général pour l’investissement. Les architectures de données réutilisables, la mutualisation des pipelines d’intégration, l’orchestration des flux à l’échelle d’un domaine sont désormais les briques critiques de la rentabilité numérique. L’ingénierie de la valeur devient une compétence clef du binôme DSI/DAF.
Réorganiser les compétences autour des agents IA
L’accélération induite par l’IA agentique bouleverse la structure des métiers technologiques. Selon McKinsey, les premiers déploiements réduisent de 40 à 50 % les délais de modernisation, et de 40 % la dette technique. Ce saut de productivité oblige les entreprises à reconfigurer leurs référentiels de compétences : les rôles classiques (administrateurs, architectes, développeurs) évoluent vers des fonctions hybrides, capables de collaborer avec des agents logiciels, de superviser des modèles d’IA, de modéliser les dettes d’architecture.
En France, ces changements se heurtent à l’inertie des systèmes RH classiques : fiches de poste figées, parcours de formation linéaires, cloisonnement des compétences. Le plan « Osez l’IA » tente de poser les jalons d’un modèle plus souple, combinant l’expertise technologique, la gouvernance algorithmique et la conformité réglementaire. Dans un contexte d’IA Act et de supervision obligatoire des systèmes à haut risque, ce nouveau modèle de talents devient une condition de viabilité opérationnelle, au-delà du seul enjeu de recrutement.
Quand Sam Altman refroidit les espoirs de ROI
La tension entre spéculation technologique et rigueur économique trouve un écho inattendu chez Sam Altman lui-même. Le directeur général d’OpenAI a récemment averti ses partenaires financiers : dans l’hypothèse d’une IA générale (AGI), les investisseurs pourraient ne voir « aucun retour » sur leur mise. En d’autres termes, l’industrialisation de l’IA pourrait ne pas suivre les logiques classiques de valorisation actionnariale. Cette déclaration résonne comme un rappel à l’ordre : sans traçabilité, sans métrique de productivité et sans architecture gouvernable, l’IA reste une promesse, pas un actif rentable.
Pour les DSI français, la nouvelle économie de l’IT ne consiste plus à arbitrer entre innovation et réduction des coûts. Il s’agit de construire des environnements techniques mesurables, extensibles, sécurisés et conformes, capables de supporter durablement les agents IA et les charges cognitives de demain. Une transformation autant économique que structurelle, qui engage la gouvernance, la comptabilité analytique, les architectures, et le capital humain.