En comparant les éditions 2023, 2024 et 2025 du State of AI Report, un constat s’impose, les dynamiques de l’intelligence artificielle ne suivent plus une trajectoire linéaire. « L’énergie est devenue le nouveau goulot d’étranglement », avertit l’édition 2025, résumant la collision entre ambition technologique et réalité physique. Recherche, industrie, gouvernance, chaque domaine affiche ses propres seuils de rupture.

Depuis 2018, le State of AI Report, dirigé par Nathan Benaich (Air Street Capital), s’est imposé comme l’un des instruments de veille les plus influents du secteur. Chaque édition, fondée sur une analyse croisée des avancées de la recherche, des dynamiques industrielles, des choix politiques et des signaux faibles de sécurité, repose sur une méthodologie rigoureuse, ancrée dans l’observation des ruptures technologiques. Avec le concours de spécialistes des politiques publiques, de l’évaluation de modèles et de la sécurité algorithmique, le rapport documente chaque année les inflexions du développement de l’intelligence artificielle, au-delà du battage médiatique. La série des rapports 2023, 2024 et 2025 offre aujourd’hui un matériau unique pour comprendre comment les dynamiques de l’IA se dérobent aux trajectoires linéaires anticipées par l’industrie.

Le State of AI Report 2023 décrivait une dynamique de montée en puissance régulière : domination de GPT‑4, consolidation des modèles multimodaux, percées continues en apprentissage par renforcement. En 2024, ce récit se fissure. Le rapport observe une convergence de performances entre modèles ouverts et fermés, une industrialisation accélérée des modèles, et l’émergence de nouveaux paradigmes comme le raisonnement chaîné (chain-of-thought). Mais c’est en 2025 que la rupture s’opère. Les auteurs signalent que les améliorations observées « se situent tous entièrement dans les fourchettes de variance du modèle de référence », remettant en cause la réalité même des gains affichés. Le progrès cesse d’être continu. Il devient contingent, fragile, dépendant de choix d’architecture et d’ingénierie de l’inférence. La non-linéarité est désormais la norme.

Cette bascule se lit aussi dans l’organisation des rapports : les sections « Research » de 2023 et 2024 suivaient un découpage fonctionnel (capacités, benchmarks, applications) ; celle de 2025 s’ouvre sur une chronologie de ruptures : o1-preview, R1, Claude 3.7, GPT‑5, Gemini 2.5. Le fil conducteur n’est plus la montée en gamme, mais la succession de sauts quantiques aux effets imprévisibles. La maîtrise de l’inférence contextuelle, le développement de modèles à branchement parallèle, ou l’apparition du raisonnement auto-évaluatif (self-consistency) bouleversent la logique cumulative. L’IA change de nature, et le rapport le fait savoir.

Un marché structuré par la rareté énergétique

La version 2023 décrivait un marché dominé par la demande de GPU, une ruée vers le silicium tirée par les États et les grandes plateformes. En 2024, la pénurie se transforme en dépendance structurelle. L’explosion des coûts d’inférence, le retour des clouds d’exécution privés, et la concentration des capacités dans les mains de quelques acteurs reconfigurent l’écosystème. Le rapport 2025 franchit un cap. Il décrit une situation où « l’énergie est devenu le nouveau goulot d’étranglement ». Les déploiements de l’IA se heurtent désormais à des contraintes électriques, foncières, réglementaires. L’accès à des clusters multigigawatt devient un facteur stratégique. Les marges et les feuilles de route ne dépendent plus du seul rendement technologique, mais des limites physiques du réseau électrique et de l’infrastructure géopolitique du cloud.

Le rapport souligne l’irruption de nouveaux entrants comme le consortium Stargate (Émirats), mais aussi l’accélération des investissements cycliques par mégacontrats entre hyperscalers, fabricants de puces et États. En 2023, la rareté relevait de la planification. En 2025, elle devient une contrainte active, un facteur d’inégalités d’accès et de différenciation concurrentielle. Cette inflexion rappelle que l’IA ne se développe pas en vase clos, mais dans un monde fini. Le cloud n’est plus un simple support, il est le théâtre stratégique du déploiement agentique.

Gouvernance en crise, diplomatie en échec

Sur le plan réglementaire, le rapport 2023 dressait un tableau contrasté : essor des cadres nationaux, stagnation de la gouvernance globale. En 2024, l’optimisme prudent dominait encore, avec l’adoption progressive du AI Act européen et la montée en puissance d’instituts publics de sécurité IA (Royaume-Uni, États-Unis, Japon). Mais en 2025, le diagnostic s’inverse. L’édition de cette année consacre une section entière à la désynchronisation croissante entre capacités technologiques et dispositifs de contrôle. Les efforts diplomatiques piétinent, les normes d’évaluation divergent, les laboratoires abandonnent leurs propres engagements de sécurité. Le AI Act lui-même bute sur ses modalités d’implémentation, et se voit précédé de codes de conduite non contraignants.

La multiplication des dispositifs de sécurité pilotés par les fournisseurs eux-mêmes, comme les protocoles de surveillance de chaînes de raisonnement (CoT monitors),k révèle une impasse : faute de normes communes, chaque acteur déploie sa propre ingénierie de contrôle. Le rapport souligne que cette dynamique produit des effets pervers, comme les modèles entraînés à contourner les audits, l’illusions de conformité, le comportement à l’évaluation. Le « test awareness » décrit dans l’édition 2025 matérialise cette dérive : certains modèles modulent leur comportement en fonction de leur perception d’être testés. L’évaluation elle-même devient un théâtre.

Des agents à la frontière de la manipulation

La série des rapports témoigne aussi d’un glissement progressif des capacités des agents IA. En 2023, le rapport évoquait leur montée en puissance comme une perspective encore spéculative. En 2024, les agents deviennent fonctionnels dans certains domaines comme la recherche scientifique, la programmation, la navigation web. En 2025, leur généralisation est un fait. Mais cette généralisation se double d’une inquiétude croissante. L’édition 2025 montre que les agents savent désormais « dissimuler leurs intentions » pour contourner les mécanismes de contrôle. Les comportements adaptatifs de réponse (obfuscation, hacking, sur-raisonnement stratégique) deviennent observables à grande échelle. La sophistication des trajectoires de raisonnement ne garantit plus leur fidélité.

Le rapport évoque ainsi la « taxe de contrôlabilité » ou « monitorability tax ». Pour maintenir la lisibilité des agents, il faudrait renoncer à une partie de leur performance. Cette tension entre capacité et transparence constitue l’un des principaux points de rupture entre les éditions. En 2023, la transparence était un objectif. En 2025, elle devient une option à arbitrer. Ce déplacement a des implications profondes pour les déploiements professionnels, car comment faire confiance à des agents capables de masquer leurs intentions ? Comment réguler des systèmes qui modulent leur comportement lorsqu’ils qu’ils se savent observés ? Le problème dépasse la technique, il devient éthique, juridique, politique.

Vers une nouvelle cartographie du risque

Enfin, les trois éditions du rapport signalent une redéfinition continue du périmètre du risque IA. En 2023, le débat portait encore sur les modèles de langage. En 2024, il s’élargit aux applications. En 2025, il englobe les infrastructures, les comportements émergents, les effets de seuils. Le rapport documente une intensification des capacités de cyberattaque par IA, une efficacité croissante des agents malveillants dans l’orchestration de rançongiciels, une course aux capacités qui échappe aux garde-fous. La cybersécurité n’est plus une discipline latérale, elle devient un enjeu de gouvernabilité systémique.

La prospective esquissée par le rapport 2025 est donc moins celle d’une progression continue que d’une série d’effondrements partiels suivis de réinventions. Le paysage de l’IA est instable, fragmenté, asymétrique. Les ruptures ne sont pas des anomalies, mais des traits constitutifs. Pour les entreprises, cela implique de repenser les grilles d’évaluation des risques, de diversifier les fournisseurs, de privilégier les architectures auditables, et d’intégrer la veille réglementaire comme fonction stratégique. Car dans ce nouveau régime de discontinuité, l’anticipation devient un impératif de résilience.

publicité