Le HAI AI Index 2025 montre que l’intelligence artificielle renforce les écarts de performance entre les collaborateurs les plus qualifiés et les autres. Face à ce mécanisme d’amplification, les entreprises sont contraintes de repenser l’inclusion numérique, l’ingénierie des compétences et la gouvernance des usages IA.
Basé sur des centaines de sources publiques et privées, l’AI Index 2025 du Stanford HAI (Human-centered AI) s’impose comme la référence mondiale en matière de suivi de l’impact de l’IA sur l’économie, le travail, l’investissement et la recherche. Cette édition confirme un basculement, car l’IA n’est plus cantonnée à des expérimentations, elle transforme à grande échelle les organisations et leurs performances. Mais cette transformation est profondément inégale. Le rapport révèle un écart croissant entre ceux qui maîtrisent l’IA et ceux qui la subissent ou l’évitent. Loin de niveler les performances, l’IA agit comme un facteur d’amplification des différences préexistantes de compétences.
Le cœur du problème n’est plus l’adoption technologique, mais l’appropriation par les individus. Et cette appropriation se révèle très inégalement distribuée. L’étude met en évidence un clivage fort entre les travailleurs capables de tirer parti des outils d’IA et les autres. Ce phénomène oblige les directions à réinterroger leurs pratiques d’organisation, de formation et de gouvernance. Car la promesse de productivité ne vaut que si elle repose sur un socle collectif de compétences partagées.
Des gains de productivité massifs, mais réservés aux plus compétents
Les effets de l’IA sur la productivité ne sont pas linéaires. Selon plusieurs expériences contrôlées relayées dans le rapport, les utilisateurs les plus qualifiés peuvent voir leurs performances augmenter de 30 à 45 %, tandis que les moins expérimentés ne gagnent que 10 à 15 %, voire stagnent. L’IA agit comme un multiplicateur d’efficacité pour les experts, mais reste peu utile, voire déstabilisante, pour les novices. L’étude de Noy & Zhang (2024) sur l’usage de ChatGPT dans des tâches rédactionnelles confirme cette logique. Les étudiants les plus avancés produisent des résultats de meilleure qualité en moins de temps, tandis que les débutants utilisent l’IA de façon moins stratégique.
Un effet similaire est observé dans les centres d’appel, où les agents les plus performants exploitent l’IA pour automatiser les routines et se concentrer sur la relation client, tandis que d’autres peinent à suivre les recommandations en temps réel. Cette hétérogénéité fragilise la promesse d’un gain de productivité global. Elle fait émerger un risque structurel, celui de créer une double classe de collaborateurs, entre utilisateurs IA augmentés et exécutants marginalisés. À mesure que les outils se généralisent, c’est moins la technologie elle-même que la capacité à l’utiliser qui devient le facteur différenciant.
Une fracture cognitive plus qu’une fracture numérique
Le clivage ne tient pas à l’accès aux outils, mais à la capacité à s’en emparer. Dans un environnement où les agents IA deviennent des copilotes quotidiens, ce sont les réflexes cognitifs, l’autonomie intellectuelle et la culture numérique qui conditionnent la valeur ajoutée de l’utilisateur. Le rapport met en garde contre une approche purement infrastructurelle de la transformation. En effet, équiper sans accompagner produit mécaniquement de l’exclusion. Cette fracture cognitive affecte aussi bien les salariés peu qualifiés que les experts d’un domaine qui ne maîtrisent pas les codes des interfaces IA modernes.
Le HAI AI Index souligne ainsi l’importance de la littératie IA (AI literacy), qui ne se réduit pas à la capacité à rédiger une requête. Il s’agit d’un ensemble de compétences transversales, comme la compréhension des limites des modèles, l’esprit critique face aux suggestions générées, la capacité à ajuster les réponses, et aussi à prendre le relais si nécessaire. Ce type de compétence ne s’acquiert ni par simple usage ni par formation descendante. Il suppose un apprentissage par la pratique, guidé, évalué et reconnu.
Une redistribution invisible des rôles dans l’entreprise
Dans les organisations, cette fracture produit une recomposition silencieuse des rôles. Ceux qui savent dialoguer efficacement avec les IA prennent l’ascendant dans les collectifs de travail. Ils réduisent leur dépendance aux autres, accélèrent leurs livrables et deviennent des points d’appui pour leurs équipes. Inversement, ceux qui peinent à intégrer les outils dans leurs routines deviennent des goulets d’étranglement ou sont contournés. Le rapport cite plusieurs exemples de « shadow leadership » émergents, où des profils intermédiaires, sans statut hiérarchique, acquièrent de l’influence par leur maîtrise des agents IA et des chaînes automatisées.
Cette dynamique redistribue les pouvoirs dans l’entreprise, parfois à l’insu du management. Elle fragilise les logiques traditionnelles d’organisation, notamment dans les fonctions transverses. Elle pose aussi une question stratégique : que mesure-t-on réellement lorsqu’on parle de productivité individuelle ou d’objectifs collectifs ? L’IA rend visibles certaines compétences, mais en dissimule d’autres. Elle favorise l’hyperperformance isolée, mais peut déstabiliser les flux collaboratifs. Sans régulation interne, elle peut conduire à des effets de halo qui biaisent l’évaluation du travail réel.
La gouvernance des compétences face à l’amplification
Face à ce constat, le rapport appelle à une refonte des politiques de compétences. Il ne suffit plus d’identifier les besoins métiers : il faut comprendre les mécanismes d’amplification. L’IA agit comme un révélateur des asymétries internes. Elle oblige les responsables RH et les DSI à coopérer pour piloter les parcours de montée en compétences, suivre les usages, détecter les décrochages. Plusieurs entreprises citées dans le rapport ont mis en place des systèmes de pair learning, des laboratoires d’usage, des indicateurs de maturité IA par équipe. Ces dispositifs visent à socialiser l’usage de l’IA, à en faire un facteur d’émancipation, non de sélection.
Une autre piste évoquée est la reconnaissance explicite des compétences IA dans les référentiels métiers. Plutôt que de créer de nouveaux postes, certaines organisations préfèrent élargir les compétences attendues, intégrer des modules de feedback IA dans les entretiens annuels, ou introduire des microcertifications d’usage. Le message est clair : il ne s’agit plus de savoir si l’IA transforme les métiers, mais de garantir que cette transformation reste maîtrisable, équitable et productive à l’échelle collective.
Vers une politique des usages, plus qu’une stratégie technologique
L’AI Index 2025 révèle une évolution des attentes, parce que les entreprises ne se contentent plus d’intégrer des outils IA, elles cherchent à en maximiser les effets au sein d’un corps social. Cela suppose de sortir d’une logique top-down pour entrer dans une politique des usages, ancrée dans les pratiques concrètes, les écarts observés, les apprentissages itératifs. L’enjeu n’est plus d’adopter l’IA, mais d’en faire un vecteur d’intelligence collective. Et cela passe par une nouvelle gouvernance, attentive aux signaux faibles, inclusive dans les parcours, cohérente dans les règles d’usage.
Dans les mois à venir, cette approche sera déterminante pour aligner les promesses de l’IA avec les impératifs d’efficacité et de cohésion. Une IA utile n’est pas seulement une IA performante. C’est une IA dont l’usage est compris, partagé et intégré par tous ceux qui y sont confrontés au quotidien. L’entreprise n’a pas seulement besoin de copilotes IA, elle a besoin de pilotes humains capables de naviguer ensemble dans ce nouvel environnement cognitif.














































