Le dernier rapport d’Anthropic ne se contente pas de quantifier l’usage de l’IA. Il documente une bascule dans la manière dont les individus et les organisations interagissent avec les agents conversationnels. Une transformation silencieuse se joue, où délégation, acculturation et automatisation redéfinissent l’appropriation des outils cognitifs.
Les ruptures technologiques ne se diffusent jamais uniformément : l’électricité, l’informatique, l’internet ont mis des années, voire des décennies, à irriguer l’ensemble d’une population. L’IA semble suivre une trajectoire comparable dans la trajectoire, mais largement inédite dans sa vitesse de diffusion. Cela crée des ruptures dans la productivité et dans le paysage concurrentiel, locales comme internationales. Ainsi, l’adoption de l’intelligence artificielle, mesurée par Anthropic dans son baromètre de septembre 2025, va bien au-delà des questions de diffusion. L’éditeur de LLM est bien placé pour scruter les usages et leur évolution.
Une adoption qui va bien au-delà de l’intégration d’un outil de plus à la boîte à outils numérique. Celle-ci touche à l’intimité des pratiques professionnelles, aux gestes cognitifs du quotidien, et à la façon dont les individus, selon leur culture, leur environnement ou leur secteur, choisissent ou non de faire confiance à une machine pour penser à leur place.C’est cette perspective qu’il faut lire entre les lignes du rapport. Moins une photographie qu’un révélateur de tendances lourdes, qui touchent au cœur des dynamiques de transformation numérique.
La manière d’interagir avec l’IA a évolué
L’un des faits saillants du rapport concerne l’évolution du mode d’interaction sur Claude.ai. Alors que les premières vagues d’adoption se caractérisaient surtout par un usage collaboratif (suggestions, corrections, reformulations), les chercheurs d’Anthropic observent aujourd’hui une montée marquée des requêtes de type « directive » : l’utilisateur formule un objectif clair, attend une exécution complète, et n’intervient plus en supervision. Ces requêtes représentent désormais 39 % des interactions, contre 27 % quelques mois plus tôt.
Ce glissement est révélateur. Il ne s’agit plus de « travailler avec » un agent conversationnel, mais de lui confier des tâches entières : rédaction de courriels, rédaction juridique, génération de code, synthèse de documentation. L’utilisateur sort du modèle outil pour entrer dans une logique d’opérateur.
Cette mutation pose une question centrale : à quel moment le recours à l’IA cesse d’être un levier de productivité pour devenir une externalisation cognitive ? La réponse variera selon les métiers et les contextes, mais le seuil comportemental semble franchi pour une part croissante d’utilisateurs.
Des formes d’adoption très différenciées selon les populations
La granularité géographique du rapport révèle une autre dimension : la diversité des comportements d’usage selon les pays. Ce n’est pas seulement la fréquence d’utilisation qui varie, mais la nature même des tâches confiées à l’IA. Dans les économies à haut revenu, les usages sont plus distribués entre éducation, production de contenu, analyse et aide à la décision. L’IA y est perçue comme un prolongement cognitif, avec des usages de plus en plus ancrés dans les pratiques professionnelles qualifiées.
À l’inverse, dans des pays comme l’Inde, l’Indonésie ou le Nigeria, malgré la forte population qui utilise le numérique, les usages sont plus techniques, centrés sur le développement logiciel, avec peu de diversité. L’IA est utilisée comme un accélérateur métier, mais encore peu intégrée aux tâches de fond nécessitant du contexte ou du jugement. Cette répartition n’est pas anodine. Elle reflète des écarts en infrastructures numériques, en niveau de formation, mais aussi en maturité culturelle face à l’agent conversationnel. Autrement dit : ce n’est pas seulement l’accès qui compte, c’est la capacité à insérer l’IA dans une chaîne de valeur productive cohérente.
Entre automatisation intégrée et limites du contexte en entreprise
Le rapport examine aussi les usages côté entreprises, via l’analyse des appels API première partie. Ces données montrent une adoption très orientée vers l’automatisation, 77 % des appels déclenchent une exécution autonome, dans des tâches bien délimitées : traitement administratif, analyse, génération de code ou de rapports.
Mais cette automatisation demeure contrainte. Les cas d’usage réellement avancés nécessitent un haut niveau de contexte métier : bases de connaissances structurées, chaînes d’appel, segmentation des sources. Or, très peu d’organisations disposent encore de telles architectures. Le frein n’est donc pas technologique, mais organisationnel.
Autre point remarquable : les tâches les plus utilisées sont aussi les plus coûteuses en termes d’appel API. Cela signifie que les entreprises, lorsqu’elles identifient une opportunité métier claire, acceptent un coût supérieur si le retour sur efficacité est immédiat. L’arbitrage ne se fait pas sur la dépense brute, mais sur la fluidité de l’intégration.
Typologie implicite des comportements face à l’IA
Ce que le rapport suggère en creux, c’est l’existence d’une typologie comportementale. Les utilisateurs, selon leur rôle, leur environnement ou leur appétence technologique, se répartissent en quatre grandes postures :
- les superviseurs, qui utilisent l’IA comme source d’inspiration ou d’aide partielle ;
- les délégateurs, qui confient des tâches entières à l’agent sans validation humaine ;
- les explorateurs, qui expérimentent les limites du modèle en dehors de la production ;
- les intégrateurs, qui l’insèrent dans des flux opérationnels avec gouvernance des données.
Cette typologie peut évoluer avec l’acculturation, mais elle constitue déjà un indicateur de maturité : une organisation capable d’identifier ces profils et de les faire évoluer bénéficie d’un avantage décisif en matière de productivité et de transformation.
Vers une gouvernance des usages et non des seuls outils
L’adoption de l’IA ne peut être mesurée uniquement à l’aune du taux d’usage ou du nombre de licences. Elle doit intégrer la manière dont les agents sont utilisés, compris, encadrés, et parfois contournés. Car ce sont ces usages concrets, distribués dans les métiers, qui produisent la valeur ou le risque.
Ce rapport d’Anthropic ouvre ainsi une perspective à l’intérêt inestimable pour les encadrants et la RH : celle d’une gouvernance centrée non sur les outils, mais sur les pratiques. Il s’agit moins de réguler l’IA que de réguler nos interactions avec l’IA. C’est là que réside le véritable levier de souveraineté, de compétitivité et de résilience des organisations face à cette mutation cognitive sans précédent.