Entre attente irréaliste envers les collaborateurs, manque d’investissements RH et gouvernance défaillante, seuls 10 % des entreprises peuvent être considérées comme « future-ready » au regard de l’IA. Mais une autre dimension, plus silencieuse, reste largement ignorée : notre capacité à penser et à formuler clairement ce que nous attendons de l’IA.

La transition vers l’intelligence artificielle ne se résume pas à un saut technologique. Elle engage l’organisation dans son entier. Pourtant, selon l’étude « Leading in the Age of AI », publiée par The Adecco Group, ce saut reste largement désorganisé. Réalisée auprès de 2 000 dirigeants C-level dans 13 pays, cette enquête pointe un désalignement préoccupant entre stratégies technologiques, vision RH et gouvernance décisionnelle.

Parmi les grandes tendances anticipées d’ici à 2030, les dirigeants citent massivement la transformation numérique, l’IA générative et l’IA classique. Pourtant, ils relèguent paradoxalement la pénurie de compétences en queue de classement des préoccupations majeures. Une posture jugée contre-productive par les auteurs du rapport, qui dénoncent un « gridlock des compétences », autrement dit une paralysie stratégique due au manque d’investissement simultané dans les talents et les technologies.

Ce décalage se manifeste aussi au sein des comités de direction. Plus de la moitié (53 %) des PDG interrogés estiment que leur équipe dirigeante peine à s’aligner rapidement sur les priorités et les plans d’action, freinant la transformation. En matière de stratégie RH, chaque fonction C-level pointe un frein différent : les DAF évoquent des capacités RH limitées, les DRH un déficit de compétences, les directeurs des opérations un manque d’infrastructure de données, et les PDG… l’absence de retour sur investissement.

Des attentes irréalistes vis-à-vis des collaborateurs

Autre paradoxe : alors que les directions doutent de leur propre niveau de préparation, elles projettent de fortes attentes sur leurs équipes. Pas moins de 60 % des dirigeants estiment que les employés doivent s’adapter par eux-mêmes à l’impact de l’IA sur leur poste. Pourtant, seuls 25 % des salariés déclarent avoir reçu une formation sur l’usage de ces technologies dans leur travail. Un tiers des entreprises ne dispose d’aucune politique interne sur l’IA et laisse les collaborateurs livrés à eux-mêmes.

Le rapport souligne qu’une approche plus éthique et structurée change la donne : parmi les entreprises ayant mis en place un cadre de gouvernance de l’IA, 70 % constatent une amélioration significative de leur stratégie de gestion des talents, contre seulement 47 % chez les autres.

Le modèle « future-ready » : encore marginal, mais inspirant

Seulement 10 % des entreprises répondent aux critères d’organisation « future-ready » définis par Adecco. Ces structures se distinguent par leur capacité à intégrer l’IA à leur stratégie RH ; à piloter l’évolution des compétences sur la base d’un référentiel structuré ; à former et responsabiliser leurs leaders sur les enjeux IA ; et à organiser la mobilité interne et la montée en compétence de manière proactive.

Sur un plan sectoriel, ces entreprises pionnières se concentrent dans les domaines de la défense, de la technologie et des sciences de la vie. Géographiquement, les Pays-Bas (19 %) et l’Espagne (16 %) présentent les plus fortes proportions de structures dites « future-ready ». En France, elles ne représentent que 11 % de l’échantillon.

Autre constat préoccupant : seuls 33 % des dirigeants déclarent investir dans des systèmes d’analyse des compétences pour piloter efficacement la montée en compétences. Et seulement un quart affirme avoir réalisé des progrès significatifs sur ce sujet au cours des 12 derniers mois. Pourtant, les organisations les plus avancées sont aussi celles qui utilisent les outils numériques pour cartographier les besoins, identifier les écarts et déclencher des actions ciblées, aussi bien pour la formation interne que le recrutement.

Le travail avec l’IA est une compétence cognitive

L’enseignement principal de cette étude réside dans un changement de paradigme : la technologie seule ne suffit pas à garantir la réussite d’une transformation. Le véritable levier, selon Adecco, réside dans une articulation claire entre vision stratégique, gouvernance des données et développement humain. Restera alors à régler un problème fondamental à résoudre : la capacité à collaborer efficacement avec une IA ne dépend pas seulement de l’existence de cadres organisationnels, mais avant tout d’un travail cognitif individuel mal adressé à ce jour.

En effet, il s’agit de repositionner la littératie en IA non pas comme un enjeu technique ou éthique, mais comme une compétence cognitive et relationnelle de haut niveau, essentielle pour les professionnels de demain. Collaborer avec une IA requiert une intention explicite, stable et bien définie. Or, ce travail de clarification est souvent escamoté ou considéré comme allant de soi. En réalité, formuler une demande claire suppose une réelle discipline mentale : il faut poser un objectif, en cerner les contours, anticiper les modalités d’évaluation du résultat attendu, et parfois déconstruire ses propres automatismes. Beaucoup d’utilisateurs ne prennent pas ce temps — ou ne sont pas formés à le faire.

Penser l’interaction comme un processus d’affinage

C’est particulièrement frappant dans les interactions avec des IA génératives : une large part des frustrations exprimées (« ça ne répond pas à ce que je veux ») tiennent non pas à une limite du modèle, mais à un flou stratégique ou conceptuel chez l’utilisateur.

L’une des erreurs les plus courantes — et les plus contre-productives — dans les usages professionnels de l’intelligence artificielle générative est de croire qu’une invite bien formulée suffit à obtenir une réponse juste et exploitable. Cette croyance, tenace, repose sur une analogie trompeuse : celle de l’IA conçue comme un moteur de recherche, un assistant obéissant, ou une API magique à laquelle on enverrait une requête complète pour en extraire une vérité toute faite. Or, cette logique de « commande unique » passe à côté de la véritable nature de la collaboration avec une IA : un processus itératif, conversationnel, contextuel.

La vraie maîtrise ne consiste donc pas à formuler d’emblée l’invite parfaite, mais à savoir orchestrer une séquence d’interactions vers un objectif. C’est une compétence à part entière, une « intelligence dialogique assistée par IA ». En somme, c’est un processus d’affinage. Car ce qui détermine la valeur d’un usage de l’IA, ce n’est pas la première consigne, mais la dynamique relationnelle qui s’installe ensuite.