Les lacunes de gouvernance et les connaissances limitées des cadres constituent un frein majeur à l’adoption efficace de l’intelligence artificielle agentique, selon une étude qualitative récente publiée sur arXiv. Elle révèle que l’absence de cadres responsables, conjuguée à une faible implication des parties prenantes, entrave l’adaptation et compromet non seulement la mise en œuvre de pratiques d’IA responsable, mais aussi la capacité à exploiter la valeur potentielle de ces technologies.

Dans un contexte où les systèmes d’IA agentique, dotés d’autonomie, de planification proactive et d’apprentissage continu, montent rapidement en sophistication, la gouvernance organisationnelle devient un élément central pour garantir leur alignement avec les valeurs et les objectifs métiers. L’étude menée par Lee Ackerman adopte une approche interprétative qualitative pour analyser les perceptions de l’IA par les professionnels. Elle met en évidence plusieurs points de blocage liés à la gouvernance et aux connaissances internes.

Bien que l’étude mentionne le ROI dans son titre, elle ne privilégie pas cette dimension comme principal vecteur d’analyse. L’auteur note plutôt que la complexité des systèmes agentiques et des cadres d’IA responsable, combinée à la nouveauté de ces technologies, crée des défis d’adaptation organisationnelle qui nuisent à la mise en œuvre efficace des cadres et, par extension, à la concrétisation des bénéfices mesurables attendus.

Un manque de clarté dans les responsabilités

Un des enseignements centraux de l’étude est l’existence de lacunes importantes dans la compréhension des cadres responsables d’IA au sein des entreprises. Les répondants identifient un manque de clarté quant aux rôles et responsabilités associés à la gouvernance de l’IA agentique, ce qui génère des divergences dans les pratiques et les interprétations organisationnelles. Cette absence de définition précise entraîne des difficultés à articuler des processus décisionnels efficaces, notamment pour encadrer les mécanismes d’imputabilité, de transparence et de gestion des risques.

Par ailleurs, la recherche met en avant des lacunes de connaissances techniques et normatives chez les cadres responsables, qui peinent à relier les cadres théoriques d’IA responsable — tels que les principes de l’Organisation de coopération et de développement économiques (OCDE) ou les lignes directrices de gestion des risques du National Institute of Standards and Technology (NIST) — avec les besoins pratiques de leur organisation. Cette faiblesse informationnelle limite la capacité des cadres à anticiper et à structurer des politiques internes robustes.

Focalisation excessive sur le contrôle

L’étude révèle aussi une tendance marquée des organisations à privilégier des mécanismes de contrôle interne — telles que des vérifications techniques, des audits ponctuels et une surveillance accrue — plutôt qu’à développer des structures de gouvernance intégrées. Cette focalisation technique renforce les capacités de supervision immédiate, mais ne favorise pas l’instauration d’une culture organisationnelle partagée autour de l’IA responsable.

Cette approche centrée sur le contrôle au détriment de l’engagement des métiers et des fonctions transverses (juridique, conformité, éthique) limite l’intégration de perspectives diversifiées et réduit la capacité des organisations à anticiper les impacts sociétaux, réglementaires et éthiques de l’IA agentique. L’engagement des parties prenantes, pourtant essentiel à une gouvernance responsable et durable, reste insuffisant dans les pratiques observées.

Le manque de connaissances freine l’adoption

Les lacunes de gouvernance et de connaissances identifiées freinent l’adoption efficace de l’IA agentique à plusieurs niveaux. D’une part, elles allongent les délais de mise en œuvre des initiatives, car les équipes doivent d’abord clarifier les responsabilités et acquérir des compétences spécifiques avant de déployer des solutions. D’autre part, elles exposent les organisations à des risques accrus en matière de conformité réglementaire, d’éthique et de sécurité, ces dimensions étant insuffisamment intégrées dans les stratégies actuelles.

En l’absence de structures de gouvernance adaptées, la capacité à aligner les projets d’IA avec les objectifs stratégiques et opérationnels de l’entreprise reste limitée, ce qui peut entraver les efforts de transformation numérique et réduire la confiance des parties prenantes internes et externes.

Vers une gouvernance améliorée des systèmes agentiques

Pour répondre à ces défis, l’étude suggère plusieurs axes d’amélioration. La première consiste à renforcer la formation et l’éducation des cadres responsables, afin de réduire les lacunes de connaissances sur les cadres normatifs et les bonnes pratiques de gouvernance. Cela inclut une sensibilisation aux principes éthiques, à la gestion des risques et aux standards internationaux applicables à l’IA.

La seconde priorité est d’élargir l’engagement des parties prenantes au sein des processus de conception et de déploiement des politiques d’IA responsable. En intégrant les perspectives des métiers, de la conformité, de la sécurité et des fonctions juridiques, les organisations peuvent mieux anticiper les enjeux globaux liés à l’IA agentique et construire des cadres de gouvernance plus inclusifs et cohérents.

Enfin, l’étude appelle à un équilibre plus stratégique entre les mécanismes de contrôle technique et les structures de gouvernance organisationnelle. Une telle démarche permettrait d’articuler des pratiques robustes de supervision avec une culture de responsabilité partagée, améliorant ainsi la résilience des organisations face aux risques émergents de l’IA agentique.

Cette recherche qualitative montre que les principaux obstacles à l’adoption efficace de l’IA agentique ne sont pas uniquement techniques, mais résident dans des déficits de gouvernance et de compréhension parmi les cadres dirigeants. Aborder ces gaps est essentiel pour structurer des stratégies d’adoption durable, favoriser une gouvernance responsable et, ultimement, permettre aux organisations de saisir pleinement le potentiel transformateur de ces technologies.

publicité