Massivement adoptée dans les entreprises comme dans la sphère personnelle, l’IA n’emporte pas pour autant l’adhésion. Une étude mondiale par KPMG et l’université de Melbourne, révèle que la défiance progresse dans les économies avancées, tandis que les pays émergents prennent de l’avance. Gouvernance, formation, régulation : les fondations de la confiance restent à bâtir.

Après quelques hésitations provoquées par la méfiance et la stupéfaction, l’intelligence artificielle est désormais omniprésente, l’étude mondiale publiée par KPMG et l’université de Melbourne révèle un paradoxe de plus en plus marquant : jamais l’IA n’a été autant utilisée, mais jamais elle n’a suscité autant de défiance. Réalisée auprès de 48 340 personnes dans 47 pays, cette enquête d’envergure internationale établit un état des lieux aussi précis qu’inquiétant de la perception, de la compréhension et de l’acceptabilité sociale de l’IA, qu’elle soit utilisée dans les entreprises, à l’université ou dans la vie quotidienne.

L’étude met en évidence une fracture croissante entre la rapidité de l’adoption technologique et la lenteur des dispositifs de régulation, de formation et de gouvernance, exposant les organisations à des risques structurels majeurs. Dans les entreprises, l’IA est déjà massivement déployée. Plus de 70 % des salariés déclarent l’utiliser régulièrement dans leur activité professionnelle, souvent de manière spontanée, sans encadrement formel. Les outils de génération de texte, d’image ou d’analyse prédictive se sont imposés en quelques mois comme des auxiliaires de travail courants. Mais cette banalisation masque une réalité plus problématique : dans la majorité des cas, les collaborateurs n’ont reçu ni consignes précises, ni formation spécifique.

En France 57 % des salariés disent dissimuler l’usage de l’IA

L’étude montre que plus d’un salarié sur deux dans le monde reconnaît ne pas vérifier les résultats produits par l’IA avant de les utiliser, et que les comportements de contournement des règles internes sont fréquents. Beaucoup déclarent d’ailleurs présenter comme personnels des livrables générés par une IA. En France, cette tendance est particulièrement marquée : 57 % des salariés interrogés disent dissimuler l’usage de l’IA à leur hiérarchie, et 45 % admettent s’en remettre aux résultats d’un outil génératif sans en vérifier l’exactitude. Aussi, en l’absence d’un cadre organisationnel clair, ces pratiques traduisent moins une désinvolture individuelle qu’un vide organisationnel : en l’absence de cadre explicite, de consignes claires ou de formation, les salariés recourent à l’IA de manière implicite ou dissimulée, en décalage avec les exigences de transparence et de qualité qui devraient prévaloir dans un contexte professionnel.

Ce décalage est d’autant plus préoccupant que la compréhension de l’IA reste faible dans une large partie de la population. À l’échelle mondiale, seuls 41 % des répondants estiment savoir quand une IA est utilisée, et à peine plus d’un tiers pensent avoir les compétences nécessaires pour l’utiliser de manière appropriée. Là encore, la France fait figure de parent pauvre de la littératie numérique : moins de 40 % des Français disent avoir reçu une quelconque formation, et près de la moitié reconnaît ne pas comprendre les principes de fonctionnement de l’IA, ni en identifier les usages. Cette asymétrie entre adoption technologique et culture numérique contribue à renforcer un climat de défiance généralisé.

Le manque de lisibilité contribue à alimenter la défiance

Malgré son omniprésence dans les discours et la généralisation de son usage, l’IA reste un « machin » inapprivoisé. La confiance dans l’IA est en recul dans la plupart des pays industrialisés. Si 57 % des répondants à l’échelle mondiale se disent prêts à faire confiance à une IA dans certaines conditions, ce chiffre tombe à 33 % en France. Les pays émergents affichent une posture beaucoup plus confiante, portée par des usages plus fréquents, une meilleure compréhension des outils et une adhésion plus forte à leur potentiel transformateur. L’Inde, les Émirats arabes unis, le Nigeria ou l’Égypte figurent ainsi parmi les pays les plus optimistes, tant sur le plan de l’usage que de l’impact. À l’inverse, les économies avancées semblent entrer dans une phase de scepticisme structurel, marquée par une peur croissante des dérives, des pertes d’emploi et de la manipulation
de l’information.

Car c’est bien là l’un des nœuds du débat : si les bénéfices attendus de l’IA sont réels
— automatisation de tâches répétitives, amélioration de l’efficacité, gain de précision —, ils s’accompagnent de préoccupations majeures. L’étude révèle que la majorité des personnes interrogées estiment que les risques deviennent supérieurs aux avantages dans des domaines aussi variés que la santé, les ressources humaines ou l’accès à l’information. La désinformation générée par les IA, en particulier, suscite une inquiétude massive : 87 % des répondants dans le monde demandent l’adoption de lois spécifiques pour lutter contre la prolifération de contenus faux ou manipulés, et 89 % estiment que les plateformes doivent renforcer leurs mécanismes de vérification. En France, cette attente est encore plus marquée, alors même que 92 % des personnes interrogées affirment ne pas savoir quelles lois ou réglementations s’appliquent à l’IA aujourd’hui dans le pays. Ce manque de lisibilité contribue à alimenter la défiance.

La fracture entre pays émergents et développés est un élément structurant

Malgré cette situation, les bénéfices observés de l’IA restent significatifs. Au niveau mondial, plus de 80 % des répondants estiment que l’IA contribue à améliorer leur efficacité, leur créativité ou leur qualité de travail. Ce chiffre descend toutefois à 59 % en France, où la perception des avantages reste plus floue et les expériences positives plus rares. Là encore, la fracture entre pays émergents et pays développés devient un élément structurant du paysage mondial de l’IA : les premiers semblent mieux armés pour tirer profit de la technologie, grâce à des politiques publiques plus affirmées, un usage massif dans les services et une population plus jeune, plus formée, plus confiante.

En somme, l’étude KPMG–Université de Melbourne 2025 brosse le tableau d’un monde à deux vitesses. D’un côté, une adoption généralisée, voire irréversible, de l’IA dans tous les secteurs de la société. De l’autre, un déficit de gouvernance, de transparence et de compétences qui fragilise les écosystèmes les plus avancés. Pour les entreprises, le message est clair : l’IA ne peut être un impensé organisationnel. Elle doit être accompagnée d’une stratégie d’acculturation, d’un cadre d’usage responsable et d’une gouvernance partagée entre directions métier, IT, RH et juridique. À défaut, la promesse d’efficacité et d’innovation risque de laisser place à un désordre technologique profond, nourrissant défiance sociale, erreurs systémiques et repli stratégique.