Si les outils numériques sont omniprésents, leur adoption se heurte à une fracture croissante entre les promesses d’efficacité et le vécu des salariés. Dans son dernier rapport « Technologie au travail 2025 : remodeler le travail flexible », Ivanti dresse un constat alarmant, mais lucide des tensions qui traversent le monde professionnel à l’ère de l’intelligence artificielle. 

  Le numérique, censé libérer les collaborateurs, devient parfois un facteur de désengagement et d’isolement. Telle est l’une des conclusions majeures de l’étude menée par Ivanti, éditeur américain de logiciels IT et de cybersécurité, auprès de 6 000 employés de bureau et 1 200 professionnels des technologies de l’information. Porteuse d’espoirs d’amélioration de la productivité et du confort au travail, la technologie, l’IA dans le cas présent, ne joue pas toujours son rôle d’amplificateur de productivité ou de confort de travail.

  L’étude révèle un paradoxe inquiétant : près d’un tiers (32 %) des utilisateurs d’IA générative en entreprise le font sans en informer leur hiérarchie. Pour 36 % d’entre eux, cet usage représente un « avantage secret » à ne pas partager. Ce comportement peut être vu comme un signal d’alerte : l’absence de gouvernance claire pousse à des pratiques de contournement, augmentant de fait les risques de failles de sécurité et de non-conformité réglementaire.

Cette situation souligne l’urgence pour les directions IT et les responsables de la cybersécurité de mettre en place des politiques d’usage responsables de l’IA. Sans cadre, l’innovation devient une zone grise difficilement maîtrisable.

  Selon l’étude, 42 % des employés de bureau utilisent aujourd’hui des outils d’IA générative dans leur quotidien professionnel, un chiffre en forte hausse par rapport à 2024 (26 %). Pourtant, cette progression s’accompagne d’une série de craintes : 30 % redoutent de perdre leur emploi à cause de l’IA, tandis que 27 % souffrent d’un syndrome de l’imposteur alimenté par leur usage de ces outils, doutant de la reconnaissance de leurs compétences réelles.  

Pour mettre fin au syndrome de l’imposteur …

  Cette dissonance est largement amplifiée par l’utilisation de l’IA, qui déclenche plusieurs mécanismes psychologiques. Lorsqu’on utilise l’IA pour produire un texte, rédiger un mail, générer du code ou créer une présentation, la frontière entre sa propre intelligence et l’apport de la machine devient floue. On peut se demander : « Est-ce moi qui ai fait ce travail, ou l’IA ? » 

  L’étude montre que 30 % des utilisateurs de l’IA générative craignent que leur poste disparaisse, et 27 % préfèrent ne pas révéler leur usage de l’IA, de peur que leur mérite soit remis en question. Cela crée un climat de discrétion, voire de honte, alors qu’il s’agit d’un outil, non d’une tricherie. Un autre syndrome peut se manifester : face à des collègues qui « semblent » plus compétents ou productifs — parce qu’ils maîtrisent mieux les outils IA — certains collaborateurs se sentent dépassés ou illégitimes. Cela accentue un sentiment d’infériorité cognitive ou technique, souvent infondé.  

… il faut sortir l’IA de la clandestinité

  L’IA, perçue comme un allié pour travailler plus efficacement, devient dans certains cas une source d’angoisse, en particulier lorsqu’elle est adoptée dans un flou organisationnel ou sans accompagnement managérial. Brooke Johnson, directrice juridique et des ressources humaines chez Ivanti, alerte : « Les employeurs incapables d’aborder l’innovation avec empathie et de redonner de l’autonomie aux collaborateurs risquent de perdre de précieux talents et de voir leur productivité chuter. » 

  Aussi, face au désespoir silencieux, les entreprises doivent prendre l’initiative de décomplexer leurs employés, en mettant en valeur leur rôle et en remettant l’IA à sa vraie place : « L’IA ne remplace pas l’humain, elle augmente ceux qui savent s’en servir intelligemment ». L’IA ne produit rien sans intention, sans contexte, sans évaluation. La valeur réside dans la capacité humaine à poser les bonnes questions, à juger la pertinence des réponses, à adapter les contenus aux réalités métier. Utiliser l’IA intelligemment, c’est une compétence à part entière — et non une ruse honteuse.

  Le syndrome de l’imposteur naît souvent du secret. Il faut faire sortir l’IA de la clandestinité en créant des espaces de partage d’usages, de bonnes pratiques, voire d’erreurs. Plus l’usage de l’IA sera visibilisé, dédramatisé, et discuté collectivement, moins il sera perçu comme suspect ou illégitime. L’IA doit être un levier d’autonomie, non de pression supplémentaire. Cela suppose un encadrement bienveillant, une gouvernance éthique et transparente, et un droit à l’expérimentation, voire à l’erreur.