Arnaud Gilberton dirige Idoko, cabinet spécialisé dans les situations humaines complexes au travail, conflits, blocages, transitions sensibles. Sans prétendre à une expertise technique de l’IA, il l’observe depuis deux ans, à travers l’écoute de ses clients, un décalage persistant dans la formation des collaborateurs. Son diagnostic est limpide : les résistances à l’IA sont d’abord psychologiques, profondément personnelles, et les réponses uniformes des directions RH passent à côté du sujet.
Vous intervenez sur les situations humaines complexes en entreprise. Comment l’IA est-elle arrivée dans votre périmètre ?
Par les clients, progressivement. Des entreprises nous ont sollicités pour comprendre pourquoi leurs déploiements d’IA ne prenaient pas. Nous avons commencé à mener des écoutes sociales, des entretiens confidentiels avec des collaborateurs, pour cartographier ce qui se passait réellement. Ce n’était pas prévu comme une spécialité, mais le sujet s’est imposé.
Qu’est-ce que vous observez ?
Une disparité très forte, d’abord. Il y a des collaborateurs qui n’ont pas attendu que leur entreprise bouge pour aller très loin par eux-mêmes. Il y a des personnes à qui ça fait extrêmement peur. Et entre les deux, un ventre mou qui hésite. Ce qui complique tout, c’est que cette dispersion est très difficile à gérer pour les RH, parce qu’elle ne se laisse pas adresser de manière uniforme.
Et en première intention, les collaborateurs disent quoi ?
Ils se déclarent positifs. Tout le monde dit « l’IA, c’est très bien ». Mais quand on creuse, la réalité est différente. Les collaborateurs n’osent pas exprimer leurs craintes, parce que dans un contexte économique difficile, personne ne veut passer pour celui qui freine. Donc, on affiche une adhésion de façade, et en dessous, la peur bloque concrètement l’usage. Or, pour vraiment s’approprier l’IA, il faut se sentir libre d’expérimenter, de se tromper, de plonger dedans. La peur empêche précisément cela.
Vous parlez de peur, mais de peur de quoi, exactement ?
C’est là que c’est complexe, parce que ce n’est pas la même peur selon les individus. Un collaborateur peut ne pas utiliser l’IA parce qu’il se sent dépassé, qu’il a peur d’être dépassé par l’outil. Un autre n’y touche pas par sentiment de supériorité professionnelle, « je connais mon métier, ce n’est pas une machine qui va m’apprendre quoi faire ». Un troisième hésite par questionnement éthique sur les données. Ces blocages sont personnels, pas catégoriels. On ne peut pas les adresser en bloc.
Vous évoquez aussi le contexte général comme facteur aggravant.
C’est probablement le principal facteur sous-estimé. Si on déployait l’IA dans un contexte de stabilité économique et de sérénité géopolitique, les résistances seraient sans doute bien moindres. Mais aujourd’hui, les collaborateurs arrivent déjà avec un niveau d’anxiété élevé, incertitude économique, tensions politiques, inquiétudes écologiques. Accepter de changer en profondeur sa méthode de travail demande un sentiment de sécurité psychologique que beaucoup n’ont pas en ce moment. L’IA n’est pas seule en cause, elle arrive au mauvais moment pour une partie significative des effectifs.
Que conseillez-vous aux directions qui veulent débloquer la situation ?
Avant de se préoccuper des compétences et des formations, il faut s’interroger sur les représentations. Si on va directement sur la maîtrise technique sans avoir compris comment les gens voient l’IA, ce qu’elle leur inspire, ce qu’ils en craignent, on passe à côté. Le deuxième point, c’est d’adresser les résistances frontalement plutôt que de les minimiser. Dire « ne vous inquiétez pas, l’IA ne va pas remplacer votre poste » ne suffit pas et n’est pas crédible. Il faut créer des espaces de dialogue, prendre des engagements, intégrer le sujet dans la relation sociale avec les représentants du personnel. C’est ça le travail de direction sur ce dossier.
Et sur la formation elle-même ?
La formation ne peut pas être un événement ponctuel. C’est un processus d’accompagnement dans la durée, dont l’objectif est d’effacer progressivement les résistances par la démonstration pratique de l’utilité. Pas d’acquérir une liste de fonctionnalités. Ce qui débloque les gens, c’est l’expérience de constater que ça leur sert, concrètement, dans leur travail quotidien.
Vous soulignez aussi une dimension souvent négligée : l’esprit critique.
C’est un point central. On ne dit pas assez que l’esprit critique est une compétence clé pour utiliser l’IA. Plus on interroge, on contredit, on demande des explications, plus la qualité du résultat est élevée. Et ça, ce n’est pas une compétence technique — c’est une posture intellectuelle que des profils très littéraires, par exemple, développent très naturellement. L’IA n’est pas réservée aux technophiles. Elle est accessible à quiconque sait formuler, questionner, et penser par lui-même.
Vous finissez sur la souveraineté numérique. Est-ce un sujet RH pour vous ?
Il le devient. Quand on parle de déploiement de l’IA en entreprise, on parle de données, des données sensibles, souvent. La question de savoir où elles vont, qui les traite, sous quelle juridiction, ça rejoint directement les questions de confiance des collaborateurs. Et, du point de vue macro, ce que j’observe, c’est qu’on n’a pas les infrastructures pour une IA vraiment souveraine à l’échelle nationale ou européenne. Mistral est une réalité intellectuellement remarquable et culturellement plus proche de nous, mais les moyens de calcul derrière ne sont pas à la hauteur. Résultat : si on pousse les utilisateurs, ils iront naturellement vers les hyperscalers américains. Et leurs données avec eux. C’est un enjeu structurant, pas un détail technique.























