Entre automatisation croissante, quête d’efficacité RH et injonctions à la conformité, les entretiens d’embauche réalisés par des agents IA s’imposent dans de nombreuses organisations. Si les promesses de neutralité et de gain de temps séduisent, les biais culturels, l’expérience candidat et les exigences réglementaires appellent à une vigilance accrue. Une mutation silencieuse, mais structurante, des pratiques de sélection.

Jusque là cantonnée à la présélection ou à l’analyse de CV, l’intelligence artificielle s’invite désormais au cœur même de l’entretien d’embauche. Des banques, des groupes de services, des acteurs de la vente de détail ou des startups tech soumettent leurs candidats à des échanges oraux ou écrits entièrement gérés par des modèles linguistiques ou des agents vocaux.

Cette évolution n’a rien d’anecdotique, une étude menée par la Booth School of Business sur plus de 70 000 entretiens montre que ces dispositifs augmentent de 12 % le taux d’offre d’embauche, de 18 % le taux de prise de poste, et améliorent la rétention. L’enjeu ne se limite donc pas à une automatisation du processus RH, mais bien à un ajustement profond des stratégies de recrutement, en réponse aux impératifs de volume, de réactivité et d’équité perçue.

Une nouvelle industrialisation des processus de sélection

Dans la nouvelle réalité, l’entretien avec l’IA prend des formes multiples : chat vidéo animé par un avatar, dialogue oral via un agent vocal, questionnaire asynchrone évalué par NLP, ou encore scoring automatisé basé sur les expressions, les mots utilisés ou les hésitations. Ces outils sont parfois intégrés dans des plateformes de recrutement, parfois développés sur mesure avec des LLM spécialisés. L’objectif est de réduire le temps de traitement par candidat et d’uniformiser les critères d’évaluation. Pour les directions des ressources humaines, ces systèmes permettent de traiter des milliers de candidatures en quelques heures, de générer des métriques exploitables à grande échelle, et d’éliminer certaines formes de biais humains dans les premières étapes du processus.

Mais derrière cette rationalisation apparente se cache une transformation plus profonde du rôle même de l’entretien. Celui-ci n’est plus un espace de dialogue ou d’échange informel, mais une épreuve structurée, scénarisée, et potentiellement standardisée à l’extrême. Dans ce contexte, la valeur perçue de l’interaction change radicalement, au profit d’une évaluation purement comportementale ou linguistique. Pour les candidats, la difficulté n’est plus seulement de convaincre un interlocuteur, mais de comprendre les critères implicites du modèle qui les évalue.

Expérience candidat : entre perplexité, adaptation et lassitude

Du point de vue des postulants, l’étude de la Booth School of Business révèle que les entretiens conduits par l’IA provoquent des réactions contrastées. Certains apprécient la flexibilité d’un processus dématérialisé, la possibilité de répondre à leur rythme ou de ne pas faire face à un recruteur stressant. D’autres déplorent un sentiment de déshumanisation, une difficulté à exprimer leur personnalité, ou l’impression de « jouer contre une machine ». Une étude publiée dans la revue Human Resource Management Review souligne que les jeunes diplômés sont plus enclins à accepter ce type de procédure, tandis que les profils expérimentés ou issus de cultures « non occidentales » (sic) y trouvent une barrière supplémentaire.

Le ressenti est d’autant plus marqué que les entretiens IA manquent souvent de transparence. Peu d’entreprises expliquent comment les réponses sont évaluées, quels sont les critères de notation ou ce qui déclenche une mise à l’écart. En cas de rejet, il n’y a pas toujours de retour. Cette opacité fragilise la confiance dans le processus, et peut nuire à l’image de l’entreprise. Heureusement, des recommandations méthodologiques et éthiques émergent, comme prévenir le candidat qu’il s’adresse à un système automatisé, fournir un droit de recours ou une option humaine, garantir la qualité des données d’entraînement utilisées pour calibrer le modèle.

Biais culturels et exigences réglementaires en ligne de mire

Si l’argument d’impartialité est souvent mis en avant, plusieurs recherches remettent en question la neutralité réelle des modèles. L’étude « Invisible Filters » publiée en août 2025 par un groupe de scientifiques de l’Université de Lausanne et de l’International Institute of Information Technology de Bangalore, montre que des modèles linguistiques notent systématiquement moins bien les candidats utilisant certains registres culturels ou expressions idiomatiques non standard. De même, les biais de genre, d’accent ou de ton de voix persistent, notamment dans les outils d’analyse vidéo ou audio. Ces constats interrogent la validité juridique des décisions prises sur la base d’un scoring IA, en particulier dans les pays soumis à des régimes stricts de non-discrimination.

Le futur règlement européen sur l’IA (AI Act) classe les systèmes de recrutement assisté comme « à haut risque », ce qui implique des obligations spécifiques, comme la documentation des algorithmes, l’auditabilité, la transparence des critères, la supervision humaine, et l’évaluation continue des effets discriminants. Le livre blanc publié par TÜV AI.Lab et The Stepstone Group propose une méthodologie de test conforme à ces exigences, soulignant l’importance d’un contrôle indépendant. Pour les directions RH, cela implique non seulement un arbitrage technologique, mais une gouvernance éthique robuste.

Les organisations appelées à repenser leurs parcours candidats

L’IA n’intervient pas uniquement au moment de l’entretien. Elle s’immisce dans tout le parcours de sélection, du sourcing automatisé, en passant par la présélection par mots-clés, et la simulation d’entretien, à la génération d’évaluations, et parfois la rédaction de réponses automatisées aux candidats. Cette généralisation soulève une question de cohérence sur l’équilibre entre efficacité et personnalisation. Les entreprises, les administrations et les fournisseurs de services doivent éviter que le recours à l’IA ne dégrade l’expérience candidat ou ne fragilise leur marque employeur. Le déploiement d’un agent IA ne peut se faire sans dispositif de supervision, sans référentiel métier clair, ni sans accompagnement du changement au sein des équipes RH.

Les organisations doivent également composer avec une opinion publique plus avertie. L’usage croissant de l’IA dans le monde professionnel, combiné à des craintes sur l’opacité des algorithmes, impose une transparence accrue. Cela passe par la formation des recruteurs à ces nouveaux outils, l’adoption de chartes internes de responsabilité algorithmique, et la mise en place de tableaux de bord mesurant l’impact réel des entretiens automatisés. L’industrialisation du recrutement ne peut réussir que si elle s’appuie sur une gouvernance humaine constante.

Préparer, former, encadrer : le triptyque de la réussite

Du côté des candidats, se préparer à un entretien IA suppose de comprendre les codes d’interaction attendus, comme parler clairement, structurer ses réponses, éviter les digressions, anticiper les mots-clés métier. Il ne s’agit pas de « tromper l’algorithme », mais de s’adapter à un cadre plus rigide. Plusieurs formations, simulateurs et guides pratiques ont vu le jour, notamment aux États-Unis et au Royaume-Uni, pour aider les postulants à passer ce cap. Pour les profils techniques ou juniors, cette familiarisation peut faire la différence. Pour les recruteurs, le défi est inverse. Il s’agit de ne pas se reposer entièrement sur l’automatisation, de garder une marge d’interprétation, et de maintenir un lien humain avec les talents ciblés.

Plus largement, les directions RH gagneraient à développer des grilles de lecture partagées avec les DPO, les juristes, les partenaires sociaux et les responsables de la diversité. L’entretien IA n’est pas un gadget, mais un levier structurant des politiques de recrutement à l’ère numérique. Son succès dépendra moins de sa précision technique que de sa capacité à respecter les singularités humaines et à inspirer confiance. Le recours à des tiers de confiance pour certifier les outils, documenter les algorithmes ou auditer les pratiques pourrait devenir un standard dans les mois à venir.

Le passage à l’entretien IA marque une bascule silencieuse dans la fabrique du travail. Il incarne une tension majeure de l’époque pour industrialiser sans déshumaniser. Pour les entreprises, les administrations et les fournisseurs de services, l’enjeu n’est pas de choisir entre humain et IA, mais de concevoir des processus mixtes, équilibrés, éthiques et performants. La clé réside dans la gouvernance, la transparence, et la capacité à corriger ce que l’algorithme n’a pas su voir.

publicité