Les débats autour d’un éventuel ajustement du calendrier de mise en œuvre de l’AI Act, évoquant un possible décalage de certaines obligations au-delà de 2026, ne doivent pas détourner les directions RH de l’essentiel. Pour les éditeurs et les entreprises responsables, l’enjeu n’a jamais été d’attendre une échéance réglementaire, mais de s’assurer dès aujourd’hui que les usages de l’intelligence artificielle dans les processus RH soient maîtrisés, équitables et juridiquement sécurisés.

    Car la conformité, aussi structurante soit-elle, n’est pas une fin en soi, mais un outil. Audits de biais, documentation des modèles, transparence vis-à-vis des candidats, supervision humaine, gestion des risques : ces exigences, largement reprises par l’AI Act pour les systèmes dits « à haut risque », relèvent avant tout de bonnes pratiques de gouvernance. Elles s’inscrivent dans une continuité logique avec les démarches déjà connues des DRH en matière de protection des données, de non-discrimination et de conformité sociale. L’émergence de référentiels comme la norme ISO 42000 sur les systèmes de management de l’IA illustre d’autant plus cette volonté de structurer des cadres durables, au-delà des seules obligations légales.  

L’IA face aux biais : un enjeu de mesure

Tous les processus de recrutement comportent des risques de biais : favoritisme inconscient, stéréotypes culturels, effets de réseau. Si ces mécanismes sont bien documentés, ils restent cependant difficiles à évaluer. L’un des apports majeurs des systèmes d’IA réside précisément dans leur capacité à rendre ces biais mesurables. Par exemple, dans certains cadres réglementaires, comme à New York, des audits de biais doivent être réalisés pour les outils automatisés de recrutement avec des résultats synthétiques accessibles et la possibilité pour les candidats de demander une évaluation non automatisée. Ces dispositifs illustrent une tendance de fond : la transparence devient un levier de confiance. La question centrale pour les DRH n’est donc pas de savoir si un système d’IA est parfaitement neutre, d’ailleurs aucun processus ne l’est, mais plutôt s’il permet de réduire les discriminations par rapport aux pratiques existantes, tout en offrant des garanties de contrôle, d’explicabilité et de recours.

Les systèmes RH « à haut risque » du AI Act : clarifier pour mieux maîtriser

L’AI Act classe les systèmes utilisés pour le recrutement, l’évaluation des candidats ou la gestion des carrières comme des systèmes « à haut risque ». Cette terminologie peut susciter des inquiétudes, voire des stratégies d’évitement. Pourtant, elle ne signifie pas que ces outils seraient dangereux par nature, mais qu’ils ont des impacts significatifs sur les parcours professionnels et nécessitent un niveau d’exigence renforcé. L’enjeu n’est pas d’échapper à cette qualification, mais de s’assurer que les outils utilisés répondent à des standards élevés de gouvernance, de sécurité et de supervision humaine. Minimiser les usages ou sous-déclarer les fonctionnalités serait contre-productif, tant sur le plan juridique qu’éthique, alors que peut-être l’IA va nous permettre de nous rapprocher de la neutralité que nous cherchions avec le CV anonyme.

Le Code du travail : cadre toujours fondamental

Par ailleurs, dans les débats autour de l’IA, du RGPD et de l’AI Act, la base centrale pour les directions RH reste le Code du travail. En matière de recrutement, seules les données présentant un lien direct et nécessaire avec le poste peuvent être utilisées pour prendre une décision. L’introduction de l’IA ne modifie pas ce principe. Elle impose au contraire une vigilance accrue sur la nature des données exploitées, les critères retenus et la capacité à justifier chaque étape du processus. L’innovation technologique ne saurait se substituer aux obligations sociales fondamentales.

L’humain dans la boucle

Sur le plan technique, certaines solutions pourraient déjà automatiser l’intégralité d’un processus de recrutement par exemple. Le choix de maintenir l’IA comme un outil d’aide à la décision, et non comme un décideur autonome, relève d’une décision organisationnelle et responsable. Cette approche permet de préserver le jugement humain sur des décisions à fort impact, d’assurer la conformité avec les exigences de supervision humaine et de maintenir l’acceptabilité sociale des outils auprès des candidats et des partenaires sociaux. De plus, la confiance des candidats et des collaborateurs repose sur la capacité des organisations à expliquer quand et comment l’IA est utilisée, quelles garanties sont mises en place, et comment les performances des systèmes sont évaluées dans le temps. Si l’AI Act n’entrera en application qu’en 2026, voire au-delà, l’IA transforme déjà en profondeur les pratiques RH, du recrutement à la gestion de la performance, en passant par le développement des talents et la mobilité interne. L’enjeu n’est donc pas d’attendre une échéance réglementaire, mais de bâtir dès maintenant une gouvernance capable d’encadrer ces usages : choix des outils, cadre de déploiement, responsabilités et maîtrise des données.

L’AI Act classe la plupart des systèmes d’IA RH comme « à haut risque » et impose un socle d’exigences en matière de gestion des risques, de supervision humaine, de traçabilité et de documentation. Mais leur mise en œuvre concrète repose largement sur les organisations. Cela implique, au-delà de la conformité formelle, de travailler en partenariat entre fournisseurs et utilisateurs, de comprendre et documenter les critères sur lesquels reposent les recommandations, et les biais associés, de maintenir un contrôle réel par les professionnels RH (et donc d’équiper et former les professionnels des RH), et d’offrir aux candidats et collaborateurs des mécanismes de recours et de réexamen humain. Pour les DRH, il s’agit moins d’un exercice de conformité que d’un choix stratégique : prendre le contrôle de l’IA ou en subir les effets.



  Par José Alberto Rodríguez Ruiz, Chief Data Protection & AI Governance Officer, Cornerstone on Demand