L’entrée en application progressive de l’IA Act européen suscite de nombreuses interrogations au sein des directions des ressources humaines. Cette évolution réglementaire est perçue pour certains comme une contrainte supplémentaire pour des organisations déjà fortement sollicitées sur les enjeux de transformation digitale.

Mais cette lecture parait réductrice car l’IA Act ne constitue pas en lui-même un obstacle à l’innovation. Il pose au contraire, un cadre clair destiné à sécuriser l’usage de l’intelligence artificielle tout en  renforçant la fiabilité, l’équité et la transparence des pratiques de recrutement.

Comprendre la logique du règlement

L’IA Act peut être appréhendé comme un référentiel de bonnes pratiques du recours à l’intelligence artificielle en encadrant son usage et en permettant ainsi de garantir la sécurité et la responsabilité des décisions. Dans le domaine des ressources humaines, les systèmes d’IA utilisés pour le recrutement sont classés « à haut risque » au titre de l’article 6. Cette qualification s’explique simplement : ces outils ont un impact direct sur les parcours professionnels et sur l’accès à l’emploi. Ce niveau de sensibilité justifie des exigences renforcées en matière de contrôle, de traçabilité et de supervision.

Les deux principes fondamentaux de la conformité

  1.     L’explicabilité
La capacité à comprendre une décision algorithmique est un prérequis essentiel. Un recruteur doit pouvoir expliquer pourquoi un candidat a obtenu un score donné et identifier précisément les critères ayant contribué à ce résultat : expérience, compétences, disponibilité, ou tout autre facteur pris en compte. Il s’agit d’être en mesure de montrer l’ensemble de la logique et du contexte qui sous-tendent le processus de mise en relation : les raisons pour lesquelles un profil est recommandé, les facteurs pris en compte, ainsi que la manière dont le classement est établi. L’article 13 répond à cette exigence en imposant des systèmes transparents et interprétables. Les approches reposant sur des mécanismes opaques, assimilables à des « boîtes noires », ne sont plus compatibles avec le cadre réglementaire. Cette exigence met également en évidence les limites d’outils généralistes tels que ChatGPT. Ces solutions, prises isolément, ne sont pas pleinement adaptés aux exigences d’un contexte de recrutement en ne permettant pas d’exposer clairement leur raisonnement.
  1.     La supervision humaine
Le second principe, défini à l’article 14, concerne le rôle central de l’humain dans la prise de décision. L’intelligence artificielle ne peut se substituer au jugement professionnel. Elle s’utilise comme un outil d’assistance, destiné à éclairer l’analyse, mais la responsabilité finale demeure humaine. Une personne qualifiée doit être en mesure de comprendre le fonctionnement du système, d’en surveiller les résultats, de les interpréter et, le cas échéant, de les corriger. L’IA accompagne le recruteur ; elle ne décide pas à sa place.

Des bénéfices opérationnels concrets

Les exigences de l’IA Act ne relèvent pas uniquement de la conformité réglementaire ; elles produisent des effets positifs tangibles. Pour les recruteurs, l’explicabilité permet « d’objectiver » les décisions et de les justifier de manière factuelle. Il devient possible d’expliquer précisément la composition d’un score et d’identifier les éléments qui influencent l’évaluation d’un candidat. L’IA devient ainsi un outil maîtrisé et compréhensible. Pour les entreprises, l’enjeu est également juridique et réputationnel. Les sanctions prévues peuvent atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial. Au-delà de ces risques, la capacité à démontrer l’usage d’une IA explicable et supervisée est un argument fort pour la marque employeur et pour la crédibilité de l’organisation. Pour les candidats, la transparence quant au score obtenu et ses raisons améliore significativement l’expérience. Une explication détaillée des critères d’évaluation apporte de la clarté et transforme une décision négative en information exploitable.

Sélectionner des partenaires technologiques conformes

Tous les fournisseurs d’IA ne proposent pas le même niveau de maturité ni les mêmes garanties. Plusieurs questions structurantes doivent guider le choix d’une solution :
  • Comment le système explique-t-il ses recommandations et ses scores ?
  • Sur quelles données a-t-il été entraîné ?
  • Quels dispositifs sont mis en place pour identifier et limiter les biais ?
Seul un fournisseur capable de répondre de manière précise et vérifiable à ces interrogations pourra prétendre être en conformité avec les exigences de l’IA Act. À l’inverse, des réponses vagues ou incomplètes doivent être considérées comme un signal d’alerte et inciter à la plus grande prudence

Conclusion

L’IA Act ne représente pas un frein à l’adoption de l’intelligence artificielle. Il en crée les conditions d’un usage responsable et sécurisé. Le risque de l’IA réside dans l’utilisation de solutions ne pouvant garantir la transparence qu’induit un process de recrutement équitable, celles-ci étant de fait sources d’exposition juridique et réputationnelle. En instaurant des standards élevés d’explicabilité et de supervision humaine, le règlement favorise des décisions plus justes et plus maîtrisées, renforçant ainsi la confiance des utilisateurs et de leurs publics dans les outils numériques. Les organisations qui s’engageront dès aujourd’hui dans cette démarche transformeront une obligation réglementaire en avantage concurrentiel durable.

Par Jan Govaerts, CEO The Matchbox by Pixid Group