Si l’IA doit s’immiscer dans les décisions nous concernant en tant que clients ou utilisateurs, il s’avère nécessaire, vital même pour la pérennité de l’entreprise, de pouvoir contrôler et remonter, étape par étape, les facteurs entrant dans la décision prise par le système d’IA.

Alors que le projet d’implémentation d’un système de prise de décision autonome et interprétable est acté (1ère partie), et la réflexion sur le niveau de rigueur de l’interprétabilité approuvée (2ème partie), la troisième étape de notre voyage avec Christian B. Westermann consiste à étudier l’impact réglementaire et bien définir le degré d’interprétabilité en fonction des besoins de chaque service.

Étape 3 : Comprendre l’impact sur les parties prenantes et les exigences réglementaires

Pour permettre à toutes les parties concernées par le système d’IA de bénéficier du degré d’interprétabilité approprié et de se conformer à la réglementation qui s’applique au cas d’utilisation particulier, il est important que les organisations prennent en compte l’interprétabilité dès le départ. Poser les questions suivantes peut aider à progresser vers des systèmes interprétables :

  • qui sont les parties prenantes et de quelles informations ont-elles besoin ?
  • qu’est-ce qui constitue une bonne explication ou une explication suffisante ?
  • quels renseignements devraient être inclus dans un rapport d’interprétabilité pour chaque intervenant respectif ?
  • dans quelle mesure l’organisation et ses parties prenantes sont-elles prêtes à faire des compromis sur la performance des modèles d’IA afin de favoriser l’interprétabilité ?

Par exemple, un client d’une banque peut exiger de savoir pourquoi sa demande de prêt a été refusée, ce qu’il faut changer pour que sa demande soit acceptée et, surtout, s’il n’est pas victime de discrimination. D’un autre côté, un vérificateur ou un agent de contrôle des risques pourrait souhaiter savoir si le modèle d’IA est équitable pour un groupe plus large et dans quelle mesure il est exact.

Pour répondre aux deux groupes, la banque a besoin d’une variété d’informations sur le processus d’IA, de la préparation de l’ensemble de données à la formation et aux étapes de la demande. Chaque organisation devrait être en mesure d’expliquer le fonctionnement global d’un modèle ainsi que la façon dont une décision individuelle a été prise.

De plus, comme le montre l’évaluation de la criticité décrite dans la partie 2, l’interprétabilité est impérative lorsque les conséquences des actions d’un système d’IA sont importantes et peuvent affecter les droits des utilisateurs ou restreindre les droits et libertés d’une personne.

Lorsque la loi l’exige, comme le Règlement général sur la protection des données (RGPD) de l’Union européenne sur le « droit d’explication », les systèmes d’IA dont les décisions reposent sur les renseignements personnels d’un client devraient pouvoir expliquer comment ces renseignements sont utilisés et à quelles fins. L’Autorité monétaire de Singapour a également défini un ensemble de principes visant à promouvoir l’équité, l’éthique, la responsabilité et la transparence dans l’utilisation de l’intelligence artificielle et l’analyse des données financières afin de renforcer la confiance dans cette technologie.

Dans de tels cas, l’interprétabilité n’est pas un luxe ajouté à un système d’IA, c’est simplement une exigence.

Source : Christian B. Westermann, Partner et Leader Data et Analytiques, PwC Suisse