Si l’IA doit s’immiscer dans les décisions nous concernant en tant que clients ou utilisateurs, il s’avère nécessaire, vital même pour la pérennité de l’entreprise, de pouvoir contrôler et remonter, étape par étape, les facteurs entrant dans la décision prise par le système d’IA.
Dans la première partie, Comprendre le but et les besoins de performance du modèle, Christian B. Westermann insistait sur la phase de réflexion préalable à toute prise de décision d’intégration d’un modèle interprétable d’intelligence artificielle. Durant cette période d’évaluation, l’expert de PwC insiste sur la nécessité de s’interroger sur tous les aspects de l’intégration de l’IA, y compris ses propres motivations au regard du rendement escompté, du niveau d’interprétabilité... Une fois cette étape franchie, la seconde phase consiste à intégrer l’interprétabilité en définissant le degré de celle-ci.
Étape 2 : Évaluer le niveau de rigueur requis
Toutes les tâches basées sur l’intelligence artificielle ne nécessitent pas d’être interprétées. Il n’est pas nécessaire de comprendre l’IA qui trie les courriels dans un dossier de spam, par exemple. Les erreurs sont rares et faciles à rectifier, de sorte qu’il n’y a guère d’intérêt à être capable d’expliquer les décisions.
Toutefois, dans le cas d’un modèle d’IA qui détecte la fraude financière, l’interprétabilité est un élément essentiel du processus de collecte de preuves avant une poursuite. L’utilisation prévue du modèle est donc un facteur important pour déterminer s’il y a lieu d’ajouter l’interprétabilité.
Dans la boîte à outils sur l’IA responsable de PwC, les exigences en matière d’interprétabilité sont fonction de la rigueur : les résultats des décisions de l’IA peuvent-ils nuire aux humains, aux organisations ou à autrui ?
Pour déterminer la rigueur requise dans un cas d’utilisation donné, les organisations doivent tenir compte de deux facteurs :
- la criticité, qui implique dans quelle mesure la sécurité humaine, les finances et la réputation de l’organisation sont en danger, et,
- la vulnérabilité, qui fait référence à la probabilité que les opérateurs humains qui travaillent avec l’IA se méfient de ses décisions, les annulent et les rendent redondantes ?
Plus le cas d’utilisation est critique et vulnérable, plus nous avons besoin que l’IA soit explicable et transparente.
Par exemple, PwC Suisse et l’Allemagne ont collaboré avec le réseau de médecins NeuroTransData (NTD) pour développer un logiciel basé sur l’intelligence artificielle afin de fournir un traitement personnalisé aux patients atteints de sclérose en plaques. Le système de soins de santé prédictif avec des données réelles sur les troubles neurologiques est un logiciel qui est piloté par un algorithme basé sur des données recueillies auprès de 25 000 patients depuis plus de 10 ans.
Étant donné que le système est conçu pour aider les médecins à recommander des formes de traitement spécifiques et personnalisées, il était clair qu’ils ne l’adopteraient pas, à moins qu’ils ne puissent avoir confiance dans le résultat. Ils voulaient également pouvoir expliquer leur raisonnement aux patients, lorsqu’ils suggèrent une forme particulière de thérapie. Dans ce cas, le recours à un système d’IA de type boîte noire pourrait être dangereux pour le système de soins de santé sur les plans moral et financiers, et il pourrait miner la confiance des patients et des médecins.
Au lieu de cela, le fait d’avoir deux systèmes de soutien, l’un humain et l’autre d’IA, à la fois interprétables et explicables, a créé quelque chose de beaucoup plus fiable. Il y a moins d’erreurs parce que si les deux systèmes sont d’accord, ils se renforceront automatiquement l’un l’autre ; et s’ils ne le sont pas, ce sera un signe que le processus doit être validé.
Source : Christian B. Westermann, Partner et Leader Data et Analytiques, PwC Suisse