Si l’IA doit s’immiscer dans les décisions nous concernant en tant que clients ou utilisateurs, il s’avère nécessaire, vital même pour la pérennité de l’entreprise, de pouvoir contrôler et remonter, étape par étape, les facteurs entrant dans la décision prise par le système d’IA.

En mettant en œuvre les étapes de 1 à 4, les organisations sont mieux préparées pour élaborer la stratégie d'interprétabilité de leur modèle d'IA et pour la mettre en œuvre. Il s’agit à présent de choisir le type et la complexité de l’interprétabilité pour en faire une partie intégrante du système de prise de décision. Rendre l'IA interprétable peut favoriser la confiance, permettre le contrôle et rendre les résultats produits par l'apprentissage machine plus exploitables.

Étape 5 : Élaborer la stratégie du modèle et la mettre en œuvre

Si le système d’IA considéré est une boîte noire, mais que l’interprétabilité est exigée par une ou plusieurs parties prenantes, alors l’organisation a un certain nombre d’options : les dirigeants pourraient décider d’utiliser un modèle d’IA plus simple, mais parfois moins efficace. Ils pourraient utiliser d’autres techniques pour ajouter l’interprétabilité ou trouver d’autres moyens d’atténuer les risques, comme l’ajout de processus décisionnels menés par des humains pour fournir une « deuxième opinion ».

À partir de la première option, des modèles simples comme un arbre de décision peuvent être interprétés relativement facilement en suivant le chemin du haut des branches, les parents, jusqu’au bas, les enfants. Un réseau neuronal profond, avec peut-être des millions de degrés de liberté, pourrait fonctionner mieux, mais c’est beaucoup plus difficile à expliquer. Lorsqu’ils évaluent les implications de l’utilisation d’un système d’IA, les décideurs doivent peser le pour et le contre entre performance et interprétabilité.

Alternativement, les organisations peuvent continuer avec un modèle d’IA complexe et ajouter l’interprétabilité au moyen de cadres tels que SHapley Additive exPlanation (SHAP) ou Local Interpretable Model-Agnostic Explanations (LIME), qui peuvent expliquer les décisions de l’IA en modifiant les données et en observant l’effet sur les résultats. En d’autres termes, ils n’ont pas besoin de voir à l’intérieur de la boîte noire, mais peuvent plutôt en déduire le fonctionnement par une méthode d’essai et d’erreur.

Après les cinq étapes ci-dessus, l’interprétabilité peut devenir une dimension clé de la performance de l’IA responsable au sein des organisations. Elle contribue à soutenir les autres dimensions : l’impartialité et l’équité, la robustesse et la sécurité, tout en s’appuyant sur une gouvernance de bout en bout, et permet de prendre des décisions saines sur le plan éthique et conformes à la réglementation.

Source : Christian B. Westermann, Partner et Leader Data et Analytiques, PwC Suisse