Si l’IA doit s’immiscer dans les décisions nous concernant en tant que clients ou utilisateurs, il s’avère nécessaire, vital même pour la pérennité de l’entreprise, de pouvoir contrôler et remonter, étape par étape, les facteurs entrant dans la décision prise par le système d’IA.
C’est indéniable, l’IA offre un grand potentiel encore inexploré, mais un grand potentiel s’accompagne d’un risque tout aussi grand. C’est en résumé, ce qu’analyse Christian B. Westermann, Partner et Leader Data et Analytiques chez PwC Suisse dans un long article publié par PwC. Il propose cinq étapes pour rendre intelligibles les systèmes de prise de décision autonomes. En raison de la pertinence de ces remarques et pour ne pas devoir réduire son article, nous le publions en plusieurs parties.
« Les organisations peuvent rendre l’IA interprétable en mettant en œuvre un processus en cinq étapes : comprendre l’objectif et les besoins de performance du modèle, évaluer le niveau de rigueur requis, comprendre l’impact des parties prenantes et les exigences réglementaires ainsi que le besoin spécifique d’“interprétabilité”, et élaborer la stratégie du modèle et sa mise en œuvre », explique-t-il.
Étape 1 : Comprendre le but et les besoins de performance du modèle
Les cadres supérieurs devraient assumer la responsabilité de définir l’objectif, la portée et d’évaluer si c’est la meilleure solution au problème en question. Poser des questions telles que : l’apprentissage machine résout-il le problème mieux que toute autre chose ? Le coût du système d’IA est-il compensé par le bénéfice potentiel ou les économies de coûts ? De quelles performances avons-nous besoin ? Avons-nous accès à des données adéquates ? Pourrait aider une organisation à évaluer ses options
Une fois que la décision a été prise de tirer parti de l’IA, un niveau significatif et acceptable de rendement attendu, articulé au moyen de paramètres comme l’exactitude, devrait être clairement énoncé et établi parmi les intervenants. Par exemple, dans le processus d’étiquetage des courriels en tant que pourriels, même une application logicielle n’ayant aucune capacité d’IA peut atteindre une précision moyenne de 50 %, puisqu’il n’y a que deux choix. La question que les entreprises doivent se poser est de savoir si le degré d’amélioration de la performance est suffisamment élevé pour justifier le coût de développement d’un modèle d’IA, également considéré à côté des risques possibles de sécurité et de contrôle qu’entraîne l’utilisation de l’IA.
Il est important de garder à l’esprit que les modèles d’IA ne sont pas parfaits et qu’il n’est pas réaliste de s’attendre à une précision de 100 % sur les tâches, surtout lorsqu’elles sont de nature complexe. Toutefois, des décisions plus critiques exigent des entreprises qu’elles fixent des objectifs de rendement plus élevés.
Le niveau de performance attendu et la complexité des données utilisées pour les processus décisionnels d’un modèle d’IA devraient guider l’organisation dans son évaluation et sa sélection de modèles possibles d’apprentissage machine.
Sources : Christian B. Westermann, Partner et Leader Data et Analytiques, PwC Suisse