Les nouvelles technologies numériques ont profondément modifié nos habitudes dans tous les domaines ou presque. L’IA est une révolution dans la révolution qui suscite débats et controverses. Voici cinq recommandations d’IBM pour établir la confiance dans l’usage de cette technologie.
Il est difficile de mesurer toutes les conséquences de l’utilisation de l’intelligence artificielle et ses effets sur la société humaine dans son ensemble. L’usage extensif qu’elle fait de la donnée inquiète au plus haut niveau, aussi bien les responsables politiques que les patrons de grandes entreprises, dont certain ont lancé des appels pathétiques et répétés à sa régulation. De fait, les gouvernements et les instances internationales ont mis en place des comités et des commissions pour définir des garde-fous réglementaires.
Bien que les intentions des uns et des autres ne soient pas toujours concordantes, les premiers voulant protéger les citoyens et la démocratie des dérives de l’usage de l’IA, tandis que les seconds tiennent à préserver la confiance dans la technologie, et par conséquent dans les services et les produits numériques, l’urgence de la régulation semble être leur dénominateur commun.
Une contribution au débat sur l’éthique et l’IA
Hier, au Forum économique mondial de Davos, Virginia Rometty, présidente et directrice générale d’IBM, a lancé l’IBM policy lab, « un nouveau forum mondial visant à faire avancer des recommandations politiques audacieuses et réalisables pour les défis technologiques les plus difficiles ». L’initiative, légitimée par la longue expérience d’IBM dans le domaine de l’IA, résulte d’un constat résumé comme suite par sa patronne : « Je constate une abondance de technologies, mais une pénurie d’idées politiques concrètes pour garantir la protection des personnes tout en permettant à l’innovation de prospérer ».
Le temps politique étant ce qu’il est, l’IBM Policy Lab permet à Big Blue de prendre l’initiative en apportant une contribution, même si elle est intéressée, au débat actuel sur l’IA, mais aussi sur les technologies disruptives en général, comme la très discutée reconnaissance faciale. L’éditeur de Watson a ainsi publié cinq recommandations pour permettre aux entreprises, fournisseuses ou propriétaires de systèmes d’IA, de mettre en place une politique éthique de l’IA, en attendant que les législateurs votent des réglementations spécifiques.
- Désignez un responsable de l’éthique de l’IA
Cette personne aurait un rôle important dans le cas où l’entreprise aurait à gérer une communication de crise, pour réduire les effets néfastes suite à un dysfonctionnement. De même, s’il fallait rendre des comptes, elle pourrait exposer les initiatives de l’entreprise, et sa bonne foi, pour atténuer les dommages.
- Des règles différentes pour chaque type de risque
- Soyez transparents, ne cachez pas votre IA
La transparence engendre la confiance. L’utilisateur doit être conscient qu’il interagit avec un système cognitif. Dévoiler l’objectif d’un système d’IA aux consommateurs et aux entreprises est la meilleure façon d’atténuer les risques et améliorer l’acceptation et la confiance à l’égard de ces systèmes. « Personne ne doit être mystifié sur ses interactions avec l’IA ».
- Expliquez votre IA
Tout système d’IA qui prend des décisions ou fait des recommandations ayant des implications potentiellement importantes pour les individus doit pouvoir expliquer et contextualiser comment et pourquoi il est arrivé à une conclusion particulière. Pour ce faire, il est nécessaire que les organisations conservent les historiques d’audit autour de leurs données de saisie et de formation. Elles devraient également mettre à disposition une documentation qui détaille les informations essentielles que les consommateurs doivent connaître, telles que les mesures de confiance, les niveaux et la régularité des procédures et l’analyse des erreurs.
- Testez votre IA pour vérifier qu’elle n’est pas biaisée
Il en va de la responsabilité de l’entreprise de s’assurer que l’IA qu’elle utilise respecte les règles d’équité et les lois antidiscriminatoires en vigueur. Cela nécessite de tester l’équité, la partialité, la robustesse et la sécurité, et de prendre des mesures correctives si nécessaire, tant avant la vente ou le déploiement qu’après sa mise en œuvre.
Dans de nombreux cas, le contrôle et le test doivent être permanents pour s’assurer que l’apprentissage automatique ne contrevient pas aux lois relatives à la sécurité, à la confidentialité, à la divulgation financière, à la protection des consommateurs, à l’emploi et à d’autres lois.
Source : IBM