D’après les conclusions d’une étude menée par Capgemini Research Institute, les consommateurs veulent savoir si l’IA les traitent de façon équitable et réclament une réglementation renforcée pour encadre l’usage de l’IA par les entreprises.
Malgré tous les bienfaits attendus de l’IA, la méfiance des consommateurs reste de mise. C’est le résultat d’une étude réalisée par Capgemini Research Institute auprès de 1 580 dirigeants de grandes entreprises (dont le chiffre d’affaires annuel est supérieur à 1 milliard de dollars), et de 4 400 consommateurs de six pays (États-Unis, Chine, Royaume-Uni, France, Allemagne, Pays-Bas) ayant tous eu une interaction avec l’IA par le passé. L’institut a également organisé des entretiens approfondis avec plus de 20 universitaires, experts et entrepreneurs du secteur.
Le biais (la partialité) dans l’IA est le problème le plus urgent à résoudre et le cauchemar de beaucoup de data analystes. D’ailleurs les législateurs prennent progressivement conscience du l’urgence d’agir. La Commission européenne a récemment défini sept règles pour « assurer un cadre éthique et juridique approprié » pour l’usage de l’IA. Parmi les problèmes pointés : un recours trop systématique, et sans arbitrage préalable, aux décisions proposées par une machine.
D’après les résultats de l’enquête, les inquiétudes des consommateurs ne sont pas infondées. Près de la moitié des personnes interrogées (47 %) estiment qu’elles ont vécu au moins deux cas d’utilisation de l’IA ayant entrainé des problèmes d’ordre éthique au cours des 2 ou 3 dernières années. De leur côté, les entreprises reconnaissent qu’il y a un problème : ils sont 9 dirigeants sur 10 à estimer que des problèmes d’ordre éthique ont résulté de l’utilisation de l’IA au cours des 2 ou 3 dernières années.
Plus de transparence et un cadre juridique approprié
Pour gagner la confiance des consommateurs, les entreprises doivent mettre en place les garde-fous nécessaires pour une IA éthique et respectueuse des lois. La plupart des personnes interrogées (75 %) déclarent qu’elles souhaitent plus de transparence lorsqu’un service est géré par l’IA, et qu’elles veulent savoir si l’IA les traite de façon équitable (73 %). Ils sont une majorité (76 %) à estimer que la règlementation devrait être renforcée pour encadrer la façon dont les entreprises utilisent l’IA.
De leur côté, les organisations commencent à prendre conscience de l’importance d’une IA éthique. Les dirigeants sont une peu plus de la moitié (51 %) à considérer qu’il est important de veiller à ce que les systèmes d’IA soient éthiques et transparents. Certaines (41 %) vont jusqu’à arrêter le système d’IA s’il s’avère que celui-ci est éthiquement défaillant.
Certes, un cadre éthique pour gagner la confiance des consommateurs est nécessaire, mais la transparence dans le domaine de l’IA n’est pas atteignable sur demande. Les milliards d’interactions et la complexité des facteurs pris en comptes par l’IA dans ses décisions rendent la tâche herculéenne. Il faudra du temps et beaucoup de machine, et de human, learning pour espérer atteindre des résultats équitables en toutes circonstances.
Source : Capgemini Research Institute