L’acuité « intellectuelle » et la pertinence d’une intelligence artificielle se mesurent à la qualité des données ayant servi à l’entraîner. Un biais se produit lorsque les agents humains injectent des biais de décision dans les systèmes en les formant à l’aide de données biaisées, ou avec des règles qui reflètent intrinsèquement, et la plupart du temps inconsciemment, leurs préjugés personnels. Les données biaisées peuvent inclure des ensembles de données erronées, des hypothèses déformées et des préjugés qui discriminent à tort des groupes humains.
D’après une publication de Harvard Business Review, la plupart des développements en matière d’IA sont le fait d’un petit groupe de personnes extrêmement techniques, titulaires de diplômes de haut niveau. Et la plupart de ceux qui travaillent sur ces systèmes avancés sont des hommes culturellement homogènes, ce qui rend les données vulnérables aux inexactitudes, car basées sur une vision limitée du monde de ces spécialistes issus de formations similaires, et des représentations non diversifiées de ceux qui conçoivent les modèles.
Les entreprises ont conscience des risques liés aux biais…
Si les ensembles de données sont défectueux, ou pire, biaisés, des hypothèses incorrectes seront intégrées dans toutes les décisions qui en résulteront. Comme le dit l’adage américain « garbage in, garbage out ». Par conséquent, les entreprises qui cherchent à mettre en œuvre une stratégie d’éthique numérique vérifiée doivent d’abord comprendre et évaluer l’ampleur du problème des biais liés aux données d’entraînement de leur IA.Selon l’étude Data Bias : The Hidden Risk of AI, publiée par Progress, les entreprises ont conscience des risques associés au biais dans leurs projets d’intégration de l’IA. Parmi les 640 répondants internationaux interrogés dans 12 pays (dont la France), 66 % conjecturent de devenir plus dépendantes de l’IA/ML pour la prise de décision. Toutefois, ils sont lucides quant à la qualité de leurs données : 65 % pensent qu’il y a actuellement des biais dans les données au sein de leur organisation, et 78 % pensent que les biais dans les données deviendront un problème plus important à mesure que l’utilisation de l’IA/ML augmentera.
… mais peu ont pris des initiatives pour lutter contre
Mais, si les répondant sont majoritaire à avoir conscience du problème en estimant à 77 % qu’il faut faire plus pour lutter contre les biais de données, peu d’entreprises on mit en place des mécanismes d’audit et de correction : seulement 13 % des répondants s’attaquent actuellement à la question de la distorsion des données en disposant d’un processus d’évaluation en cours pour l’éliminer. Plus grave encore, 51 % considèrent que le manque de sensibilisation et de compréhension des biais est un obstacle à la lutte contre ces derniers.De fait, selon leur maturité, les entreprises n’en sont pas toutes au même point de leur lutte contre les biais. Pour ceux qui sont les plus avancés (13 % seulement), la lutte contre la partialité des données et les mesures efficaces sont l’éducation et la formation, l’amélioration de la transparence et de la traçabilité des algorithmes et des données, l’augmentation du temps consacré à la formation, à la construction et à l’évaluation de modèles, et l’utilisation d’outils pour aider à localiser les biais dans les ensembles de données.
D’après l’étude, et malgré quelques succès, 77 % des personnes interrogées ont déclaré que leur organisation devait encore en faire plus pour comprendre les biais dans les données. Alors que les mesures efficaces qu’ils ont identifiées comprennent principalement les compétences, les pratiques et la formation. Interrogés sur ce qui leur manque,65 % considèrent la technologie et les outils technologiques comme le besoin le plus urgent pour mieux lutter contre les biais dans les données. Viennent ensuite le renforcement de la formation (59 %) et l’adaptation de la stratégie/vision de l’entreprise (49 %).