Le professeur Noel Sharkey, pionnier de l'IA robotique, diplômé de l’Université de Sheffield, est l’un des principaux chefs de file de la lutte contre les « robots tueurs » dans le monde. Il vient de demander à ce qu’une décision soit prise pour l’arrêt immédiat de l’utilisation des algorithmes qui décident de la vie d’une personne. Selon le chercheur, ces derniers manquent de fiabilité dans leur façon de prendre des décisions. Il va encore plus loin en demandant un moratoire sur chacun de ces types d’algorithmes. Il suggère que chacun d’entre eux soit testé de la même façon que les médicaments pharmaceutiques avant d’être mis sur le marché. Noel Sharkey a évoqué quelques problématiques inhérentes aux algorithmes de prise de décision sur la vie des personnes. Dans une interview accordée au Guardian, il déclare que les biais intégrés dans les algorithmes influencent les décisions lors des entretiens d’embauche à l’aide sociale, à l’immigration, et même dans les décisions de justice. Le chercheur a aussi cité des exemples de préjugés raciaux émis par les algorithmes. Cela touche, par exemple, l’attribution de l’allocation des soins de santé aux États-Unis. Il a aussi reconnu que s’il était auparavant contre une réglementation stricte sur l’utilisation des algorithmes qui ont un impact sur la vie des gens, il a changé d’avis. Désormais, il pense que certaines innovations technologiques ne devraient jamais voir le jour, ou du moins, devraient se voir imposées d’une réglementation très contraignante. Noel Sharkey aurait déjà partagé son avis avec les grandes entreprises technologiques comme Google et Microsoft, notamment sur les biais innés créés par ces algorithmes. Ces dernières seraient conscientes du problème, mais n’ont pas encore trouvé les solutions appropriées jusqu’ici.
Noel Sharkey a particulièrement remarqué le problème des préjugés des algorithmes de prise de décision dans la technologie des robots militaires autonomes, également appelés « robots tueurs ». Ces armes sont censées prendre des décisions toutes seules. Le chercheur pense que l’idée de concevoir une telle arme sans contrôle humain est dangereuse à cause, justement, de ces biais. Les robots utilisent principalement la technologie de reconnaissance faciale pour définir ses cibles. Par contre, la machine peine à reconnaître un visage au fur et à mesure qu’il a une teinte foncée. Cette IA réalise un taux de reconnaissance faciale de 98 % pour un individu blanc, sans barbe. Les résultats sont nettement moins qualitatif pour les femmes et les personnes à peau foncée. Un robot autonome pourrait éliminer un innocent à cause d’un algorithme de reconnaissance faciale défectueux. Selon Noel Sharkey, la production d’une arme autonome ne devrait même pas être planifiée.
À lire aussi : L’AI Index de Stanford University dévoile les progrès de l’intelligence artificielle, et montre l’engouement général