La Commission européenne veut créer les conditions propices au développement de l’IA et à son adoption en définissant des paliers de risques allant du Risque minime au Risque inacceptable.

Comme elle l’avait fait pour le règlement pour le respect du droit à la vie privée, la Commission européenne a fait une série de propositions de règlement sur l’intelligence artificielle. « Ce cadre législatif cible des usages critiques bien précis et se veut suffisamment large pour ne pas entraver l’innovation. Sa vocation est de devenir un modèle pour d’autres initiatives dans le monde, tout comme le RGPD », explique la Commission.

Elle veut donner un cadre juridique qui définit les règles d’utilisation de l’IA. Il s’agit de faire face aux risques spécifiques liés aux systèmes d’IA. Ces règles constitueront l’ensemble de normes le plus strict au monde, affirme le communiqué de la Commission. Les nouvelles règles, fondées sur une définition de l’IA à l’épreuve du temps, seront directement applicables dans tous les États membres. Elles suivent une approche fondée sur les risques qui sont définis par Risque inacceptable et Risque élevé.

Des risques inacceptables ou élevés

Les systèmes d’IA jugés comme présentant un Risque inacceptable seront interdits. Ils concernent tout système d’IA considéré comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes. Il s’agit notamment des systèmes ou applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les États.

Les systèmes d’IA à Risque élevé, la Commission leur impose des « obligations strictes » pour pouvoir être mis sur le marché. Ces systèmes comprennent :

  • les technologies d’IA qui sont utilisées dans les infrastructures critiques (par exemple les transports) et sont susceptibles de mettre en danger la vie et la santé des citoyens ;
  • les technologies d’IA utilisées dans l’éducation ou la formation professionnelle, qui peuvent déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple, la notation d’épreuves d’examens) ;
  • les technologies d’IA utilisées dans les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot) ;
  • les technologies d’IA utilisées dans le domaine de l’emploi, de la gestion de la main d’œuvre et de l’accès à l’emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement) ;
  • les technologies d’IA utilisées dans les services privés et publics essentiels (par exemple, l’évaluation du risque de crédit, qui prive certains citoyens de la possibilité d’obtenir un prêt) ;
  • les technologies d’IA utilisées dans le domaine du maintien de l’ordre, qui sont susceptibles d’interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve) ;
  • les technologies d’IA utilisées dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières (par exemple, la vérification de l’authenticité des documents de voyage) ;
  • les technologies d’IA utilisées dans les domaines de l’administration de la justice et des processus démocratiques (par exemple, l’application de la loi à un ensemble concret de faits).