La Commission européenne a récemment présenté une série de mesures visant à « mettre l'intelligence artificielle au service des Européens et à renforcer la compétitivité de l'Europe dans ce domaine ».

La Commission propose une approche en trois volets pour « accroître les investissements publics et privés dans l'IA, se préparer aux changements socio-économiques et assurer un cadre éthique et juridique approprié ».

Présenté par un groupe d'experts mandatés par la Commission, les propositions pour une intelligence artificielle digne de confiance fait suite à la publication de la première ébauche des lignes directrices en décembre 2018, et sur laquelle plus de 500 commentaires ont été reçus dans le cadre d'une consultation ouverte.

Les lignes directrices proposent un ensemble de sept critères clés auxquels les systèmes d'IA doivent satisfaire pour être jugés dignes de confiance. Une liste d'évaluation spécifique vise à aider à vérifier la mise en œuvre de chacun de ces critères :

1Liberté de décision humaine et surveillance

Les systèmes d'IA devraient permettre aux êtres humains de prendre des décisions en connaissance de cause et de promouvoir leurs droits fondamentaux. Dans le même temps, des mécanismes de contrôle appropriés doivent être mis en place, ce qui peut se faire par le biais des approches Human-in-the-loop, Human-on-the-loop et Human-in-command.

2Robustesse technique et sécurité

Les systèmes d'IA doivent être résilients et sécuritaires. Ils doivent être sûrs, et permettre de garantir un plan de repli en cas de problème et être précis, fiables et reproductibles. C'est la seule façon de s'assurer que les dommages non intentionnels peuvent être minimisés et évités.

3Vie privée et gouvernance des données

Outre le respect de la vie privée et de la protection des données, des mécanismes adéquats de gouvernance des données doivent également être mis en place, en tenant compte de la qualité et de l'intégrité des données, et en garantissant un accès légitime aux données.

4Transparence

Les données, le système et les modèles économiques de l'IA doivent être transparents. Des mécanismes de traçabilité peuvent y contribuer. En outre, les systèmes d'IA et leurs décisions devraient pouvoir être expliqués d'une manière adaptée à l'intervenant concerné. Les humains doivent savoir qu'ils interagissent avec un système d'IA et être informés des capacités et des limites du système.

5Diversité, non-discrimination et équité

Les préjugés injustes doivent être évités, car ils pourraient avoir de multiples répercussions négatives, allant de la marginalisation des groupes vulnérables à l'exacerbation des préjugés et de la discrimination. Favorisant la diversité, les systèmes d'IA devraient être accessibles à tous, indépendamment de tout handicap, et impliquer les parties prenantes concernées tout au long de leur cycle de vie.

6Bien-être de la société et de l'environnement

Les systèmes d'IA devraient profiter à tous les êtres humains, y compris les générations futures. Il faut donc veiller à ce qu'ils soient durables et respectueux de l'environnement. En outre, ils doivent tenir compte de l'environnement, y compris des autres êtres vivants, et leur impact social et sociétal devrait être soigneusement examiné.

7Responsabilisation

Des mécanismes devraient être mis en place pour assurer la responsabilité et l'obligation de rendre compte des décisions des systèmes d'IA et de leurs résultats. L'« auditabilité », qui permet d'évaluer les algorithmes, les données et les processus de conception, y joue un rôle clé, notamment dans les applications critiques. En outre, une réparation adéquate et accessible devrait être assurée.

Source : UE