L’Union européenne a publié hier plusieurs législations concernant la manière dont les entreprises et les gouvernements devraient développer des applications éthiques de l’intelligence artificielle. Les règles traitent surtout sur les problèmes que pourrait rencontrer la société si l’IA serait intégrée dans le domaine des soins de santé, de l’éducation et des technologies grand public. L’UE a décidé de réunir un groupe de 52 experts pour la création des différentes mesures de fonctionnement des prochains systèmes d’Intelligence artificielle. Dans cette initiative, 7 exigences ont été soulevées. L’une des mesures indique que l’IA ne doit pas interférer avec l’autonomie humaine et qu’elle ne doit pas être utilisée pour manipuler les humains. L’IA doit également être précise et sûre. Cela implique que ses raisonnements soient fiables et qu’elle ne doit pas être facilement compromise par des attaques externes.
Les différentes mesures insistent aussi sur la transparence. Les données et les algorithmes ayant servi à créer le système doivent être accessibles et compris par des êtres humains. Les services fournis par l’IA devraient également être accessibles à tous sans prendre en compte de l’âge, du sexe, de la race ni d’autre caractéristique pouvant amener à la discrimination. Les autorités européennes ont aussi exigé que les systèmes d’Intelligence artificielle doivent être écologiquement responsables et que leurs utilisations puissent favoriser un changement social positif. Enfin, l’UE a spécifié que les dysfonctionnements des systèmes d’IA doivent être détectés et signalés à l’avance. Pour le moment, ces différents règlements ne sont pas juridiquement contraignants. Cependant, ils vont permettre aux autorités européennes de travailler sur la création de nouvelles législations futures.