Des assistants vocaux aux maisons intelligentes, en passant par les publicités super-ciblées sur les sites web, l'intelligence artificielle envahit peu à peu notre quotidien. Avec des investissements mondiaux qui devraient atteindre 232 milliards de dollars d'ici 2025, et des investissements actuels de près de 12,5 milliards de dollars, le marché de l'IA est appelé à croitre rapidement au cours des prochaines années. Mais cette technologie peut-elle continuer à se développer sans contrôle ?

Alors que l’IA passe de la théorie à la pratique, le manque d’une règlementation pour garantir que la technologie soit utilisée de manière responsable et que la vie privée des consommateurs soit protégée devient un sujet majeur. Le 21 avril dernier, la Commission Européenne a publié ses propositions en matière de régulation de l’intelligence artificielle, en classant les IA en 4 catégories selon leurs risques. Néanmoins, ces propositions ne sont pas encore mises en place, puisqu’elles nécessitent encore d’être validées par le Parlement européen et les États membres.

Règlementer pour innover

À ce jour, l'IA n'a fait qu'effleurer la surface et les possibilités de croissance et d'adoption de cette technologie sont presque infinies. Alors que l'IA recueille de plus en plus de données, que ce soit au niveau personnel, mais aussi au niveau des autorités locales, nationales ou mondiales, une règlementation équilibrée permettrait de mieux protéger la vie privée des consommateurs tout en donnant à l'industrie la possibilité d'innover.

Les entreprises ont leur rôle à jouer dans cette course à l’innovation en adoptant une approche globale pour répondre aux préoccupations en matière de vie privée, plutôt qu'une approche fragmentaire. Leur rôle est de s'assurer qu'elles travaillent dans un cadre éthique en l’attente d’une règlementation claire sans avoir les mains liées, pour continuer à fournir des services innovants aux utilisateurs. Concrètement, elles doivent pouvoir garantir qu’une application d'IA ne soit développée sans biais sexiste ou racial ni sans risques liés à la sécurité ou à la surveillance de masse. En l'absence de toute règlementation ou norme, de nombreuses entreprises technologiques ont cherché à créer leur propre code d'éthique, ou règlementation, qui guide leur développement de l'IA. En 2018, Google a publié ses propres principes d'IA pour aider à guider le développement et l'utilisation éthiques de la technologie. Mais sans un cadre règlementaire plus large, les entreprises restent libres de choisir comment elles développent leurs systèmes d'IA.

Il convient alors d'emprunter une voie délicate en adoptant une législation nuancée qui garantit le bien commun sans paralyser l'innovation. Elle doit également obliger à réfléchir aux effets secondaires à long terme de l'IA pour les forcer à envisager les problèmes futurs qui pourraient survenir dans un an, une décennie ou un siècle. Toutefois, comme l'IA n'en est qu'à ses débuts, il y aura beaucoup d'autres propositions de plans, d'initiatives et de règlementations avant que nous n'y arrivions. En théorie, le "Partenariat mondial sur l'IA"[1] est une bonne idée, car les coalitions mondiales peuvent fonctionner - il suffit de considérer l'accord de Paris sur le climat comme un exemple. Mais il est important de trouver un équilibre et les gouvernements devront rester attentifs aux excès de la règlementation. Une coalition mondiale permet des discussions à long terme au fur et à mesure que la technologie se développe. Il ne s'agit pas d'une solution unique.

Par Angelica Reyes, Directrice marketing de l’Europe et du Royaume-Uni chez Freshworks


[1]https://www.economie.gouv.fr/lancement-partenariat-mondial-intelligence-artificielle#