Le deuxième volet du règlement européen est entré en vigueur le 2 aout, mais il fait face à la pression intense des différents lobbies. Il comprend de nouvelles obligations pour les LLM à usage général. Un code de bonnes pratiques a été édicté en juillet par l’UE pour prévenir les violations des droits fondamentaux et les atteintes au droit d'auteur.

Frein à l’innovation pour les géants du numérique et les grands acteurs de l’IA, mais
garde-fou indispensable pour l’Europe et les autorités de régulation, l’AI ACT est officiellement entré en vigueur le 1er août 2024. Son application se fera progressivement jusqu’en 2027, selon le type de système d’IA concerné. Bien noter que la Commission pourra sanctionner les nouveaux modèles dès 2026 et les IA existantes à partir de 2027. Avec des amendes qui pourront atteindre jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial du contrevenant.

Avec la forte montée en puissance des capacités des IA et leur intrication dans tous les secteurs d’activité immatérielle, il est à prévoir que ces règlements devront évoluer dans les cinq ans à venir. Ne serait-ce que pour les encadrer eu égard à l’opacité du fonctionnement des LLM.

La mise en application de l’AI ACT et du Code de bonnes pratiques suppose que les organisations mettent en place une véritable gouvernance de l’IA. À la clé, les entreprises et institutions devront constituer des équipes dans les domaines du juridique, de la sécurité et des solutions et méthodes de traitement de la donnée. Autre impératif, le respect de l’éthique devra aller au-delà des actions de communication et de marketing visant surtout à améliorer l’image des organisations.

Les lobbies sont à la manœuvre pour réduire le champ d’application de l’AI ACT

La France n’est pas l’État européen le plus engagé dans la régulation du champ d’action des IA, c’est un euphémisme. Cédric O ex-secrétaire d’État au numérique et qui occupe le rôle de conseiller en affaires publiques de Mistral AI dont il est le cofondateur, a beaucoup œuvré auprès de l’UE pour réduire la portée de l’AI ACT.

Concernant le code de bonnes pratiques, OpenAI, Google et Mistral AI l’ont signé après un intense lobbying, mais pas Meta. Ce texte européen est censé assurer la transparence des LLM, respecter le droit d'auteur et garantir la sécurité des modèles. Corporate Europe Observatory (CEO) et LobbyControl affirment que les géants technologiques ont bénéficié d'un accès privilégié à la rédaction du code de bonnes pratiques. Ce qui explique sans doute qu’ils acceptent une version amendée du texte.

Sans surprises, l’AI ACT et le code de bonnes pratiques suscitent de fortes critiques de la part de plus de 45 grandes entreprises européennes qui souhaitaient repousser de deux ans le second volet du règlement. Leurs arguments rappellent ceux des autres lobbies économiques qui pointent la complexité et les redondances de la législation sur l’IA. Parmi les grandes entreprises qui ont signé une lettre publique dans ce sens figurent Airbus, Mercedes-Benz, Philips et l’acteur néerlandais de puces électroniques ASML.

Donald Trump, peu connu pour ses déclarations nuancées, accuse l'UE de "violer la souveraineté américaine" avec ses règlements de régulations de l'intelligence artificielle.

Dirk Schrader, Field CISO EMEA chez Netwrix, met l’accent sur la pression réglementaire croissante sur la supply chain et les tiers en mentionnant le risque d’explosion du nombre de prestataires de services spécialisés dans la mise en conformité de l’IA. En particulier, il engage les entreprises à se méfier des prestataires qui ne disposent d’aucune compétence technique approfondie pour assurer la conformité.