Un cadre pour une IA responsable
Selon une enquête récente, 35 % des entreprises françaises utilisent déjà des solutions d’IA, et parmi celles-ci, 72 % signalent une amélioration de leur productivité globale. Pour encadrer ces usages en pleine croissance, l’AI Act s’appuie sur une approche de classification des risques. Celle-ci répartit les systèmes d’IA en quatre catégories principales : d’une part le risque inacceptable qui interdit des systèmes comme la notation sociale ou certaines formes de surveillance de masse.Le risque élevé, quant à lui, impose des obligations strictes telles que l’établissement d’un système de gestion des risques, la gouvernance de données d'entraînement, et la surveillance humaine. En France, des secteurs comme la santé, l’éducation et la sécurité publique sont directement concernés par ces exigences. Enfin, le risque limité qui nécessite des obligations de transparence, et le risque minimal qui n’est pas couvert par cette loi.
Les défis pour les entreprises françaises
Pour les entreprises, notamment les PME, la mise en conformité avec l’AI Act représente un défi considérable. Les développeurs d’IA à haut risque devront non seulement s’assurer de la qualité des données utilisées, mais aussi fournir une documentation détaillée sur les systèmes déployés. Cette documentation doit inclure plusieurs éléments.Tout d’abord une cartographie précise des risques liés à l’utilisation de l’IA, la mise en place de mécanismes de supervision humaine pour les décisions automatisées et une traçabilité des algorithmes pour garantir la transparence. Des initiatives comme les "regulatory sandboxes" ("bacs à sable réglementaires") offrent toutefois un soutien important aux startups et PME. Ces espaces contrôlés permettent d’innover tout en testant des solutions dans un cadre sécurisé et conforme aux exigences légales.
La qualité des données, un enjeu central
La gestion des données constitue l’un des piliers de l’AI Act, tant en termes de qualité que de respect des droits liés à l'accès et à l’utilisation des données d’entraînement, de validation mais aussi des données de sorties générées par l’IA. Les entreprises doivent donc garantir que les données utilisées pour entraîner leurs modèles sont non biaisées, traçables et conformes au RGPD et au droit d’auteur. Cette exigence est critique dans des secteurs comme la finance ou le secteur public, où des biais algorithmiques pourraient entraîner des discriminations au moment, par exemple, de l’octroi de crédits ou d’accès aux prestations sociales.En outre, pour assurer la protection de la vie privée, la CNIL détaille certaines actions à suivre par les développeurs de systèmes d’Intelligence Artificielle. Ces derniers doivent intégrer dès leur conception les principes de protection des données personnelles (« privacy by design ») pour garantir une gestion et un suivi rigoureux des données d’apprentissage.
La confiance, levier stratégique pour l’innovation
Outre la qualité, la confiance des utilisateurs, consommateurs mais aussi entreprises est un enjeu crucial. En imposant des règles strictes et détaillées, l’AI Act a pour objectif de renforcer cette confiance, en particulier dans les secteurs sensibles. Par exemple, dans le domaine de la santé où un soignant sur deux intègre les technologies d’IA dans sa pratique, des solutions transparentes et sécurisées sont essentielles pour garantir la sécurité des patients.En parallèle, l’Europe mise sur des labels de qualité et des certifications pour différencier les entreprises respectueuses des normes. Ces initiatives pourraient permettre aux entreprises françaises de se positionner comme partenaires de confiance sur un marché mondial de l’IA estimé à 500 milliards de dollars d’ici 2028, soit une multiplication par quatre par rapport à la taille du marché estimée en 2023.
Anticiper pour réussir l’intégration
Pour les entreprises et les organisations, se préparer à l’entrée en application de l’AI Act est primordial. Une approche qui passe par plusieurs étapes. Tout d’abord, elles doivent réaliser un inventaire des systèmes pour identifier les systèmes d’IA soumis à des obligations spécifiques. Elles doivent également assurer la formation des équipes afin de sensibiliser les collaborateurs aux enjeux juridiques et techniques. Par ailleurs, une collaboration stratégique est essentielle. Elle consiste à choisir des partenaires de confiance, au fait des exigences légales, tout au long de la chaîne de développement et l’usage. Enfin, les organisations doivent investir dans des outils de conformité afin d’utiliser des solutions technologiques permettant de garantir le suivi et la conformité.Au-delà des obligations juridiques, l’AI Act est une opportunité pour les opérateurs européen de définir un cadre éthique et responsable autour de l’intelligence artificielle. Les entreprises doivent anticiper les changements et transformer ces obligations en leviers stratégiques pour rester compétitives et innover. En capitalisant sur les valeurs de qualité, de sécurité et de confiance, la France pourrait devenir un leader dans le développement d’une IA responsable, inscrivant ainsi le pays comme un acteur clé dans l’écosystème de l’IA européen et potentiellement mondial.
Par Kalliopi Spyridaki, Chief Privacy Strategist, EMEA & Asia Pacific chez SAS