Néanmoins, le MIT Technology Review rapporte que 81 % des dirigeants pensent que l'Intelligence artificielle (IA) constituera un avantage concurrentiel majeur pour leur entreprise. Si l’élaboration d’un cadre légal au niveau européen est en cours, transmettre des valeurs morales et éthiques aux systèmes d'IA, en particulier dans des contextes de prise de décision aux conséquences importantes, constitue un défi.
L'IA représente une nouvelle frontière technologique qui a la capacité de transformer les industries, mais qui nécessite également un équilibre prudent entre innovation et responsabilité. Alors qu’elle continue d'évoluer, il est crucial de protéger les droits fondamentaux, notamment la vie privée.
Pour instaurer une gouvernance fructueuse de l'IA, il est essentiel de prioriser un cadre éthique et de bonnes pratiques dans toute l’entreprise. Ces mesures aident non seulement à se conformer aux réglementations, mais aussi à gérer les risques liés à l'IA, tels que les préjugés, la discrimination et les problèmes de confidentialité des données. La loi européenne sur l'IA, par exemple, vise à protéger contre les erreurs et les biais cognitifs tout en garantissant la protection des droits fondamentaux. En agissant de manière proactive pour répondre à ces enjeux, les entreprises renforcent la confiance de leurs clients et se positionnent en tant que leaders dans le développement responsable de l'IA.
L'IA et ses limites
L’IA a pour vocation d'accompagner les Hommes dans leurs prises de décisions, non pas de décider à leur place. Elle offre aux employés des informations, prévisions et recommandations pour les soutenir dans leur travail et dans leur productivité. En outre, elle leur permet de se concentrer sur des tâches plus stratégiques. Toutefois, les risques associés à l'IA varient selon les usages. Pour y faire face, les organisations ont tout intérêt à mettre en place des outils permettant aux développeurs d’évaluer s'ils travaillent sur un cas d'utilisation sensible et à haut risque. Des guides décrivant les étapes à suivre peuvent aussi être fournis afin d’atténuer les risques et éviter les conséquences involontaires, notamment en matière de biais, d’équité, d’explicabilité de validité et de fiabilité.L'importance de la collaboration et de l'expertise
Alors que les outils pilotés par l'IA deviennent de plus en plus complexes et que les cadres réglementaires évoluent rapidement, les entreprises doivent s'assurer qu'elles disposent de l'expertise adéquate au sein de leurs équipes. L'implication d'équipes interdisciplinaires et d'experts à différents niveaux hiérarchiques, tels que des développeurs de produits et d'ingénierie, des experts juridiques et des experts en politiques publiques, qui peuvent régulièrement fournir des contributions, est essentielle pour le développement du cadre de l'IA au sein des structures. Cette collaboration interdisciplinaire favorise une approche globale, où les divers points des parties prenantes sont considérés pour éviter les cloisonnements, et enrichir la gouvernance de l'IA. La force d'un bon programme implique le rassemblement de profils variés pour aborder les principaux défis éthiques et techniques.Par exemple, le CNRS, HuggingFace et LINAGORA se sont associés pour créer LLM4All, une initiative soutenue par l'Agence nationale de la recherche (ANR) française menée par un consortium d'acteurs stratégiques dans les domaines de la technologie et de la recherche. Ce projet vise à développer des modèles linguistiques multilingues à grande échelle (LLM) en intégrant des techniques de pointe et des applications concrètes adaptées aux contextes francophones. Son premier modèle, CLAIRE, est actuellement testé sur des ensembles de données « propres » afin de respecter les normes éthiques et juridiques en vigueur dans le cadre de la loi sur l'IA.
En Europe, la collaboration entre pairs, chercheurs et agences gouvernementales est particulièrement importante pour élaborer des cadres d'IA éthiques conformes à la loi sur l'IA. De l'autre côté de la mer Celtique, l’entreprise française Expleo, prestataire de services global en ingénierie, technologie et conseil, a investi 1 million d’euros pour lancer un centre d’excellence en IA réparti sur deux pôles dans les bureaux de Belfast et Dublin. L’ambition de ce centre est d’aider les entreprises à intégrer l’IA à des fins variées, de l’IA générative et de la détection des fraudes, à l’analyse prédictive et l’assurance qualité. Il pourra ainsi donner un point de départ pour leur parcours en matière d’IA.
Instaurer la confiance au sein de l'entreprise
La confiance est essentielle dans une adoption réussie de l'IA. Certains travailleurs, en particulier les plus jeunes, craignent que cette technologie ait un impact négatif sur leur carrière. En effet, selon une étude réalisée par Reworked Insights pour Zoom, 72 % des employés âgés de 18 à 24 ans perçoivent l'IA comme une menace pour leur emploi, contre 42 % de ceux âgés de 55 ans et plus. Par conséquent, les organisations doivent familiariser tous leurs collaborateurs avec la technologie, et adopter des stratégies de communication et de formation appropriées, qui préparent les équipes aux changements technologiques à venir. En outre, l'élaboration de plans de croissance pour les employés, comprenant l'identification de nouveaux rôles, l'amélioration des compétences et le recyclage, permet d'atténuer les craintes.Pour les entreprises qui développent et commercialisent les technologies d'IA, instaurer la confiance est essentiel. En effet, les clients n'adopteront ou n'utiliseront pas la technologie s'ils n'ont pas la certitude qu'elle a été conçue de manière responsable. Par conséquent, pour des raisons à la fois éthiques, morales et pratiques, il devient crucial de se concentrer sur de bâtir cette confiance dans les technologies d'IA.
L'impact de l'IA dépend largement de son utilisation, qui peut être aussi positive que néfaste, selon la manière dont les entreprises choisissent de l'exploiter. En ce sens, elles ont tout intérêt à établir des cadres éthiques et responsables pour encadrer l’usage de l’IA. Bien que la loi européenne sur l'IA ne soit pas encore pleinement applicable, les organisations doivent examiner les lignes directrices actuelles afin d'aligner leurs normes internes et anticiper les futures exigences.
Par Kevin Davoren, VP Technology chez IDA Ireland