ChatGPT très médiatisé depuis fin 2022 est la partie visible et concrète des recherches menées sur l’Intelligence artificielle depuis plusieurs années. Son irruption rapide dans le champ professionnel impose une profonde réflexion sur les stratégies à mettre en place dans les grandes entreprises. La note du CIGREF (Club des grandes entreprises françaises) apporte sa pierre dans un domaine prometteur qui reste encore à défricher et expérimenter. Toutes les organisations craignent de passer à côté des bénéfices attendus des IA génératives mais il est clair qu’il faut aussi envisager les nombreux risques et la sécurité. A noter, alors qu’au début de l’année, les dirigeants de Google, Deepmind, OpenAI et d'autres startups de l’IA ont signé une très courte déclaration en forme d’alerte sur ses risques, le CIGREF ne préconise pas de pause à la mise en application de ces IA. En bref, il ne conseille pas de gérer avant tout les risques et la sécurité.
Au premier lieu, les organisations préconisent d’évaluer la maturité de l’ensemble des équipes sur les données et les IA afin d’adapter au mieux la communication et la formation à mettre en œuvre. ChatGPT exige l’entraînement des LLM (Large Language Machine) avec des corpus de données de l’entreprise. Côté formation, plusieurs entreprises ont déjà mis en place des modules sur les systèmes d’IA générative et sur les nouvelles tâches. Il s’agit, notamment, d’apprendre à formuler les bonnes requêtes (prompt), explorer et trier les données et avoir une vision sur les risques.
La tache est immense car il faut mettre en place des processus pour industrialiser des cas d’usage préalablement identifiés, sensibiliser à un usage prudent et raisonné, intégrer dès le début l’étude de l’impact environnemental et faire un état des lieux des solutions et des fournisseurs. Vaste programme.
Des promesses alléchantes mais des risques induits
Fidèle à sa réputation de régulateur mondial législatif sur le numérique, l’UE, via le Parlement européen a adopté le 14 juin 2023, une position quasi unanime sur l’intelligence artificielle pour finaliser à la fin de l’année la première loi au monde dans le domaine de l’IA. Elle imposerait, notamment, des règles strictes pour les cas d’usages à haut risque. Il faudra donc que les entreprises se mettent en conformité.La liste des risques potentiels de l’IA est copieuse. Côté dépendance, la note du Cigref cite notamment le manque de transparence des systèmes d’IA et l’exposition au risque d’intelligence économique. Sur le plan technique, il faut prendre en compte les biais de l’IA générative, les contenus générique redondants et insipides et la saturation des équipements en local. Concernant les usages économiques, la note pointe les risques financiers dus aux dommages en responsabilité et la manque de visibilité sur les usages concrets.
Autre point de vigilance, le volet sur les compétences humaines reprend le problème de la pénurie de profils qualifiés et la non-maitrise des données utilisées en termes de qualité. Sans compter le retard technologique possible faute de suivre les avancées techniques rapides.
La note du CIGREF ne tranche pas un débat qui n’en est qu’à ses prémisses mais elle donne une vision intéressante de l’étendue des enjeux et trace d’utiles pistes de réflexion.