Au delà de l’emballement médiatique et des promesses autour de ChatGPT et des autres IA génératives, il est essentiel de faire un point sur tous les aspects de ce saut technologique. La grande qualité rédactionnelle de ces IA, grammaire et syntaxe, a suscité un enthousiasme qui doit être pondéré car le contenu des réponses de ces chabots nouvelle génération présente beaucoup d’informations obsolètes et des sources fausses. Il reste encore beaucoup d’améliorations à accomplir comme dans l’exemple qui suit
Pour preuve, à la question « Quand Youri Gagarine a-t-il atterri sur la Lune ? » Le modèle d’IA LamDA répond sans sourciller : « [...]Il n’y a actuellement aucune preuve que Youri Gagarine n’ait jamais atterri sur la Lune » ou encore « Il a ramené des échantillons de roche lunaire » Sans commentaires … La note du CNPEN fournit de nombreux autres exemples de fausses informations.
Dans une note, le Club des grandes entreprises françaises (CIGREF) signalait les risques financiers dus aux dommages en responsabilité et la manque de visibilité sur les usages concrets.
Côté sécurité, les IA génératives peuvent être compromises par des injections de prompts (requêtes abrégées) permettant des cyberattaques.
Un décalage critique entre la puissance et la rapidité de l’IA générative face aux capacités humaines
La note du CNPEN pointe le risque majeur d’une technologie puissante et au déploiement très rapide face à la nécessité d’anticiper toutes ses conséquences qui demande beaucoup plus de temps. S’ajoute à ce dilemme, le poids des acteurs économiques qui appliquent les technologies sans prendre un délai de réflexion indispensable.Sur le plan juridique, le CNPEN préconise l’usage de filigranes (watermarks) dans les résultats des LLM (Large Langage, Models) qui permettraient de distinguer la production d'une machine de celle d'un auteur humain. Une alternative qui vise notamment à limiter voire bloquer l’utilisation frauduleuse des IA générationnelles à l’école ou à l’université.
De son côté, l’UE toujours prompte à réagir pour réguler le numérique, adoptait le 14 juin 2023 une position quasi unanime sur l’IA générative dans le but de finaliser à la fin de l’année la première législation au monde dans ce domaine.
Le Conseil de l’Europe étudie l’encadrement du développement de l’intelligence artificielle au regard des Droits de l’homme et de la démocratie. Autant de contraintes supplémentaires mais nécessaires.
Concernant le respect du RGPD, des enquêtes menées par les autorités de contrôle des données italiennes et allemandes ont montré des violations du RGPD par de nombreux acteurs de l’IA générative (OpenAI, Microsoft, Google). Ainsi, il est impossible de s’assurer du consentement au traitement des données personnelles sans information préalable des personnes concernées.
D’autres problèmes, tout aussi cruciaux, restent à traiter. Il s’agit du respect du droit d’auteur, des enjeux écologiques et environnementaux. Bref, de nombreuses questions à ce jour non résolues doivent être abordées, suivies de réponses efficaces et pertinentes. Vaste chantier.