Après le fort engouement autour de ChatGPT et du générateur d’images DALL-E, suivis par les initiatives de Google et de Microsoft, ce type d’IA commence à peine à être assimilé et intégré au SI des organisations privées ou publiques. Beaucoup d’entreprises sont cependant très circonspectes sur les risques de l’IA générative.

L’IA générative représente un saut très significatif dans le domaine de l’intelligence artificielle car elle permet à des utilisateurs non-experts de la mettre en œuvre via des requêtes (prompts en anglais) pour créer du contenu textuel, graphique ou du code informatique. Pour ne citer que ChatGPT, les résultats s’approchent beaucoup du langage naturel humain mais cette proximité ne doit cependant pas faire illusion. La pertinence des résultats dépend fortement du volume, de la qualité des données utilisées par les modèles d’apprentissage et de la précision des requêtes effectuées par les utilisateurs. L’étude d’Enterprise Technology Research (ETR), une société d'études de marché dans le domaine de la technologie mandatée par Qlik, éditeur de solutions d’analyse et intégration des données, montre une adoption encore peu mature par les entreprises. Comme toujours, il faut pondérer cette étude, au-delà du plaidoyer pro-domo mais les résultats restent néanmoins intéressants. En préalable, Qlik prévient que la qualité des réponses de l’IA générative reflètent le corpus d’informations qui l’alimentent. Avant tout chose, les entreprises doivent trier et catégoriser les données dont elles disposent pour alimenter correctement les modèles de travail de l’IA.

Selon l’étude, 79 % des organisations ont acquis un outil d’IA générative ou investi dans un projet, 39 % ont formalisé une stratégie, 36 % d’entre elles ont une stratégie et ont investi dans ce domaine. Curieusement, 44 % des répondants ont investi mais n’ont pas de stratégie. Comment dans ces conditions obtenir des résultats efficaces et pertinents ?

Concernant les usages, 86 % des responsables IT interrogés s’en servent pour l’analyse des données, 70 % pour l’intégration dans un chatbot, la moitié l’utilise pour la création de code et 46 % pour la création de contenu, principalement du texte. Côté budget, 59 % des répondants consacrent un budget spécifique à l’IA générative.

Les freins : législation sur les données, cybersécurité et manque de ressources humaines

Les contraintes réglementaires telles que le RGPD et le prochain règlement sur l’intelligence artificielle (AI Act) qui pourrait être effectif en 2024 préoccupe 32 % du panel de l’étude. L'IA générative devra se conformer aux exigences de transparence et il faudra, en particulier, indiquer que le contenu a été généré par une IA, concevoir un modèle qui ne publie pas de contenu illégal, publier des résumés des données utilisées et protégées par le droit d'auteur.

La cybersécurité est une préoccupation qui concerne la même proportion (32 %) de répondants. Les possibilités pour les pirates sont nombreuses qui vont de la création de courriels de phishing crédibles jusqu’aux deepfakes qui concernent surtout le clonage réaliste de la voix.

Enfin, et ce n’est pas une surprise, 23 % de l’échantillon interrogé pointe la pénurie de profils seniors spécialisés dans l’IA.

Noter que beaucoup d’entreprises sont très circonspectes sur les risques de l’IA générative. Dans cet article sur les dangers de l’IA générative, IT SOCIAL mentionnait récemment une étude de OnePoll pour BlackBerry indiquant que 82 % des entreprises françaises envisagent d’interdire l’usage de ChatGPT et autres applications.