La peur de passer à côté d’une technologie est le fait de 63 % des entreprises françaises qui intègrent l'IA dans leurs processus IT. Une étude d’Abbyy indique qu’en France, la confiance des entreprises dans l’IA serait de 77 % mais des experts du domaine questionnent sa rentabilité.

L’irruption de l’IA générative dans les champs économiques et médiatiques en novembre 2022 a placé l’IA en tête des enjeux pour les investissements des entreprises. L’enthousiasme des prestataires de solutions dans ce domaine est tempéré cependant par des investisseurs de premier rang dans la tech dont Sequoia Partners et Goldman Sachs. ABBYY, acteur notamment des produits d’OCR a mené une enquête en partenariat avec l’institut Opinium, auprès de 1 200 décideurs informatiques de six pays, France,
Royaume-Uni, États-Unis, Allemagne, Australie et Singapour.

Cette étude peut être lue de deux manières. L’une optimiste qui montre que la confiance des entreprises dans l’IA serait de 77 %. L’autre, plus mitigée, indiquant que plus de la moitié des dirigeants (55 %) reconnaissent que la pression de leurs clients constitue un facteur clé dans l’adoption de l’IA. La peur de rater le coche a un poids non négligeable sur les investissements dans l’IA avec 63 % des DSI français craignant que leur entreprise soit distancée si elle ne met pas en place l’intelligence artificielle.

Sans surprises, en France, les grands modèles de langage (LLM) sont perçus comme les plus dignes de confiance, à hauteur de 84 %, légèrement devant les petits modèles de langage (SLM), qui recueillent 80 % des suffrages.

En moyenne, les entreprises françaises toutes tailles confondues ont investi 811.000 euros dans l’IA au cours des 12 derniers mois ce qui témoigne d’un engagement plutôt modéré pour cette technologie. Fait notable, près d'un tiers (30 %) des dirigeants français se disent préoccupés par les coûts d’implémentation de l’IA.

Les risques et contraintes liés à l’IA

Parmi les résultats inattendus, l’enquête d’Abbyy cite en tête des inquiétudes des responsables IT, la mauvaise utilisation de l’IA par leurs propres équipes (38 %). Un avis qu’il convient de prendre avec du recul car il peut recouvrir de multiples réalités. Cette préoccupation devance celles liées aux coûts (30 %), aux idées reçues sur l’IA (30 %), au manque d’expertise (34 %) et au risque de non-conformité (31 %).

Une étude de Collibra, société spécialisée dans la collecte de données, pointait plus précisément les défis concernant la confidentialité des données, les risques de sécurité et l’utilisation éthique des technologies d’intelligence artificielle. La gouvernance des projets d’IA reste un sujet central. Une étude de Gartner mentionne aussi la partialité des algorithmes, des données ou des équipes chargées de les gérer.

Autre enjeu et pas des moindres, la sécurité et la confidentialité des documents traités par l’IA. Une IA générative est susceptible d’exfiltrer des données sensibles et personnelles à l’extérieur, au risque qu’elles soient divulguées publiquement.

Moins de la moitié des responsables IT ont établi des politiques de confiance en termes d’IA

En matière de confiance et d’utilisation éthique de l’IA, seulement 43 % des répondants affirment avoir établi des politiques internes de confiance en matière d’IA pour leurs équipes adhèrent. A ce sujet, 34 % des DSI se tournent vers des cabinets de conseil ou des organisations à but non lucratif pour obtenir des conseils.

Plus précisément, près de la moitié des répondants en France, soit 46 %, indiquent qu’ils se sentiraient plus confiants si leur entreprise adoptait une politique responsable en matière d’IA. L’usage de solutions de détection et de contrôle de la conformité de l’IA est perçue comme un facteur d’amélioration de la confiance pour 43 % des interrogés.