Dans un marché en expansion et où des fournisseurs de tous horizons affluent, les risques inhérents à l’IA vont au-delà de l’explicabilité et l’éthique. Pour les éviter, les entreprises doivent collaborer avec des experts en IA de confiance et à se méfier des promesses exagérées ou trompeuses.

L’intelligence artificielle est aujourd’hui un moteur essentiel de l’économie numérique et porteuse de beaucoup d’espoirs de croissance dans de nombreux secteurs. L’adoption de l’IA générative et des LLM est en croissance rapide dans de nombreux secteurs, offrant des avantages significatifs en termes d’efficacité, de personnalisation et d’innovation. Cependant, il est important que les entreprises adoptent des pratiques responsables en matière d’IA pour minimiser les risques éthiques et réglementaires associés à ces technologies.

En effet, l’utilisation de l’IA n’est pas sans risques. Les préoccupations éthiques, telles que le biais algorithmique, la transparence et l’explicabilité, ainsi que la protection de la vie privée, sont de plus en plus au centre des préoccupations. De plus, les entreprises peuvent être confrontées à des coûts opérationnels plus élevés, à une surveillance réglementaire accrue et à des retards de mise sur le marché en raison de mesures inappropriées en matière d’IA responsable.

Dans ce contexte, l’étude menée par le cabinet Enterprise Strategy Group (ESG) pour Qlik sur l’application de pratiques responsables en matière d’intelligence artificielle dans divers secteurs met en lumière la nécessité urgente de mettre en place des pratiques responsables en la matière. Cette étude intervient dans un contexte où l’intégration de l’IA dans les processus métier devient de plus en plus complexe, nécessitant une collaboration transversale entre secteurs et une utilisation transparente de l’IA.

Un décalage entre l’investissement et la stratégie

Selon l’étude, l’adoption de l’IA est généralisée, avec 97 % des entreprises interrogées qui s’y intéressent activement et 74 % qui utilisent déjà des technologies d’IA générative en production. Cependant, l’étude révèle un décalage entre l’investissement et la stratégie.

Bien que toutes les entreprises interrogées investissent activement dans l’IA, et que 61 % y consacrent un budget substantiel, les décideurs semblent bien plus intéressés par son ROI qu’effrayés par ses risques : 74 % des répondants admettent ne pas avoir d’approche stratégique globale en faveur d’une IA responsable. C’est un grand classique de l’histoire de la transformation numérique : l’urgence est de mettre en production, pour les risques « on verra après ».

L’étude identifie également plusieurs défis en matière de pratiques d’IA éthiques. Une écrasante majorité d’entreprises (86 %) disent éprouver des difficultés à rendre les systèmes d’IA transparents et explicables, soulignant ainsi le besoin urgent de solutions capables de détailler les voies par lesquelles l’IA a donné telle ou telle réponse. Pire encore, la conformité semble inatteignable, puisque 99 % des entreprises rencontrent des obstacles pour se conformer aux réglementations et normes applicables en matière d’IA.

Lorsque la complexité de la réglementation rencontre celle de l’algorithmie, c’est comme chercher la sortie d’un labyrinthe qui se reconfigure constamment. Malgré ces défis, trois entreprises sur quatre (74 %) considèrent l’IA responsable comme une priorité absolue. Dommage que l’étude ne nous dise pas à quelles contraintes sont soumises ces entreprises pour avoir une telle urgence.  

Des conséquences qui peuvent être cumulatives

Par ailleurs, une IA mal implémentée peut conduire à des conséquences qui peuvent être cumulatives. Plus d’un quart des organisations interrogées ont été confrontées à une augmentation des coûts opérationnels, une surveillance réglementaire accrue et des retards de mise sur le marché en raison de mesures inappropriées en matière d’IA responsable.

De plus, il faut bien choisir son fournisseur. Le marché de l’IA est en expansion et attire des acteurs dont ce n’est pas la spécialité, ou, pire, peu scrupuleux, qui peuvent faire des promesses exagérées ou trompeuses concernant les capacités de l’IA, ce qui peut entraîner des attentes irréalistes et une perte de confiance dans la technologie.

L’étude souligne également le rôle proactif des services informatiques et le large éventail de parties prenantes impliquées dans la prise de décision en matière d’IA. Cela met en évidence la nécessité d’adopter des approches inclusives et collaboratives dans le déploiement et la gouvernance de l’IA éthique.

Les conclusions de l’étude soulignent l’importance pour les entreprises de donner la priorité à l’IA responsable, non seulement pour se conformer aux réglementations émergentes, mais aussi pour renforcer la confiance et l’inclusivité dans les innovations assistées par l’IA. En mettant en lumière les risques et les bénéfices de l’IA, ainsi que les pratiques responsables à adopter, cette étude constitue une ressource précieuse pour les entreprises qui cherchent à tirer parti de l’IA tout en minimisant les risques associés.