Malgré des incidents fréquents et coûteux, l’IA responsable reste sous-investie, alors qu’elle est perçue comme un levier de croissance par 78 % des dirigeants. L’étude souligne l’urgence pour les organisations d’adopter une approche proactive pour concilier innovation et gestion des risques.
L’adoption croissante de l’IA agentique expose les entreprises à des risques accrus, mais leur préparation reste largement insuffisante. Une étude récente d’Infosys, menée auprès de 1 500 cadres dans six pays, révèle que 95 % des organisations ont connu des incidents liés à l’IA au cours des deux dernières années. Pourtant, seules 2 % d’entre elles atteignent les standards d’excellence en matière d’IA responsable, laissant la majorité vulnérable face à des pertes financières et réputationnelles.
Les conséquences de déploiements d’IA mal encadrés sont lourdes : 77 % des entreprises subissent des pertes financières et 53 % voient leur réputation affectée. Les risques identifiés incluent les atteintes à la vie privée, les biais discriminatoires, la non-conformité réglementaire ou encore des prédictions erronées. Parmi les décideurs, 86 % estiment que l’IA agentique introduira de nouveaux défis de conformité et de sécurité.
Potentiel de croissance inédit et risques majeurs
L’étude distingue les « leaders en IA responsable », qui ne représentent que 2 % des entreprises, des autres organisations. Ces leaders, en appliquant des bonnes pratiques comme l’explicabilité des modèles, l’évaluation proactive des biais et une gestion rigoureuse des incidents, réduisent leurs pertes financières de 39 % et leurs dommages de 18 %. Leur approche proactive leur permet de transformer l’IA responsable en avantage concurrentiel.Pourtant, l’IA responsable est perçue comme un moteur de croissance par 78 % des dirigeants, et 83 % considèrent que les futures régulations stimuleront l’innovation. Malgré cela, les entreprises reconnaissent sous-investir de 30 % en moyenne dans ce domaine. L’écart entre la prise de conscience des enjeux et leur mise en œuvre concrète reste donc important.
Infosys recommande aux organisations d’adopter plusieurs mesures pour combler ce fossé. Il s’agit notamment de s’inspirer des leaders en IA responsable, d’allier agilité produit et gouvernance centralisée, et d’intégrer l’IA responsable dans des plateformes sécurisées.
La création d’un bureau dédié à l’IA responsable est également préconisée pour surveiller les risques et déployer des politiques à grande échelle. Jeff Kavanaugh, responsable de l’Infosys Knowledge Institute, souligne que les entreprises évoluent dans un environnement où l’IA offre un potentiel de croissance inédit, mais aussi des risques majeurs.
Selon lui, celles qui intègreront des garde-fous solides en matière d’IA responsable ne se contenteront pas de limiter les risques, mais ouvriront aussi de nouvelles sources de revenus. L’enjeu est donc de passer d’une approche réactive à une stratégie proactive pour prospérer à l’ère de l’IA agentique.