La promesse de l’IA de transformer les opérations commerciales et de catalyser l’efficacité est indéniable, mais elle s’accompagne de craintes légitimes. Les leaders technologiques expriment des inquiétudes profondes quant à la fiabilité des résultats de l’IA générative, les risques de non-conformité aux politiques internes et réglementations internationales, et les défis liés à la sécurité et à la confidentialité des données.
L’intégration de l’intelligence artificielle et de l’apprentissage automatique dans les processus d’affaires représente aujourd’hui une étape cruciale pour les entreprises souhaitant rester compétitives. Le marché est secoué par la vague de fond de l’intelligence artificielle dont les effets visibles sont une transition vers des modèles fonctionnels basés sur l’analytique et l’inférence, et une pile technologique aux exigences drastiques en termes d’infrastructures, d’applications et de sécurité.
Du fait de la complexité de cette pile, la transition vers des technologies plus avancées n’est cependant pas sans défis. Les organisations doivent surmonter des obstacles techniques complexes, garantir la sécurité des données et se conformer à des réglementations de plus en plus strictes. Ces difficultés sont exacerbées par la nature dynamique des environnements cloud et par la nécessité de s’adapter rapidement à de nouveaux paradigmes opérationnels.
L’IA facilite l’accès des non spécialistes aux technologies
Dynatrace, le spécialiste de l’observabilité et de la sécurité unifiées, vient de publier les résultats d’une enquête mondiale qui apporte un éclairage édifiant sur la manière dont les entreprises perçoivent et adoptent l’IA. L’étude, menée auprès de 1 300 chefs de la technologie (CTO), directeurs des systèmes d’information (DSI) et autres décideurs impliqués dans la gestion des opérations IT et DevOps, au sein de grandes organisations de plus de 1 000 employés.Les résultats globaux révèlent que 83 % des leaders technologiques voient désormais l’IA comme un outil indispensable pour naviguer dans la complexité des environnements cloud. De plus, 82 % d’entre eux considèrent que l’IA jouera un rôle clé dans la détection, l’investigation et la résolution des incidents et autres menaces sur la sécurité cyber. Parmi leur vision du futur, les répondants voient l’IA comme un facilitateur. Une large majorité, soit 88 %, s’attend à ce que l’IA démocratise l’accès à l’analyse des données aux les employés non techniques, grâce à des interfaces en langage naturel. Un pourcentage identique envisage des gains de rentabilité dans le cloud par l’adoption des pratiques FinOps.
Toutefois, ils expriment massivement des craintes concernant la sécurité et la confidentialité des informations confiées à l’IA : 93 % expriment des inquiétudes quant à l’utilisation non approuvée de l’IA, notamment avec la montée en puissance d’outils comme ChatGPT.
Accroissement attendu des investissements en IA pour le développement
En France, la situation est similaire, mais avec des nuances notables. Une proportion encore plus élevée de décideurs, 91 %, affirme que l’IA est cruciale pour l’adaptation aux environnements cloud dynamiques. La possibilité d’étendre l’accès à l’analyse de données à travers l’IA intéresse 90 % des répondants français. Cependant, 99 % d’entre eux sont préoccupés par les risques de biais, d’erreurs ou de diffusion d’informations incorrectes liés à l’IA générative. Ces craintes sont significatives, d’autant plus que 64 % des organisations ont déjà dû ajuster les compétences recherchées lors du recrutement en raison de l’impact de l’IA.L’étude révèle également des tendances globales des choix d’investissement et de perception des risques. Ainsi, 61 % des leaders technologiques prévoient d’augmenter leurs investissements en IA dans les 12 prochains mois, principalement pour générer automatiquement du code. Cependant, cette perspective est assombrie par la crainte, exprimée par 95 % des répondants, que l’IA générative puisse conduire à des fuites de propriété intellectuelle. De plus, 98 % des leaders technologiques s’inquiètent des potentiels biais et erreurs inhérents à l’IA générative.
Une stratégie composite pour atténuer les risques
En somme, l’augmentation des investissements en IA par 61 % des leaders technologiques, malgré les 95 % exprimant des craintes liées à la sécurité de la propriété intellectuelle, reflète une tension entre l’ambition d’innover et la nécessité de sécuriser les innovations. Car si l’étude de Dynatrace souligne l’importance cruciale de l’IA pour l’avenir des entreprises, tout en mettant en évidence les défis et les risques associés, elle propose toutefois une approche qui permettra aux entreprises d’atténuer l’effet de seuil que représente l’intégration de la pile technologique de l’IA.Le rapport préconise une approche « composite » de l’intégration de l’IA, combinant différents types d’intelligence artificielle et sources de données, pour enrichir et affiner les résultats. Cette stratégie, qualifiée de multidimensionnelle, « est essentielle pour exploiter pleinement le potentiel de l’IA tout en minimisant les risques de biais, d’erreurs et de
non-conformité », affirment les rédacteurs du rapport.
Cette approche permet d’harmoniser différentes formes d’IA (générative, prédictive, et causale) avec une variété de sources de données, englobant l’observabilité, la sécurité, et les événements business. En combinant ces éléments, les entreprises peuvent non seulement enrichir la précision, le contexte et la signification des aperçus générés par l’IA, mais également atténuer les risques et de maximiser la conformité. « Cette stratégie composite offre une voie prometteuse pour les organisations cherchant à exploiter pleinement les avantages de l’IA tout en naviguant avec prudence dans ses complexités ».