Malgré leur volontarisme, les entreprises se heurtent à la complexité croissante de leurs infrastructures. Combinée à l’obsolescence des outils hérités et à un manque de gouvernance efficace, celle-ci freine l’adoption de technologies pourtant prometteuses. 

L’introduction des technologies d’intelligence artificielle dans les systèmes informatiques a considérablement accru leur complexité pour plusieurs raisons. Certes, l’introduction de l’IA générative dans les processus métier a révolutionné de nombreux secteurs, de l’automatisation des tâches à la création de contenu personnalisé. Toutefois, ces technologies, bien qu’elles apportent des capacités nouvelles, introduisent également des défis techniques et organisationnels spécifiques à gérer.

Les entreprises doivent désormais composer avec une multitude d’outils, de systèmes et de processus, souvent fragmentés, ce qui nuit à leur capacité à tirer pleinement parti des technologies comme l’IA. Une étude de Dataiku met en évidence cette fragmentation, avec 60 % des responsables qui utilisent plus de cinq outils différents pour mener à bien les processus analytiques, du traitement des données jusqu’à l’application des modèles d’apprentissage machine et des modèles de langage. Cette complexité, loin de s’alléger, tend à s’accroître, créant des goulets d’étranglement dans l’efficacité opérationnelle.

Un écosystème « alambiqué », à base de pipelines

Cette complexité est l’un des facteurs favorisant le décalage entre les ambitions des organisations et leur capacité à déployer ces technologies à grande échelle. Bien que 73 % des responsables informatiques prévoient d’investir plus de 500 000 euros dans l’IA générative au cours des 12 prochains mois, et que 46 % envisagent d’y consacrer plus d’un million d’euros, la mise en œuvre effective de ces investissements pose de nombreux défis. Cela reflète une tendance générale dans les infrastructures informatiques modernes : qui deviennent de plus en plus complexes, au point que les organisations peinent à en assurer une gestion efficace et sécurisée.

Les systèmes d’IA, notamment les modèles d’apprentissage machine et d’apprentissage profond, nécessitent des volumes de données colossaux pour s’entraîner et fonctionner de manière optimale. Cela implique la mise en place de pipelines de données sophistiqués, de l’ingestion à la préparation, en passant par le nettoyage, la transformation et l’enrichissement des données. Chaque étape ajoute une couche de complexité supplémentaire. Les entreprises doivent gérer des flux de données continus, tout en garantissant leur qualité et leur intégrité, ce qui s’avère être un défi important.

L’inadéquation des outils hérités avec les besoins de l’IA

Selon une étude de Forbes Insights, 83 % des organisations considèrent la gestion des données comme le principal défi pour leurs initiatives d’IA. Ces pipelines doivent en outre s’intégrer avec les systèmes existants, souvent hérités, créant des goulets d’étranglement. Par conséquent, il n’est pas étonnant que l’un des points soulevés par cette étude soit l’inadéquation des outils utilisés par les entreprises avec les besoins modernes en matière d’analytique et d’IA. Près de 44 % des responsables déclarent que leurs outils de données ne répondent plus à leurs attentes, tandis que 43 % estiment que leurs infrastructures analytiques sont dépassées. De plus, 88 % des répondants reconnaissent ne pas disposer d’outils ou de processus adaptés pour exploiter efficacement les modèles de langage, qui sont pourtant au cœur des avancées récentes en IA.

Cette situation est exacerbée par un manque de gouvernance et de contrôle des utilisateurs. En effet, 74 % des responsables IT utilisent encore des tableurs pour des analyses rapides, alors même que 62 % d’entre eux admettent que ces outils ont provoqué des erreurs majeures. Cela illustre la difficulté rencontrée par les entreprises pour moderniser leurs systèmes, tout en assurant une gouvernance rigoureuse de leurs données et de leurs processus.

La qualité des données en question

Qui plus est, les défis liés à la qualité des données persistent, malgré l’augmentation du nombre d’outils pour les traiter. Selon l’étude, 45 % des responsables IT considèrent que la qualité et l’« exploitabilité » des données constituent leur principal obstacle, tandis que 27 % évoquent la difficulté d’accès à ces données. « Le fait que tant d’entreprises peinent encore à garantir la qualité des données en dit long sur la complexité de l’écosystème technologique moderne », s’étonnent les rédacteurs de l’étude. Ce problème est d’autant plus préoccupant que la qualité des données est essentielle pour le succès des initiatives en IA, en particulier pour entraîner des modèles complexes comme les LLM.

Un autre constat frappant de l’enquête est le désir des responsables IT de rationaliser leur écosystème technologique. Près de 71 % d’entre eux souhaitent réduire le nombre d’outils utilisés afin de gagner en efficacité. Cette volonté de simplification témoigne de la surcharge technologique à laquelle les entreprises sont confrontées, ce qui complique l’intégration, la maintenance et l’évolution de leurs infrastructures. Il devient de plus en plus évident que pour exploiter pleinement le potentiel de l’IA et des technologies associées, les entreprises doivent revoir leur approche et adopter des plateformes plus intégrées, comme celles proposées par Dataiku, qui permettent de centraliser les processus analytiques et d’améliorer la gestion des flux de données.

Un « choc de simplification » est nécessaire

Malgré une volonté manifeste d’adopter des solutions d’IA générative et de moderniser les systèmes analytiques, les entreprises se heurtent à la complexité croissante de leurs infrastructures. Cette complexité, combinée à l’obsolescence des outils hérités et à un manque de gouvernance efficace, freine l’adoption de technologies pourtant prometteuses. Le « choc de simplification » appelle à une refonte des architectures actuelles pour les rendre plus flexibles, modulaires et centrées sur l’IA.

Il s’agit de simplifier les architectures d'IA pour accélérer leur adoption et mieux les exploiter en réduisant les silos technologiques, en intégrant des solutions prêtes à l'emploi et en harmonisant les différents pipelines : de données. Ceci permet non seulement de réduire les coûts, mais aussi d'améliorer la gouvernance des données et d'accélérer les cycles d'innovation. Cela implique de repenser la modularité des infrastructures, d'adopter des standards ouverts et de faciliter l'interopérabilité entre différents outils et services cloud, afin de maximiser la valeur ajoutée de l'IA tout en minimisant les frictions technologiques.

Certes, les fournisseurs s’efforcent de proposer des solutions préconstruites et intégrées, mais elles ne représentent qu’une infime couche dans le millefeuille technologique moderne. « Il est clair que des efforts substantiels doivent encore être fournis pour rationaliser et unifier les systèmes afin de garantir un retour sur investissement à la hauteur des ambitions », conclut l’étude. En effet, les fournisseurs qui parviendront à orchestrer cette simplification dans des infrastructures simplifiées s’aménageront un avantage compétitif décisif dans l’économie numérique de demain.