Initialement conçus pour aider dans des tâches générales de génération de texte, les LLM évoluent désormais vers des applications plus spécialisées, répondant aux besoins spécifiques de domaines tels que la programmation logicielle et la gestion de la chaîne d’approvisionnement numérique.

L’intégration de l’intelligence artificielle dans la chaîne d’approvisionnement numérique, le développement (Dev), la sécurité (Sec) et les opérations (Ops), marque la prochaine étape de l’évolution de la fonction développement dans les entreprises. AIDevSecOps symbolise ainsi une fusion naturelle tant l’intelligence artificielle apparaît comme une composante transformatrice dans tous les aspects du cycle de vie du code.

AIDevSecOps symbolise donc une nouvelle ère où l’intelligence artificielle assiste, y compris de manière proactive, les développeurs non seulement dans le développement de logiciels, mais aussi dans la sécurisation et l’exploitation de ces systèmes. Cette spécialisation marque une étape significative dans l’évolution de l’intelligence artificielle — passant d’outils polyvalents à des solutions ciblées qui peuvent non seulement comprendre et générer du code, mais également anticiper et résoudre des problèmes complexes dans le cycle de développement logiciel.  

Automatiser et optimiser les processus, de la planification à la livraison

Cet essor des LLM spécialisés présente un potentiel considérable pour transformer le paysage de la programmation et de la gestion des processus logiciels. Les développeurs sont maintenant équipés d’outils qui non seulement accélèrent la création de code, mais qui fournissent également des analyses et des suggestions basées sur un vaste corpus de connaissances programmées. De même, dans le domaine de la chaîne d’approvisionnement applicatif, ces modèles offrent une opportunité sans précédent d’automatiser et d’optimiser les processus, de la planification à la livraison, en passant par la maintenance des logiciels.

Cette transition vers des LLMs spécialisés ouvre des horizons passionnants pour l’avenir du développement logiciel et de la gestion de la chaîne d’approvisionnement. Elle pose également de nouveaux défis, tels que la nécessité de gérer les coûts associés à ces technologies avancées, de garantir la sécurité des systèmes alimentés par l’IA, et de maintenir un équilibre entre l’automatisation et l’expertise humaine. Dans ce contexte, l’exploration de l’impact et des implications de ces LLM spécialisés est non seulement pertinente, mais aussi essentielle pour anticiper les transformations à venir dans le monde technologique.

Selon les experts de Cloudbees, face à cette complexité grandissante, plusieurs aspects devront être particulièrement surveillés, alors que l’essor de l’IA et des LLM se poursuivra et demandera de nouveaux outils pour simplifier l’expérience des développeurs.  

Le développement en 2024 en trois mots : DevSecOps et Platform Engineering

« La capacité des entreprises à optimiser les outils et l’énergie déployés lors du développement des applications devient un véritable différentiateur. Avec le temps, elle sera aussi importante que la sécurité. De nos jours, les quantités colossales de données, de calcul et de stockage, bien souvent gaspillées par les applications, sont encore peu contrôlées. Si des réglementations ont déjà été promulguées dans l’Union européenne, la réponse reste une combinaison de meilleures pratiques et de technologie. Et les concepts de DevSecOps et de platform engineering s’avèrent essentielles pour les mener à bien. » François Dechery, co-fondateur et sponsor exécutif de la plateforme unifiée.  

Le développement des LLM exige un contrôle de leur coût

« Des outils de plus en plus sophistiqués basés sur le LLM émergent depuis 2022, y compris pour la création de logiciels. Comme l’indique la dénomination de “copilote” qui leur a été attribuée, le développeur garde un rôle primordial puisqu’il ajuste et personnalise l’output afin qu’il soit conforme à ses besoins. Avec le développement des modèles LLM contextualisés, des solutions non plus “copilote”, mais “pilote” apparaîtront. Ils ne se limiteront ainsi plus à proposer des changements, mais les appliqueront en s’appuyant sur des tests de sécurité et de stabilité du produit pour s’assurer qu’il s’agit de changements appropriés. Cela va rapprocher les développeurs de la production basée sur l’IA et nous pourrons ainsi imaginer la naissance d’un rapport “humain/IA” comme mesure de la réussite et de la fiabilité d’un tel “pilote”.

Toutefois, en se sophistiquant, ces solutions deviennent également plus coûteuses. Un système d’IA mature capable de créer de grandes quantités de code et susceptible d’exécuter des centaines, voire des milliers (ou plus) de demandes de ce type par heure, pourrait donc devenir beaucoup plus coûteux. Tant qu’il n’y a pas de diminution de ce côté-là, ces solutions “co-pilotes” doivent faire l’objet d’un contrôle budgétaire renforcé », Sacha Labourey, co-fondateur et directeur de la stratégie.  

La prochaine étape du Software Delivery résidera dans le Machine Learning

« En 2023, le boom de ChatGPT a placé le Machine Learning au cœur des débats. En 2024 et au-delà, l’accent devrait être mis sur la façon dont le ML peut apporter de la valeur au client et des résultats commerciaux concrets. L’accent sera moins mis sur la taille des modèles que sur ces résultats commerciaux et les coûts de formation. Alors que l’IA générative et les LLM ont attiré la curiosité du public, les entreprises feront évoluer le ML vers des solutions adaptées à des cas d’utilisation spécifiques.

Au cours des dix dernières années, le Software Delivery a grandement bénéficié de la généralisation de l’automatisation. Dans les années à venir, le ML continuera d’aider les entreprises à améliorer leur vitesse de livraison et à fournir de meilleurs logiciels avec une plus grande efficacité. Ainsi, les entreprises qui n’ont pas encore automatisé leur Software Delivery, qui ne mesurent pas encore leur flux de valeur et qui n’envisagent pas le ML pour l’hyperautomatisation et l’optimisation, peineront à prospérer parmi la concurrence », Rich Sharples, vice-président Produit.

Des processus de développement automatisés et propulsés par l’IA

« L’amélioration de la productivité des développeurs sera une priorité absolue pour les entreprises. Traditionnellement, les entreprises utilisent des indicateurs tels que DORA pour la mesurer, mais aujourd’hui, les outils basés sur l’IA comme GitHub Copilot, deviennent la norme. De nombreux développeurs devraient donc adopter ces outils, qui accéléreront également le processus de développement du code.

Des perspectives nouvelles s’ouvriront alors dans le domaine du Software Delivery. De la création du code à son déploiement, chaque étape sera méticuleusement orchestrée par des outils pilotés par l’IA. Les processus entièrement automatisés les utilisant pour créer, stocker, tester et déployer dans l’environnement cible deviendront la nouvelle norme », Seetharam Param, vice-président Ingénierie.  

La sécurité intégrée aux pratiques DevOps pour s’adapter à l’augmentation du volume de code

« L’augmentation du code généré par l’IA provoquera nécessairement une hausse importante du volume de code généré, et ce alors que les menaces pour les entreprises évoluent rapidement. Les fournisseurs de solutions de sécurité devront donc innover rapidement pour saisir cette opportunité et accroître leur part de marché (sécuriser l’IA avec l’IA). Nous assisterons donc à un changement de paradigme dans les stratégies avec une intégration fluide de la sécurité dans les pratiques DevOps. Celle-ci deviendra un élément par défaut pour rester compétitifs », Gayatri Prakash, vice-président Compliance.