Au coeur des débats sur l'intelligence artificielle, émerge souvent la perspective d'un avenir où chaque individu, avec le soutien de l'IA, pourrait devenir surhumain et acquérir la maîtrise parfaite de n'importe quelle profession.
Une vision qui repose toutefois sur l'interprétation individuelle du terme "IA". Des outils tels que ChatGPT, DALL-E ou Descript ont parfois été qualifiés ; à tort, de systèmes intelligents capables de réflexion autonome. En réalité, il s'agit plutôt de vastes ensembles de données doués de capacités analytiques et algorithmiques, communément désignés sous le nom de modèles linguistiques de grande envergure (LLM). Sans être des solutions magiques, les LLM sont des outils puissants susceptibles d'enrichir et d'optimiser les compétences humaines, en particulier dans le domaine du développement de logiciels.
Il est universellement reconnu, dans les communautés de développeurs, que ces outils revêtent une importance cruciale et apportent une valeur considérable aux entreprises. Ils peuvent réviser des lignes de code en proposant des suggestions de modification, automatiser la complétion de scripts et de playbooks, voire contribuer à l'efficacité des tests et au débogage de programmes. Dans le domaine du développement de logiciels, plus particulièrement dans le cadre du DevOps, les LLM sont sur le point de révolutionner les pratiques. Ils offrent une opportunité unique d'améliorer les performances et la productivité en accélérant le processus de développement tout en réduisant les risques d'erreurs. Ainsi, grâce à ces modèles linguistiques, les développeurs peuvent davantage se concentrer sur les aspects complexes et créatifs de leur travail.
WatsonX, une plateforme de données enterprise ready qui intègre des fonctionnalités avancées de LLM, est un exemple qui permet d’illustrer les capacités d'analyse de vastes volumes de données, en extrayant des informations pertinentes pour des prises de décisions plus éclairées, d’évaluation plus précise des risques et de résolution plus rapide des problèmes. Elle a la capacité d'apprendre des incidents antérieurs, anticipant ainsi les problèmes futurs et améliorant la fiabilité et l'efficacité des opérations DevOps. De plus, elle permet aux développeurs d'acquérir des connaissances à partir d'incidents passés, de révisions de code et de journaux système, favorisant ainsi l'amélioration continue de leurs compétences et de leurs performances.
Ces modèles de LLM sont incontournables pour démystifier le jargon technique, rendant ainsi les communications plus accessibles aux parties prenantes non techniques. Ils peuvent trier les messages, y compris les alertes et les notifications, en fonction de leur compréhension du langage et du contexte. Ils apportent également une contribution précieuse à la création, à la maintenance et à la recherche de documentation, facilitant ainsi un partage de connaissances plus performant. Les LLM joueront un rôle central dans l'optimisation de la collaboration et de la communication, deux aspects cruciaux du DevOps.
Néanmoins, le développement rapide de ces solutions peut engendrer de la confusion. Sélectionner de façon avisée un outil implique au préalable une évaluation minutieuse de ses mérites et de sa compatibilité avec les systèmes existants. Il est tout aussi essentiel d'aborder avec précaution les questions relatives à l'origine des ensembles de données d'apprentissage et à leur souveraineté. Ainsi, faire le meilleur choix devient de plus en plus complexe et nécessite l'expérience de développeurs chevronnés, rompus à de telles situations.
Durant la dernière décennie, le paysage des développeurs a été marqué par des changements significatifs, avec l'émergence de concepts tels que les conteneurs, les micro-services, le déploiement continu et l'infrastructure en tant que code (IaC). Aujourd'hui, contrairement à l’image rendue par les médias, les développeurs sont conscients que l'avènement de l'IA et des LLM ne représente pas une révolution totale ni un bouleversement radical. Il s'agit plutôt d'une nouvelle étape, d'une avancée technologique qui nécessite une gestion prudente et attentive pour en tirer le meilleur parti.
Les compétences d'IA, et plus précisément les LLM, trouvent leur pleine efficacité lorsqu’elles sont maniées par des experts dans leurs domaines respectifs. Les bénéfices potentiels sont considérables. Cette approche dégagerait les équipes DevOps de leurs tâches redondantes, leur permettant de se consacrer pleinement à des initiatives innovantes.
Pour conclure, le réel défi lié à l'IA ne réside pas dans une appréhension excessive de voir les machines se substituer aux humains mais plutôt d'une compréhension erronée des capacités et des limites de l'IA et des LLM. En outre, l'idée qu'une IA, ou un outil prétendant l'être, puisse remplacer un professionnel DevOps expérimenté, est aussi insensée que d'imaginer qu'un enfant puisse décrocher le prix Pulitzer grâce à ChatGPT. Le DevOps représente une entreprise complexe qui requiert la synergie de l'IA avec l'intelligence et la sensibilité émotionnelle. Par conséquent, la stratégie la plus efficace ne réside pas dans le remplacement des êtres humains, mais dans leur coexistence avec l'IA, en capitalisant sur les atouts de chaque intervenant pour obtenir des résultats optimaux.
Markus Eisele, Developer Tools Strategy and Evangelism, Red Hat
Tribunes par thématique DevOps Comment les modèles de langage de grande taille peuvent-ils révolutionner les opérations...