Déjà intégré à Amazon CodeWhisperer, Amazon Q Developer franchit une nouvelle étape en s’invitant désormais dans GitHub.com (en préversion) et dans les environnements de développement intégrés (IDE) compatibles avec AWS Toolkit. L’objectif est de proposer une expérience de codage pilotée par des agents IA, capables de répondre à des requêtes complexes, de générer des blocs de code à la volée, et aussi d’expliquer, de corriger ou de transformer des bases de code existantes, y compris celles héritées d’anciens langages
ou environnements.
AWS qualifie cette approche d’expérience de codage agentique : l’agent Q Developer ne se contente pas d’assister, il agit dans l’environnement à la place du développeur, en suivant des instructions en langage naturel. Il peut alors modifier plusieurs fichiers en parallèle, suggérer des plans de refonte, identifier des erreurs logiques ou proposer des tests, le tout dans une interface unifiée.
Un CLI enrichi par MCP pour automatiser les tâches DevOps
Parmi les cas d’usage les plus différenciants figure la modernisation des applications existantes. Grâce à sa nouvelle capacité de transformation, Amazon Q Developer peut, par exemple, réécrire du code Java hérité en Java moderne ou en Python, dans une logique de refactorisation semi-automatisée. L’agent est en mesure d’identifier des structures obsolètes, de proposer des alternatives plus performantes et de les appliquer à l’échelle de plusieurs fichiers. Cette fonctionnalité s’avère particulièrement précieuse alors que, selon IDC, plus de 70 % des applications en production dans les entreprises du Fortune 500 reposent encore sur des architectures anciennes, difficilement maintenables.En parallèle, AWS annonce l’extension de la ligne de commande Amazon Q Developer CLI, désormais interfaçable avec le **Model Context Protocol (MCP)**. Ce protocole ouvert, lancé par Anthropic, permet aux assistants IA d’interagir de manière sécurisée et structurée avec des outils, des sources de données et des API externes. Il repose sur une architecture client-serveur dans laquelle Amazon Q Developer CLI agit en tant qu’hôte MCP, capable de se connecter à des serveurs MCP légers exposant des outils spécifiques.
Par exemple, un serveur MCP peut fournir à l’agent IA des informations sur le schéma d’une base de données PostgreSQL, lui permettant de générer des requêtes SQL précises, de créer des tests unitaires adaptés ou de produire une documentation technique sans nécessiter de code d’intégration personnalisé. Cette capacité à injecter dynamiquement du contexte métier ou technique enrichi permet à Amazon Q Developer de s’adapter aux réalités spécifiques des organisations — secteurs régulés, chaînes DevOps complexes, environnements multicloud ou API métiers — tout en facilitant son adoption opérationnelle.
Cette ouverture est hautement stratégique pour AWS. Dans un marché encore en pleine structuration autour de l’automatisation assistée par IA, la prise en charge de MCP positionne Amazon Q Developer comme une plateforme interopérable et adaptable, à rebours des approches propriétaires verrouillées. En misant sur un protocole ouvert, AWS se rapproche des standards émergents d’une IA contextuelle, orchestrable et intégrable aux outils métiers existants — un atout considérable pour les entreprises soucieuses de garder la maîtrise de leurs flux.
Se différencier de Github Copilot et de Gemini Code Assist
Avec cette série d’annonces, AWS confirme sa volonté de rattraper son retard face à GitHub Copilot de Microsoft et à Google Gemini Code Assist, en insistant sur l’intégration profonde de ses agents IA dans l’environnement AWS. L’entreprise capitalise sur son ancrage cloud pour faire d’Amazon Q Developer un point d’entrée unifié pour le développement cloud et l’automatisation. Les annonces récentes dessinent une trajectoire claire vers une IA agissante, de plus en plus autonome.Une IA agissante ou agentique ne se contente plus de générer du contenu, mais prend en charge des actions complètes dans les outils métiers. En cela, Amazon Q Developer marque une évolution de l’IA générative vers une IA opérationnelle, capable d’automatiser des tâches de plus en plus complexes dans les environnements techniques.
Dans le cas présent, l’IDE ou la ligne de commande deviennent des interfaces d’activation d’un agent capable d’agir sur le code, de transformer des fichiers multiples et d’interagir avec d’autres services AWS (comme CodeCatalyst, Lambda ou CloudFormation). L’IA s’invite ainsi au cœur même du cycle de développement et d’intégration continue, et non plus à sa périphérie.
AWS pousse une IA plus orchestrée, centrée sur les tâches
Ce positionnement n’est pas anodin dans le paysage concurrentiel actuel. Microsoft, via GitHub Copilot et Copilot Workspace, bénéficie d’un avantage d’écosystème incontestable : l’éditeur contrôle à la fois GitHub, Visual Studio et Azure, et capitalise sur sa collaboration étroite avec OpenAI. Google, de son côté, articule Gemini Code Assist autour de sa plateforme Vertex AI, avec une orientation marquée vers la collaboration data-dev et la génération multilangages. Face à ces deux géants, AWS opte pour une posture moins centralisée, misant sur l’ouverture, l’extensibilité et l’intégration progressivedans les outils existants.
Cette orientation pourrait séduire les DSI et les responsables DevOps confrontés à la pression des délais, à la dette technique et à la pénurie de compétences. Mais elle pose aussi la question du contrôle, de la vérification du code généré et de l’orchestration sécurisée de ces nouveaux agents au sein des flux existants.