Microsoft franchit une étape vers l' agentique avec Copilot Cowork et un bundle E7 à 99 dollars par utilisateur mensuel qui intègre nativement les modèles Claude d'Anthropic. La firme de Redmond restructure son modèle de monétisation autour des agents IA, repositionnés comme unités de travail licenciables, dans un mouvement qui préfigure un marché du recrutement d'agents spécialisés et redéfinit en profondeur les conditions d'adoption de l'IA générative en entreprise.
Microsoft veut poser les fondations d'une économie des agents, et d'en écrire les règles avant que les régulateurs ne s'en mêlent. Publiée le 9 mars 2026 par Charles Lamanna, président Business Applications & Agents, l'annonce Copilot Cowork traduit une ambition qui dépasse la mise à jour produit : Microsoft entend modifier le statut contractuel et opérationnel des agents IA dans l'entreprise. L'agent ne serait plus un outil activé à la demande, mais une entité licenciée, dotée d'une identité, de permissions auditables et d'une capacité d'action autonome sur les systèmes de l'organisation, au même titre qu'un collaborateur humain dispose d'un accès Active Directory. Charles Lamanna formule explicitement cette analogie : un agent IA se recrute comme un employé, avec une licence par tête. Agent 365, facturé 15 dollars par utilisateur mensuel, en est le premier avatar. Une organisation de 1 000 personnes pourrait ainsi déployer 10 000 agents, chacun générateur de revenus récurrents pour Microsoft, un marché adressable sans commune mesure avec le modèle de monétisation par licence humaine.
Le concept de repositionnement repose sur une réalité de terrain : une utilisation extensive du service, mais peu d’abonnements. Sur les 450 millions d'utilisateurs entreprise de Microsoft 365, environ 3 % seulement souscrivent à Copilot. Ce ratio reflète une résistance au modèle de licence additionnelle à 30 dollars par utilisateur mensuel, perçu comme un surcoût difficile à justifier sans cas d'usage démontré en production. Le bundle E7 à 99 dollars élimine ce blocage par la structure tarifaire : en intégrant Copilot, Agent 365 et les capacités de sécurité avancées, Defender, Intune, Purview, Entra Suite, dans une offre indissociable disponible au 1er mai 2026, Microsoft propose un paquet qui rend l'IA agentique attractive pour toute organisation qui renouvelle ou fait évoluer son contrat. La mécanique est identique à celle qui a imposé Teams face à Slack entre 2019 et 2021, mais les enjeux financiers et juridiques sont d'une autre échelle.
La gouvernance des agents comme produit autonome
La composante Agent 365, facturée 15 dollars par utilisateur mensuel, n'est pas un outil de productivité supplémentaire. C'est ce que Microsoft désigne comme le "plan de contrôle des agents", une couche de gouvernance centralisée permettant aux équipes IT et sécurité d'observer, d'auditer et de restreindre les actions des agents déployés dans l'organisation. Chaque agent dispose d'une identité, de permissions-habilitations calquées sur celles des utilisateurs humains, et d'un journal d'actions soumis aux politiques de conformité Microsoft 365. La logique reproduit exactement ce qu'Azure Active Directory fait depuis quinze ans pour les identités humaines, appliquée cette fois à des entités non humaines capables d'agir.
Cette architecture a une conséquence directe pour les RSSI : la surface d'attaque et le périmètre de responsabilité s'élargissent proportionnellement au nombre d'agents actifs. Un agent autorisé à modifier des calendriers, à rédiger et envoyer des emails ou à compiler des données financières depuis des fichiers Excel génère des actions auditables mais aussi des vecteurs de risque nouveaux, erreur d'exécution, escalade de privilèges, fuite de données entre espaces de travail. Agent 365 vend la réponse à un problème que Microsoft contribue à créer en déployant Cowork. Judson Althoff, directeur commercial de Microsoft, a présenté E7 comme une réponse à la demande des clients qui "ne veulent plus assembler des outils séparés mais une solution de confiance" — un cadrage qui gomme cette tension sans la résoudre.
Un marché de l’emploie pour agents spécialisés
Au-delà du bundle E7, Microsoft construit simultanément l'infrastructure d'un marché de distribution d'agents verticaux. Copilot Studio permet déjà à des éditeurs tiers de développer des agents spécialisés et de les publier dans le Microsoft 365 Marketplace, un agent de traitement des notes de frais, un agent de qualification de leads CRM, un agent de veille réglementaire NIS 2, certifiés par Microsoft, déployables par abonnement mensuel. Microsoft perçoit une commission sur chaque transaction, entre 3 et 15 % selon les conditions en vigueur. Avec des agents facturés à l'unité et renouvelés mensuellement, le revenu récurrent par client croît sans que Microsoft n'ait à développer lui-même la verticalisation sectorielle.
La mécanique est celle de l'App Store appliquée au travail : la plateforme certifie, gouverne et monétise, l'éditeur tiers développe la spécialisation, l'entreprise cliente recrute l'agent comme elle souscrirait un abonnement SaaS. Les segments les plus immédiatement adressables sont ceux où la tâche est répétitive, le contexte documentaire dense et la valeur du gain de temps élevée, juridique (analyse contractuelle), finance (reporting, réconciliation), RH (onboarding, gestion des accès), cybersécurité (triage d'alertes SOC, qualification de CVE). Le risque structurel pour Microsoft est la désintermédiation : un éditeur comme ServiceNow ou Salesforce peut construire ses propres agents, les distribuer hors Marketplace et contourner la commission. Agent 365 doit donc devenir suffisamment indispensable comme infrastructure de gouvernance pour que même les agents tiers passent par ses mécanismes de contrôle, condition nécessaire à la pérennité du modèle.
Une architecture multimodèle calculée
Le choix technique le plus significatif de l'annonce réside dans la mention explicite d'Anthropic. Microsoft indique avoir travaillé avec Anthropic pour intégrer la technologie sous-jacente à Claude dans Microsoft 365 Copilot, et formule ce choix comme un avantage concurrentiel : Copilot "n'est pas limité par une marque de modèles et choisit le modèle adapté à la tâche, indépendamment de son origine". Le positionnement est une attaque directe contre les stratégies mono-fournisseur de Google (Gemini) et d'OpenAI, et confirme que la guerre de l'IA d'entreprise se jouera sur l'orchestration plutôt que sur la supériorité d'un modèle unique.
Pour les architectes IT, cette déclaration a des implications de gouvernance concrètes. L'orchestration des tâches dans Cowork repose sur un routage dynamique entre modèles — potentiellement GPT-4o pour certains traitements, Claude pour d'autres — sans que l'utilisateur final n'en soit informé ni ne puisse le configurer. La traçabilité du modèle utilisé pour une action donnée, de sa version et de ses conditions d'utilisation spécifiques devient un enjeu que le cadre contractuel actuel de Microsoft 365 ne documente pas encore explicitement. Dans les secteurs soumis à des obligations de traçabilité algorithmique — finance, santé, secteur public — cette opacité constitue un point de vigilance que les DSI devront inscrire dans leurs politiques d'usage avant tout déploiement en production.
La responsabilité juridique repose sur l'entreprise cliente
Cowork exécute des actions dans la vie réelle. Il accepte et décline des réunions, envoie des emails, modifie des fichiers partagés, compile des données issues de sources internes et externes. Ces actions s'opèrent sous l'identité de l'utilisateur qui a délégué la tâche. Les conditions d'utilisation Microsoft 365 en vigueur transfèrent la responsabilité des actions effectuées via les outils de la suite à l'organisation qui les déploie — le cadre juridique ne change pas avec les agents, mais son exposition pratique s'amplifie considérablement dès lors que la chaîne de causalité entre une instruction humaine et une action système devient difficile à documenter et à contester.
Ce flou entre "l'agent a agi" et "l'entreprise a agi via l'agent" n'est pas une anomalie transitoire, c'est le terrain sur lequel Microsoft, avant les régulateurs, est en train d'écrire les règles. Les DSI qui déploient Cowork en production devront définir des politiques d'habilitation des agents aussi précises que celles qui régissent les accès humains, cartographier les actions autorisées par profil d'agent, et documenter les procédures de révocation. Sans ce cadre, toute organisation expose ses processus critiques à des incidents dont la cause sera difficile à attribuer, et dont la responsabilité, contractuellement, lui incombera intégralement.























