Microsoft qualifie Copilot de produit de divertissement. Ils vous facturent 99 $/mois.
Enfouie dans les Conditions d’utilisation de Copilot de Microsoft se trouve une phrase qui mérite d’être lue deux fois :
Copilot is for entertainment purposes only. It can make mistakes, and it may not work as intended. Don’t rely on Copilot for important advice. Use Copilot at your own risk.
Ce n’est pas un brouillon oublié. Les archives des conditions d’utilisation montrent cette formulation à travers plusieurs versions — c’est la position juridique de Microsoft depuis le début. L’entreprise qui diffuse des publicités pleine page sur la « productivité dopée à l’IA » a discrètement demandé à ses avocats de classer le produit comme un jouet.
Un commentateur sur Hacker News a trouvé l’analogie parfaite : « Le nouveau “à usage de tabac uniquement” de la tech. »
L’abonnement de divertissement le plus cher de la tech
La tarification de ce produit de divertissement est devenue un paysage à elle seule :
| Formule | Prix | Ce que vous obtenez |
|---|---|---|
| Copilot Chat | Gratuit | Chat web basique, inclus avec M365 |
| Copilot Pro | 20 $/mois | Fonctionnalités de productivité individuelle |
| Copilot Business | 18 $/mois (promo), 21 $ standard | PME jusqu’à 300 utilisateurs |
| Copilot Enterprise | 30 $/mois | Organisations de grande taille |
| Copilot Studio | 200 $/pack/mois | Création d’agents personnalisés |
Ce que la page de tarification dissimule : chaque formule payante requiert une licence Microsoft 365 de base séparée — de 6 à 57 $ par utilisateur et par mois en plus. Le coût réel de Copilot sur le poste d’un seul employé en entreprise se situe entre 36 et 87 $ par mois.
Netflix coûte 15,49 $. Spotify, 11,99 $. Disney+, 13,99 $. Les trois tiennent leurs promesses et aucun ne porte la mention « à des fins de divertissement uniquement » — parce qu’ils n’en ont pas besoin. Ce sont de vrais produits de divertissement.
Copilot coûte deux à six fois plus. Et c’est le seul dont les Conditions d’utilisation ne peuvent pas garantir qu’il n’enfreindra pas les droits d’auteur de quelqu’un.
Le paradoxe marketing-juridique
Sur la page entreprise de Copilot, des affirmations audacieuses : « 100%+ Projected ROI with potential payback in 10 months. » Plus bas : « 8+ hours of projected time savings per user per month. »
Sur les Conditions d’utilisation, en majuscules :
WE DO NOT MAKE ANY WARRANTY OR REPRESENTATION OF ANY KIND ABOUT COPILOT.
Les deux pages appartiennent à Microsoft. Les deux sont en ligne en ce moment. Une seule est un document juridique qui tiendrait devant un tribunal.
Comme l’a formulé l’utilisateur Hacker News andy81 : « La seule chose claire dans ce contrat de licence, c’est qu’il contredit tout le reste du marketing de Microsoft sur Copilot. Soit ce document est frauduleux, soit tous les autres chez Microsoft commettent une fraude quotidiennement. »
Ça va plus loin. Plus tôt cette année, Microsoft a tenté de supprimer les avertissements IA des réponses Copilot dans M365, invoquant la « distraction » des utilisateurs. Cinq jours et un tollé plus tard, ils ont fait marche arrière. L’avertissement « sera toujours visible », ont-ils déclaré — admettant implicitement que ces mentions sont structurelles, pas cosmétiques.
Pourquoi « divertissement » est exactement le point central
Ce n’est pas de la rédaction bâclée. C’est de l’architecture — de l’architecture juridique.
En classant Copilot comme divertissement, Microsoft se protège contre les réclamations en responsabilité produit. Si Copilot hallucine un chiffre financier dans votre présentation au conseil, génère du contenu qui enfreint les droits d’auteur de quelqu’un, ou donne à votre employé un conseil dangereusement erroné — c’est votre problème. Vous aviez été prévenu. Vous avez utilisé un produit de divertissement pour un travail sérieux.
Le chercheur en sécurité Reed Mideke a résumé parfaitement : « Microsoft n’a aucune idée de comment stopper l’injection de prompt ou les hallucinations, ce qui le rend fondamentalement inapte à tout usage sérieux. La solution ? Transférer la responsabilité à l’utilisateur. »
Cela place les acheteurs en entreprise dans une position impossible. L’équipe marketing vend Copilot comme une infrastructure essentielle. L’équipe juridique le qualifie de jouet. Quand quelque chose tourne mal — et avec l’IA, quelque chose tourne toujours mal — un seul de ces documents comptera devant un tribunal.
96,7 % des utilisateurs sont d’accord
Le marché a voté. Seuls 3,3 % des utilisateurs de Microsoft 365 paient réellement pour Copilot — 15 millions de licences sur plus de 450 millions. Parmi ceux qui ont payé, à peine un tiers l’ont activé. Parmi les organisations ayant mené des pilotes, seules 5 % sont passées à un déploiement plus large.
Relisez ces chiffres : 96,7 % de la base installée M365 a regardé Copilot et a dit non.
La réponse de Microsoft a été de la panique déguisée en stratégie. Ils ont réduit le prix business à 18 $ (promotionnel, expire en juin 2026). Ils ont inséré des boutons Copilot dans le Bloc-notes, Paint et l’Explorateur de fichiers — jusqu’à ce que les utilisateurs se plaignent et que les fonctionnalités soient retirées. Le cours de l’action Microsoft a chuté de 15 % début 2026 alors que les investisseurs se lassaient « des dépenses massives en capital pour l’IA qui n’ont pas encore produit une explosion proportionnelle des revenus. »
Comme nous l’écrivions lors de la baisse de prix : un Copilot moins cher ne résoudra toujours pas votre problème d’IA. Le problème n’a jamais été le prix. C’est ce qu’il y a derrière.
Copilot Cowork : l’aveu à 99 $
Quand votre propre IA est juridiquement classée comme divertissement, que faites-vous ? Vous achetez celle de quelqu’un d’autre. Deux fois.
Rappelons les faits : Microsoft détient 27 % d’OpenAI — une participation de 135 milliards de dollars construite sur 13 milliards d’investissement. Copilot a été construit sur les modèles d’OpenAI. Microsoft est le plus grand actionnaire externe d’OpenAI. Et pourtant — quand il a fallu construire une IA qui agit réellement au lieu de générer du texte — ils ne sont pas allés chez OpenAI. Ils sont allés chez Anthropic.
En mars 2026, Microsoft a lancé Copilot Cowork — leur entrée dans l’IA agentique. Sauf que Microsoft n’a pas construit la technologie agentique, et n’a pas non plus utilisé son investissement de 13 milliards dans OpenAI. Ils l’ont licenciée auprès d’Anthropic, une entreprise totalement distincte, pour environ 500 millions de dollars par an.
Le blog de Microsoft lui-même était remarquablement candide : « Working closely with Anthropic, we have integrated the technology behind Claude Cowork into Microsoft 365 Copilot. » Relisez — la technologie derrière Claude Cowork. Pas inspirée de. Pas similaire à. La technologie elle-même.
Le prix de cette capacité empruntée : Copilot Cowork est intégré dans la nouvelle suite M365 E7 « Frontier Worker » à 99 $ par utilisateur et par mois — une hausse de 65 % par rapport à E5. Microsoft présente cela comme une remise par rapport à l’achat séparé des composants (E5 à 60 $ + Entra Suite à 12 $ + Copilot à 30 $ + Agent 365 à 15 $ = 117 $). Une remise sur la technologie d’Anthropic, enveloppée dans du chrome Microsoft.
Suivez la séquence : investir 13 milliards de dollars dans une entreprise d’IA, construire un chatbot sur leur technologie, le classer comme divertissement, regarder l’adoption s’effondrer, puis sous-traiter la partie difficile à une autre entreprise d’IA et facturer 99 $/mois le résultat. Ce n’est pas une feuille de route produit. Ce sont deux drapeaux blancs.
Le fossé architectural
L’avertissement de divertissement et la sous-traitance de Cowork pointent vers la même cause profonde : un fossé architectural générationnel.
Quand Microsoft s’est précipité pour lancer Copilot en 2023, ils ont greffé leur investissement de 13 milliards dans OpenAI sur Office et Teams — une barre latérale de génération de texte qui ne se souvient pas de votre dernière conversation, ne peut pas coordonner d’actions entre les outils, et n’agit pas en votre nom. C’est ce qui se passe quand un pétrolier essaie de virer de bord.
Quand ils ont réalisé qu’un chatbot ne suffisait pas, ils ne sont pas retournés chez OpenAI — leur propre investissement. Ils sont allés chez Anthropic, une entreprise distincte, pour les capacités agentiques. Même Cowork est une greffe — le modèle d’agent de quelqu’un d’autre superposé à la stack existante de Microsoft, facturé au prix fort.
Chez amaiko, nous avons livré l’IA agentique au sein de Microsoft 365 en septembre 2025, six mois avant que Cowork n’existe. Pas une barre latérale. Un système multi-agents où un agent principal délègue à des spécialistes, maintient une mémoire persistante de votre équipe, et opère nativement dans votre tenant M365. Les capacités que Microsoft licence aujourd’hui auprès d’Anthropic pour un demi-milliard de dollars par an — nous les avons construites de zéro pour Teams.
L’IA est un défi, et quiconque prétend le contraire vous vend quelque chose. Nous n’allons pas prétendre avoir tout résolu. Mais il y a une différence claire entre un éditeur qui classe son propre produit comme divertissement et un autre qui construit des agents conçus pour du vrai travail.
Et quand l’« IA officielle » de votre entreprise porte un avertissement de divertissement, ne soyez pas surpris quand vos employés commencent à utiliser la leur. Les petites lignes viennent de leur en donner la permission.
Continuer la lecture
Pourquoi un Copilot moins cher ne résoudra pas votre problème d'IA
Microsoft a baissé le prix de Copilot à 21 $ pour les PME. Mais le prix n'a jamais été le vrai frein — la mémoire volatile, l'architecture mono-agent et le ROI insuffisant l'étaient. Un outil moins cher qui ne fonctionne pas reste un outil qui ne fonctionne pas.
microsoft-copilotCopilot vs. un vrai assistant IA : ce que Microsoft ne vous dit pas
Microsoft Copilot coûte 30 €/mois et oublie tout entre chaque session. Comparaison honnête — avec un focus RGPD et souveraineté des données.
ai-adoptionVous n'avez pas besoin de 100 agents IA — vous en avez besoin d'un qui fonctionne
L'IA en entreprise reproduit l'erreur de fragmentation des années 2000. L'étude 2026 de Josh Bersin met en garde contre la prolifération des agents — les entreprises qui réussiront n'auront pas le plus d'agents, mais des agents qui collaborent réellement.