Microsoft sagt, Copilot sei nur zur Unterhaltung. Sie verlangen 99 Dollar im Monat.
In Microsofts Nutzungsbedingungen für Copilot steht ein Satz, den man zweimal lesen sollte:
Copilot is for entertainment purposes only. It can make mistakes, and it may not work as intended. Don’t rely on Copilot for important advice. Use Copilot at your own risk.
Kein vergessener Entwurf. Das Archiv der Nutzungsbedingungen zeigt diese Formulierung über mehrere Versionen hinweg — es ist Microsofts juristische Position seit Beginn. Dasselbe Unternehmen, das ganzseitige Anzeigen über „KI-gestützte Produktivität” schaltet, hat seine Anwälte still und leise angewiesen, das Produkt als Spielzeug einzustufen.
Ein Kommentator auf Hacker News fand die passende Analogie: „The new ‘for tobacco use only’ of tech.”
Das teuerste Unterhaltungsabo der Tech-Branche
Die Preisgestaltung dieses Unterhaltungsprodukts ist eine Landschaft für sich:
| Stufe | Preis | Leistungsumfang |
|---|---|---|
| Copilot Chat | Kostenlos | Einfacher Webchat, in M365 enthalten |
| Copilot Pro | 20 $/Monat | Individuelle Produktivitätsfunktionen |
| Copilot Business | 18 $/Monat (Aktion), 21 $ regulär | KMU bis 300 Nutzer |
| Copilot Enterprise | 30 $/Monat | Enterprise-Organisationen |
| Copilot Studio | 200 $/Paket/Monat | Eigene Agenten bauen |
Was die Preisseite verschweigt: Jede Bezahlstufe erfordert eine separate Microsoft-365-Basislizenz — zusätzlich 6 bis 57 Dollar pro Nutzer und Monat. Die tatsächlichen Kosten, um Copilot auf einem einzigen Enterprise-Arbeitsplatz bereitzustellen, liegen bei 36 bis 87 Dollar im Monat.
Netflix kostet 15,49 Dollar. Spotify 11,99. Disney+ 13,99. Alle drei halten ihr Versprechen, und keines trägt den Hinweis „nur zu Unterhaltungszwecken” — weil sie ihn nicht brauchen. Sie sind tatsächlich Unterhaltungsprodukte.
Copilot kostet das Zwei- bis Sechsfache. Und es ist das einzige Produkt, dessen Nutzungsbedingungen nicht garantieren können, dass es keine Urheberrechte verletzt.
Das Marketing-Jura-Paradox
Auf Microsofts Enterprise-Seite für Copilot stehen kühne Behauptungen: „100%+ Projected ROI with potential payback in 10 months.” Darunter: „8+ hours of projected time savings per user per month.”
In den Nutzungsbedingungen, in Großbuchstaben:
WE DO NOT MAKE ANY WARRANTY OR REPRESENTATION OF ANY KIND ABOUT COPILOT.
Beide Seiten gehören Microsoft. Beide sind gerade online. Nur eine davon ist ein juristisches Dokument, das vor Gericht Bestand hätte.
Wie Hacker-News-Nutzer andy81 es formulierte: „The only thing clear about that License agreement is it contradicts all their other marketing about Copilot. So either that document is fraudulent or everyone else at Microsoft is committing fraud daily.”
Es geht noch tiefer. Anfang des Jahres versuchte Microsoft, KI-Hinweise aus Copilot-Antworten in M365 zu entfernen — mit der Begründung, Nutzer würden „abgelenkt”. Fünf Tage und einen Shitstorm später ruderten sie zurück. Der Hinweis „will always be visible”, hieß es — ein stilles Eingeständnis, dass die Warnungen tragend sind, nicht kosmetisch.
Warum „Unterhaltung” genau der Punkt ist
Das ist kein schlampiger Entwurf. Es ist Architektur — juristische Architektur.
Indem Microsoft Copilot als Unterhaltung einstuft, schützt sich das Unternehmen vor Produkthaftungsklagen. Wenn Copilot eine Finanzkennzahl halluziniert in deiner Vorstandspräsentation, urheberrechtlich geschützte Inhalte generiert oder deinem Mitarbeiter gefährlich falschen Rat gibt — das ist dein Problem. Du wurdest gewarnt. Du hast ein Unterhaltungsprodukt für ernste Arbeit genutzt.
Sicherheitsforscher Reed Mideke brachte es auf den Punkt: „Microsoft has no idea how to stop prompt injection or hallucinations, which makes it fundamentally unfit for almost anything serious. The solution? Shift liability to the user.”
Das bringt Enterprise-Einkäufer in eine unmögliche Lage. Das Marketing verkauft Copilot als unverzichtbare Infrastruktur. Die Rechtsabteilung nennt es ein Spielzeug. Wenn etwas schiefgeht — und bei KI geht immer etwas schief — zählt vor Gericht nur eines dieser Dokumente.
96,7 % der Nutzer stimmen zu
Der Markt hat abgestimmt. Nur 3,3 % der Microsoft-365-Nutzer zahlen tatsächlich für Copilot — 15 Millionen Lizenzen von über 450 Millionen. Von denen, die bezahlt haben, hat kaum ein Drittel es aktiviert. Von Unternehmen, die Pilotprojekte durchführten, gingen nur 5 % zu einer breiteren Einführung über.
Lies diese Zahlen nochmal: 96,7 % der M365-Nutzer haben sich Copilot angeschaut und Nein gesagt.
Microsofts Reaktion war Panik, verkleidet als Strategie. Sie senkten den Business-Preis auf 18 Dollar (Aktion, läuft im Juni 2026 aus). Sie pflanzten Copilot-Buttons in Notepad, Paint und den Datei-Explorer — bis Nutzer sich beschwerten und die Features zurückgenommen wurden. Microsofts Aktienkurs fiel Anfang 2026 um 15 %, weil Investoren „massive KI-Kapitalausgaben satt hatten, die bisher keine proportionale Umsatzexplosion gebracht haben.”
Wie wir schrieben, als die Preissenkung kam: Ein günstigerer Copilot löst dein KI-Problem trotzdem nicht. Das Problem war nie der Preis. Es ist das, was dahintersteckt.
Copilot Cowork: Das 99-Dollar-Eingeständnis
Wenn die eigene KI rechtlich als Unterhaltung eingestuft ist, was tut man? Man kauft die eines anderen. Gleich zweimal.
Zur Erinnerung: Microsoft hält 27 % an OpenAI — eine Beteiligung im Wert von 135 Milliarden Dollar, aufgebaut auf 13 Milliarden Dollar Investition. Copilot wurde auf OpenAIs Modellen gebaut. Microsoft ist OpenAIs größter externer Anteilseigner. Und trotzdem — als es darum ging, KI zu bauen, die tatsächlich Dinge tut statt nur Text zu generieren — gingen sie nicht zu OpenAI. Sie gingen zu Anthropic.
Im März 2026 startete Microsoft Copilot Cowork — den Einstieg in agentische KI. Nur hat Microsoft die Agenten-Technologie nicht selbst gebaut, und auch ihre 13-Milliarden-Dollar-Investition in OpenAI nicht genutzt. Sie haben sie von Anthropic lizenziert, einem völlig anderen Unternehmen, für rund 500 Millionen Dollar pro Jahr.
Microsofts eigener Blog war bemerkenswert offen: „Working closely with Anthropic, we have integrated the technology behind Claude Cowork into Microsoft 365 Copilot.” Lies das nochmal — die Technologie hinter Claude Cowork. Nicht inspiriert von. Nicht ähnlich wie. Die tatsächliche Technologie.
Der Preis für diese geborgte Fähigkeit: Copilot Cowork steckt in der neuen M365 E7 „Frontier Worker Suite” für 99 Dollar pro Nutzer und Monat — ein Sprung von 65 % gegenüber E5. Microsoft positioniert das als Rabatt gegenüber dem Einzelkauf (E5 für 60 $ + Entra Suite für 12 $ + Copilot für 30 $ + Agent 365 für 15 $ = 117 $). Ein Nachlass auf Anthropics Technologie, verpackt in Microsoft-Optik.
Verfolge die Abfolge: 13 Milliarden Dollar in ein KI-Unternehmen investieren, einen Chatbot auf deren Technik bauen, ihn als Unterhaltung einstufen, zusehen wie die Akzeptanz einbricht, den schweren Teil an ein anderes KI-Unternehmen auslagern und 99 Dollar im Monat für das Ergebnis verlangen. Das ist keine Produkt-Roadmap. Das sind zwei weiße Flaggen.
Die Architekturlücke
Der Unterhaltungs-Disclaimer und das Cowork-Outsourcing zeigen dieselbe Ursache: eine generationenübergreifende Architekturlücke.
Als Microsoft 2023 Copilot überstürzt auslieferte, schraubten sie ihre 13-Milliarden-Dollar-Investition in OpenAI auf Office und Teams — eine Textgenerierungs-Seitenleiste, die sich nicht an dein letztes Gespräch erinnert, nicht über Tools hinweg koordinieren kann und keine Aktionen für dich ausführt. Das passiert, wenn ein Öltanker versucht zu wenden.
Als sie merkten, dass ein Chatbot nicht reicht, gingen sie nicht zurück zu OpenAI — ihrer eigenen Investition. Sie gingen zu Anthropic, einem anderen Unternehmen, für agentische Fähigkeiten. Aber auch Cowork ist ein Transplantat — das Agenten-Modell eines anderen, aufgepfropft auf Microsofts bestehenden Stack, zum Premium-Preis.
Bei amaiko haben wir agentische KI in Microsoft 365 im September 2025 ausgeliefert, sechs Monate bevor Cowork existierte. Keine Seitenleiste. Ein Multi-Agenten-System, in dem ein Hauptagent an Spezialisten delegiert, dauerhaftes Gedächtnis über dein Team pflegt und nativ in deinem M365-Tenant arbeitet. Die Fähigkeiten, die Microsoft jetzt für eine halbe Milliarde Dollar im Jahr von Anthropic lizenziert — wir haben sie von Grund auf für Teams gebaut.
KI ist schwer, und wer das Gegenteil behauptet, will dir etwas verkaufen. Wir werden nicht so tun, als hätten wir alles gelöst. Aber es gibt einen klaren Unterschied zwischen einem Anbieter, der sein eigenes Produkt als Unterhaltung einstuft, und einem, der Agenten baut, die echte Arbeit leisten.
Und wenn die „offizielle KI” deines Unternehmens einen Unterhaltungs-Disclaimer trägt, wundere dich nicht, wenn deine Mitarbeiter anfangen, ihre eigene mitzubringen. Das Kleingedruckte hat ihnen gerade die Erlaubnis erteilt.
Weiterlesen
Warum ein günstigerer Copilot dein KI-Problem trotzdem nicht löst
Microsoft hat den Copilot-Preis für KMU auf 21 Dollar gesenkt. Aber der Preis war nie das eigentliche Hindernis — fehlendes Gedächtnis, Single-Agent-Architektur und fehlender ROI waren es. Ein günstigeres Tool, das nicht funktioniert, ist immer noch ein Tool, das nicht funktioniert.
microsoft-copilotCopilot vs. ein echter KI-Assistent: Was Microsoft dir verschweigt
Microsoft Copilot kostet 30 € im Monat und vergisst zwischen jeder Sitzung alles. Ein ehrlicher Vergleich — mit deutschem Datenschutz-Fokus.
ai-adoptionDu brauchst keine 100 KI-Agenten — du brauchst einen, der funktioniert
Enterprise-KI wiederholt den Fragmentierungsfehler der 2000er. Josh Bersins Studie 2026 warnt vor der Agenten-Flut — die Unternehmen, die gewinnen, werden nicht die meisten Agenten haben, sondern die, deren Agenten tatsächlich zusammenarbeiten.