Skip to main content
gdpr data-privacy compliance

DSGVO und KI: Warum 'Wir werden bald compliant' kein Plan ist

Von amaiko 7 Min. Lesezeit
Abstrakte Darstellung von Datenschutz und Compliance

Im Mai 2023 verhängte die irische Datenschutzbehörde gegen Meta ein Bußgeld von 1,2 Milliarden Euro — für die Übermittlung europäischer Nutzerdaten in die USA. Ein Bescheid. Ein Transfermechanismus. Zwei Jahre später, im Mai 2025, traf es TikTok: 530 Millionen Euro, weil EWR-Daten nach China geflossen waren. Der Verstoß war identisch: Personenbezogene Daten verließen die EU ohne angemessenen Schutz.

Das sind keine Warnschüsse mehr. Die Warnschüsse lagen Jahre zurück.

Wenn dein Unternehmen KI-Tools einsetzt, die Daten über US-Server routen, ist die Frage nicht ob die Aufsichtsbehörden sich dafür interessieren. Sondern wann sie bei dir anklopfen.

Die regulatorischen Mauern stehen

Der EU AI Act ist am 1. August 2024 in Kraft getreten. Kein Entwurf, kein Vorschlag — geltendes Recht mit gestaffeltem Durchsetzungsplan.

Die ersten Verbote gelten seit dem 2. Februar 2025: Social Scoring, manipulative KI-Praktiken und anlasslose Gesichtserkennung sind ab sofort illegal. Pflichten für General-Purpose-AI-Modelle — die Kategorie, unter die jedes große Sprachmodell fällt — sind seit dem 2. August 2025 durchsetzbar. Transparenzanforderungen und Hochrisiko-KI-Regeln greifen am 2. August 2026. Hochrisikosysteme in regulierten Produkten folgen am 2. August 2027.

Die Bußgeldstruktur hat es in sich. Verstöße gegen verbotene KI-Praktiken: bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes — je nachdem, was höher ist. General-Purpose-AI-Verstöße: bis zu 15 Millionen oder 3 %. Verfahrensverstöße: 7,5 Millionen oder 1 %.

Das kommt obendrauf auf die DSGVO. Zwei Regulierungsrahmen, ein Datensatz. Unternehmen, die KI-Tools in der EU einsetzen, stehen jetzt vor parallelen Compliance-Pflichten — und die Aufsichtsbehörden auf beiden Seiten setzen aktiv durch.

Die BfDI greift durch — und Deutschland zieht nach

Laut dem DLA-Piper-Survey vom Januar 2026 haben europäische Aufsichtsbehörden 2025 DSGVO-Bußgelder von rund 1,2 Milliarden Euro verhängt — genauso viel wie 2024. Insgesamt stehen wir seit Inkrafttreten der DSGVO im Mai 2018 bei 7,1 Milliarden Euro.

Der Trend verharrt auf einem sehr hohen Niveau. Aufsichtsbehörden bearbeiteten 2025 im Schnitt 443 Datenschutzverletzungsmeldungen pro Tag — 22 % mehr als 2024.

Deutschland hat lange als zurückhaltend gegolten, wenn es um hohe Bußgelder ging. Damit ist Schluss. Am 3. Juni 2025 verhängte die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI), Prof. Dr. Louisa Specht-Riemenschneider, gegen die Vodafone GmbH zwei Bußgelder in Höhe von insgesamt 45 Millionen Euro. 30 Millionen davon wegen mangelhafter Sicherheit bei Authentifizierungsprozessen, 15 Millionen wegen unzureichender Kontrolle von Auftragsverarbeitern. Es war das höchste DSGVO-Bußgeld, das jemals in Deutschland verhängt wurde.

Die Botschaft ist klar: Die BfDI zeigt nicht nur Zähne, sie beißt. Und die Landesdatenschutzbehörden ziehen mit. Das Bundesdatenschutzgesetz (BDSG) ergänzt die DSGVO mit eigenen deutschen Spezifika — wer in Deutschland operiert, muss beide Ebenen beherrschen.

KI-Unternehmen geraten dabei zunehmend ins Visier. Italiens Garante verhängte im Dezember 2024 ein Bußgeld von 15 Millionen Euro gegen OpenAI wegen DSGVO-Verstößen bei ChatGPT. Die niederländische Aufsichtsbehörde traf Clearview AI im Mai 2024 mit 30,5 Millionen Euro für unrechtmäßige biometrische Datenverarbeitung. Ende 2025 veröffentlichte die BfDI selbst eine Handreichung zum Thema „KI in Behörden — Datenschutz von Anfang an mitdenken”, die klare Leitplanken für den Einsatz von KI durch öffentliche Stellen setzt.

Die Lektion aus TikToks 530-Millionen-Strafe ist dabei die teuerste: „Datenresidenz klären wir später” hat einen Preis — und er beginnt bei neun Stellen.

„Datenresidenz kommt bald” ist keine Compliance-Strategie

Microsoft hat seine EU Data Boundary im Februar 2025 abgeschlossen. Kundendaten at rest bleiben in der EU. Soweit funktioniert das.

Aber Data at Rest ist nur die halbe Gleichung. Wenn eine Mitarbeiterin aus München einen Prompt in Microsoft 365 Copilot eintippt, muss dieser Prompt von einem Large Language Model verarbeitet werden. Wo das passiert, ist entscheidend.

Microsoft hat im November 2025 angekündigt, dass In-Country Data Processing für Copilot-Interaktionen in Phasen ausgerollt wird. (Wir haben den vollständigen Copilot-Vergleich — inklusive Preisen, Memory und Architektur — in einem separaten Artikel analysiert.) Die erste Welle — Australien, UK, Indien und Japan — war für Ende 2025 geplant. Deutschland wurde zusammen mit Kanada, Italien, Polen und sieben weiteren Ländern auf 2026 verschoben. Bis dahin werden deutsche Copilot-Prompts dort verarbeitet, wo Microsoft LLM-Kapazität hat — innerhalb der EU Data Boundary, aber nicht zwingend in Deutschland.

Für ein Mittelstandsunternehmen mit strengen Datenschutz-Anforderungen sind „Datenverarbeitung bleibt in der EU-Region” und „Datenverarbeitung bleibt in Deutschland” grundlegend verschiedene Aussagen.

Und das ist der Best Case — ein Anbieter, der aktiv auf Compliance hinarbeitet. Viele KI-Tools bieten weniger. Etliche verarbeiten europäische Daten in den USA und stützen sich auf Standardvertragsklauseln oder das EU-US Data Privacy Framework.

Das DPF hat eine rechtliche Anfechtung im September 2025 überstanden, als das Europäische Gericht den Fall Latombe abwies. Oberflächlich beruhigend. Aber Max Schrems und NOYB — die Leute, die Safe Harbor und Privacy Shield zu Fall gebracht haben — haben öffentlich erklärt, sie prüften Optionen für eine breitere Anfechtung. Das Urteil hat das DPF gegen einen engen Satz von Klagegründen bestätigt; die fundamentale Spannung zwischen US-Überwachungsrecht und EU-Datenschutzgrundrechten bleibt ungelöst.

Deine KI-Infrastruktur auf einen Transfermechanismus mit umstrittener rechtlicher Zukunft zu bauen, ist Glücksspiel. Und wenn du verlierst, gibt es keine Übergangsfrist.

Was wirklich DSGVO-konforme KI erfordert

Compliance für KI-Tools in Deutschland läuft auf eine kurze Liste hinaus.

Datenresidenz, nicht Data Boundary. Prompts, Antworten und KI-Speicher sollten in einer Jurisdiktion verarbeitet und gespeichert werden, die du kontrollierst. Für deutsche Unternehmen heißt das: Deutschland — nicht „die EU-Region”, nicht „schaffen wir bis 2026.”

Keine Abhängigkeit von angefochtenen Transfermechanismen. Wenn dein KI-Anbieter Daten über US-Infrastruktur routet, hängt deine Compliance-Position von der fortlaufenden Gültigkeit des DPF ab. Das ist eine politische Frage, keine technische. Hosting in Deutschland eliminiert die Frage vollständig.

Transparenz nach DSGVO und AI Act. Nach der DSGVO haben deine Mitarbeitenden und Kunden das Recht zu erfahren, wie ihre Daten verarbeitet werden. Unter dem EU AI Act kommen für Betreiber von Hochrisiko-KI-Systemen zusätzliche Dokumentations-, Risikomanagement- und Aufsichtspflichten hinzu. Dein Anbieter sollte das einfach machen — nicht etwas, das du aus einem 200-seitigen Whitepaper reverse-engineeren musst.

Verantwortung heute, nicht Roadmap-Versprechen. Eine Compliance-Roadmap ist keine Compliance. Wenn die Datenresidenz deines Anbieters für nächstes Jahr geplant ist, trägst du das Risiko bis dahin. Aufsichtsbehörden sanktionieren dich nicht nach der Roadmap deines Anbieters. Sie sanktionieren nach dem, was gerade mit deinen Daten passiert.

Das ist nicht hypothetisch. Metas 1,2-Milliarden-Bußgeld war für Transfers, die stattfanden, während ein Transfermechanismus technisch noch galt. TikToks 530 Millionen waren für Transfers, die das Unternehmen für konform hielt. Gute Absichten gleichen schlechte Architektur nicht aus.

KI-Tools als deutsches Unternehmen auswählen

Wenn du KI-Plattformen evaluierst, stell deinem Anbieter drei Fragen: Wo werden Prompts verarbeitet? Wo werden KI-generierte Inhalte gespeichert? Auf welche Transfermechanismen stützt du dich bei grenzüberschreitenden Daten?

Wenn die Antworten „US-Rechenzentren”, „Standardvertragsklauseln” oder „wir arbeiten an EU-Datenresidenz” beinhalten — dann weißt du, welche Compliance-Lücke du akzeptierst.

Die Alternative existiert. KI-Tools, entwickelt in Deutschland, gehostet in Deutschland, verarbeitet in Deutschland. Keine Angemessenheitsbeschlüsse, über die du dir Sorgen machen musst. Keine Datentransfers, die du rechtfertigen musst. Keine 2026-Roadmap-Punkte, die auf 2027 rutschen könnten.

amaiko wurde von Tag eins so gebaut. Deutsche Ingenieurskunst, deutsches Hosting, Teams-nativ. Deine Daten bleiben in Deutschland — nicht irgendwann, nicht auf einer Roadmap, sondern heute. Für Unternehmen, die Datenschutz ernst nehmen, ist das kein Feature. Es ist die Grundlage.

Weiterlesen