Anfang April 2026 haben OpenAI, Anthropic und Google eine ungewöhnliche Kooperation bekannt gegeben: Die normalerweise scharf konkurrierenden KI-Unternehmen teilen jetzt Intelligence über unautorisierten Modell-Diebstahl durch chinesische Firmen.
Was ist passiert?
Das Frontier Model Forum — ein Zusammenschluss der führenden KI-Unternehmen — koordiniert seit April eine gemeinsame Anti-Distillation-Initiative. Der Auslöser: Dokumentierte Fälle, bei denen API-Zugang massenhaft missbraucht wurde.
Anthropic hat konkrete Zahlen veröffentlicht:
- 16 Millionen missbrauchte API-Anfragen
- 24.000 betrügerische Accounts die dazu genutzt wurden
- Systematische Sammlung von Modell-Outputs um eigene Modelle zu trainieren
Die genannten Akteure: DeepSeek, Moonshot AI und MiniMax — allesamt chinesische KI-Unternehmen.
Was bedeutet “Modell-Diebstahl” technisch?
Model Distillation ist eine legitime Technik: Ein kleines Modell wird trainiert um ein großes Modell nachzuahmen. Das ist legal, wenn man das große Modell selbst besitzt oder lizensiert.
Model Stealing dagegen ist illegal: Tausende betrügerische Accounts stellen systematisch Anfragen an fremde APIs. Die Antworten werden gesammelt und als Training-Daten für eigene Modelle genutzt. Das Ergebnis: Ein eigenes Modell das sich ähnlich verhält wie das Original — ohne die Infrastrukturkosten bezahlt zu haben.
Der Unterschied im Training-Aufwand:
- Eigenes Pre-Training: Hunderte Millionen USD, Monate Rechenzeit
- Distillation via gestohlenen API-Outputs: Einige Millionen USD, Wochen
Warum ist das jetzt ein Problem?
DeepSeek R1 hat im Januar 2025 die KI-Welt erschüttert: Ein chinesisches Modell, das mit einem Bruchteil der US-Kosten GPT-4-Niveau erreichte. US-Unternehmen haben seitdem untersucht, wie das möglich war.
Der Verdacht: Systematisches Destillieren von US-Modellen war Teil des Erfolgsrezepts — nicht nur DeepSeeks eigene Forschung.
Was ändert sich für normale API-Nutzer?
Für seriöse Nutzer: Wenig. Die Maßnahmen zielen auf automatisierte Massen-Anfragen aus betrügerischen Accounts, nicht auf normale Nutzung.
Mögliche Konsequenzen:
- Strengere Rate-Limits bei verdächtigen Mustern
- Bessere Authentifizierung und KYC (Know Your Customer) für API-Zugang
- Technische Fingerprints die Modell-Outputs für Detection-Systeme markieren (sogenannte “Watermarking”)
Die geopolitische Dimension
Die Anti-Distillation-Kooperation ist auch ein geopolitisches Signal. Zum ersten Mal kooperieren OpenAI, Anthropic und Google offiziell in einer Sicherheitsfrage — gegen explizit genannte chinesische Unternehmen.
Das Frontier Model Forum hat damit eine neue Rolle übernommen: Nicht nur Selbstverpflichtungen und Sicherheitsforschung, sondern aktive Koordination gegen wirtschaftliche Schäden.
Die US-Regierung hat die Initiative still begrüßt. Export-Beschränkungen für Chips schützen nur die Hardware-Ebene — API-Distillation ist eine Software-Lücke die nun geschlossen werden soll.
Was bedeutet das für DACH-Unternehmen?
Für Unternehmen in Deutschland, Österreich und der Schweiz sind mehrere Aspekte relevant:
- Compliance: Wenn ihr selbst APIs von OpenAI, Anthropic oder Google nutzt, sind eure Nutzungsbedingungen klar — keine automatisierten Massen-Anfragen, keine Weiterverkauf von Outputs
- Vendor-Risiko: Chinesische KI-Alternativen könnten stärker in den Fokus regulatorischer Prüfungen geraten (EU AI Act, DSGVO)
- IP-Schutz: Das Thema zeigt, wie wertvoll KI-Modell-Weights sind — und warum On-Premise-Deployment mit Open-Weight-Modellen strategisch sinnvoll sein kann
Weiterlesen:
