Anfang April 2026 haben OpenAI, Anthropic und Google eine ungewöhnliche Kooperation bekannt gegeben: Die normalerweise scharf konkurrierenden KI-Unternehmen teilen jetzt Intelligence über unautorisierten Modell-Diebstahl durch chinesische Firmen.

Was ist passiert?

Das Frontier Model Forum — ein Zusammenschluss der führenden KI-Unternehmen — koordiniert seit April eine gemeinsame Anti-Distillation-Initiative. Der Auslöser: Dokumentierte Fälle, bei denen API-Zugang massenhaft missbraucht wurde.

Anthropic hat konkrete Zahlen veröffentlicht:

  • 16 Millionen missbrauchte API-Anfragen
  • 24.000 betrügerische Accounts die dazu genutzt wurden
  • Systematische Sammlung von Modell-Outputs um eigene Modelle zu trainieren

Die genannten Akteure: DeepSeek, Moonshot AI und MiniMax — allesamt chinesische KI-Unternehmen.

Was bedeutet “Modell-Diebstahl” technisch?

Model Distillation ist eine legitime Technik: Ein kleines Modell wird trainiert um ein großes Modell nachzuahmen. Das ist legal, wenn man das große Modell selbst besitzt oder lizensiert.

Model Stealing dagegen ist illegal: Tausende betrügerische Accounts stellen systematisch Anfragen an fremde APIs. Die Antworten werden gesammelt und als Training-Daten für eigene Modelle genutzt. Das Ergebnis: Ein eigenes Modell das sich ähnlich verhält wie das Original — ohne die Infrastrukturkosten bezahlt zu haben.

Der Unterschied im Training-Aufwand:

  • Eigenes Pre-Training: Hunderte Millionen USD, Monate Rechenzeit
  • Distillation via gestohlenen API-Outputs: Einige Millionen USD, Wochen

Warum ist das jetzt ein Problem?

DeepSeek R1 hat im Januar 2025 die KI-Welt erschüttert: Ein chinesisches Modell, das mit einem Bruchteil der US-Kosten GPT-4-Niveau erreichte. US-Unternehmen haben seitdem untersucht, wie das möglich war.

Der Verdacht: Systematisches Destillieren von US-Modellen war Teil des Erfolgsrezepts — nicht nur DeepSeeks eigene Forschung.

Was ändert sich für normale API-Nutzer?

Für seriöse Nutzer: Wenig. Die Maßnahmen zielen auf automatisierte Massen-Anfragen aus betrügerischen Accounts, nicht auf normale Nutzung.

Mögliche Konsequenzen:

  • Strengere Rate-Limits bei verdächtigen Mustern
  • Bessere Authentifizierung und KYC (Know Your Customer) für API-Zugang
  • Technische Fingerprints die Modell-Outputs für Detection-Systeme markieren (sogenannte “Watermarking”)

Die geopolitische Dimension

Die Anti-Distillation-Kooperation ist auch ein geopolitisches Signal. Zum ersten Mal kooperieren OpenAI, Anthropic und Google offiziell in einer Sicherheitsfrage — gegen explizit genannte chinesische Unternehmen.

Das Frontier Model Forum hat damit eine neue Rolle übernommen: Nicht nur Selbstverpflichtungen und Sicherheitsforschung, sondern aktive Koordination gegen wirtschaftliche Schäden.

Die US-Regierung hat die Initiative still begrüßt. Export-Beschränkungen für Chips schützen nur die Hardware-Ebene — API-Distillation ist eine Software-Lücke die nun geschlossen werden soll.

Was bedeutet das für DACH-Unternehmen?

Für Unternehmen in Deutschland, Österreich und der Schweiz sind mehrere Aspekte relevant:

  1. Compliance: Wenn ihr selbst APIs von OpenAI, Anthropic oder Google nutzt, sind eure Nutzungsbedingungen klar — keine automatisierten Massen-Anfragen, keine Weiterverkauf von Outputs
  2. Vendor-Risiko: Chinesische KI-Alternativen könnten stärker in den Fokus regulatorischer Prüfungen geraten (EU AI Act, DSGVO)
  3. IP-Schutz: Das Thema zeigt, wie wertvoll KI-Modell-Weights sind — und warum On-Premise-Deployment mit Open-Weight-Modellen strategisch sinnvoll sein kann

Weiterlesen: