Am 7. April 2026 hat Anthropic eine Pressemitteilung veröffentlicht, die die Tech-Welt aufhorchen ließ: Ein neues KI-Modell, genannt Claude Mythos Preview, hat in wenigen Wochen tausende Zero-Day-Sicherheitslücken in allen großen Betriebssystemen und Browsern gefunden – darunter ein Bug, der seit 27 Jahren unentdeckt in OpenBSD schlummerte.
Die ungewöhnliche Wendung: Anthropic wird Mythos nicht öffentlich verfügbar machen. Nicht weil das Modell schlecht wäre – sondern weil es zu gut ist.
Was ist Claude Mythos Preview?
Mythos Preview ist das neueste Mitglied der Claude-Modell-Familie – und nach Anthropics eigener Einschätzung ein “Step Change” gegenüber dem bisherigen Flaggschiff Claude Opus 4.6. Ein Generationssprung, nicht nur ein inkrementelles Update.
Das Modell ist general purpose – es kann alles, was Claude Opus 4.6 kann, aber besser. Was es heraushebt: eine außerordentliche Stärke bei Computer-Security-Aufgaben. Das Modell kann Quellcode auf einem Level analysieren, der menschliche Sicherheitsexperten in bestimmten Aufgaben übertrifft.
Konkret bedeutet das:
- Statische Code-Analyse auf Betriebssystem-Ebene (Kernelcode, Systemdienste)
- Vulnerability Research – eigenständiges Aufspüren von Memory-Corruption, Buffer Overflows, Logic Bugs
- Exploit Prototyping – das Modell kann theoretisch nicht nur Lücken finden, sondern auch Angriffsszenarien durchspielen
- Patch-Generierung – nach dem Fund direkt einen Fix vorschlagen
Diese Kombination macht Mythos zu einem mächtigen defensiven Werkzeug – und zu einem potenziell gefährlichen offensiven.
Die Entdeckungen: Was Mythos gefunden hat
In den Wochen vor der Ankündigung hat Anthropic Mythos intern auf kritischer Software laufen lassen. Die Ergebnisse:
- Tausende Zero-Day-Lücken in allen großen Betriebssystemen (Windows, macOS, Linux) und Browsern (Chrome, Firefox, Safari, Edge)
- Mehrere kritische Lücken, die jahrelang unentdeckt geblieben waren
- Der älteste Fund: ein 27 Jahre alter Bug in OpenBSD – seit 1999 unbemerkt im Code, potenziell ausnutzbar
Zum Vergleich: Das Google Project Zero, eines der weltweit führenden Vulnerability Research Teams, entdeckt typischerweise einige Hundert Zero-Days pro Jahr. Mythos hat das in Wochen übertroffen.
Was das bedeutet
Diese Entdeckungen wurden koordiniert an die jeweiligen Hersteller gemeldet (Responsible Disclosure). Die meisten wurden inzwischen gepatcht. Das ist die gute Nachricht.
Die schlechte Nachricht: Wenn ein KI-Modell das kann, können es – mit dem richtigen Modell und kriminellen Absichten – auch Angreifer. Das ist der Kern von Anthropics Dilemma.
Das Dilemma: Zu mächtig für die Öffentlichkeit
Anthropic steht vor einer klassischen Dual-Use-Problematik: Das gleiche Modell, das defensive Sicherheitsforschung revolutionieren kann, könnte bei breitem Zugang groß angelegte, KI-gesteuerte Cyberangriffe ermöglichen.
Bisher erforderten Cyberangriffe auf Betriebssystem-Ebene sehr spezialisiertes menschliches Know-how. Zero-Day-Exploits für Windows-Kernel kosten auf dem Schwarzmarkt Millionen von Dollar – eben weil sie so schwer zu finden sind.
Ein öffentlich verfügbares Mythos-Modell könnte diese Barriere drastisch senken. Staatliche Akteure, organisierte Cyberkriminalität, aber auch schlecht ausgestattete Angreifer könnten auf einmal Fähigkeiten zugreifen, die bisher nur Hochsicherheits-Teams zur Verfügung standen.
Anthropic-CEO Dario Amodei bezeichnete die Situation als potenzielle “Vulnpocalypse” – ein Szenario, in dem KI-Modelle die Anzahl und Schwere von Cyberangriffen dramatisch erhöhen.
Project Glasswing: Die Antwort
Statt Mythos einzumotten oder ohne Kontrolle freizugeben, hat Anthropic einen Mittelweg gewählt: Project Glasswing.
Das Konzept: Mythos Preview wird ausgewählten Partner-Organisationen für ausschließlich defensive Zwecke zur Verfügung gestellt. 12 Organisationen sind initial dabei:
| Partner | Fokus |
|---|---|
| Amazon | AWS-Infrastruktur-Security |
| Apple | macOS/iOS Kernel-Security |
| Microsoft | Windows, Azure Security |
| Cisco | Netzwerk-Infrastruktur |
| CrowdStrike | Endpoint Security |
| Broadcom | Chip- und Hardware-Security |
| Palo Alto Networks | Firewall und Security-Plattformen |
| Linux Foundation | Open-Source-Kernel Security |
| + 4 weitere | (nicht öffentlich genannt) |
Wie Glasswing funktioniert
Die Partner-Organisationen bekommen kontrollierten, überwachten Zugang zu Mythos Preview für Security-Research. Sie müssen sich zu einem strikten Code of Conduct verpflichten:
- Ausschließlich defensiver Einsatz – keine offensiven Operationen
- Responsible Disclosure – alle Funde werden koordiniert gepatcht
- Audit-Logging – alle Modell-Anfragen werden protokolliert
- No Redistribution – kein Weitergeben des Zugangs
- Reporting – regelmäßige Berichte an Anthropic über Ergebnisse und Missbrauchsversuche
Das langfristige Ziel
Glasswing ist nicht nur eine kurzfristige Lösung – Anthropic versteht es als Blaupause für die Zukunft. Die Frage, die beantwortet werden soll: Wie können KI-Fähigkeiten dieser Klasse sicher eingesetzt werden?
Was bedeutet “sicher”? Welche technischen und organisatorischen Safeguards braucht es? Wie lässt sich Missbrauch erkennen und verhindern? Diese Erkenntnisse sollen irgendwann ermöglichen, Mythos-Klasse-Modelle breiter und sicherer zugänglich zu machen.
Was das für die Cybersecurity-Branche bedeutet
Kurzfristig: Massives Patching
Die durch Mythos gefundenen Lücken werden koordiniert gepatcht. Das ist eine massive positive Entwicklung – tausende unbekannte Schwachstellen in kritischer Software werden geschlossen, bevor Angreifer sie finden.
Mittelfristig: Neue Sicherheitsparadigmen
Wenn KI-Modelle in der Lage sind, Tausende Zero-Days in Wochen zu finden, müssen sich Entwickler und Security-Teams neu aufstellen:
- Security by Design wird noch kritischer – KI wird auch auf Angreifer-Seite kommen
- Patch-Cycle-Management muss schneller werden
- KI-gestützte Defensive wird zum Standard, nicht zur Option
Langfristig: Das Wettrüsten
Der beunruhigendste Aspekt: Anthropic ist nicht allein. Google, OpenAI, Meta und staatliche Forschungseinrichtungen entwickeln ähnlich mächtige Modelle. Die Glasswing-Initiative setzt ein Signal – aber sie kann das globale KI-Wettrüsten im Cyberspace nicht aufhalten.
Die Frage ist nicht ob, sondern wann Modelle dieser Klasse für breitere Akteure zugänglich werden.
Ist Mythos eine Bedrohung oder ein Schutz?
Ehrliche Antwort: beides – es kommt auf die Hände an.
Anthropics Entscheidung, Mythos nicht zu veröffentlichen und stattdessen Project Glasswing zu starten, ist ein vernünftiger Mittelweg. Es zeigt, dass KI-Unternehmen anfangen, das Konzept “Responsible Capabilities” ernstzunehmen – nicht nur Responsible AI in Bezug auf Bias und Fairness, sondern in Bezug auf echte geopolitische und Sicherheitsrisiken.
Ob das reicht, wird die Zeit zeigen. Aber der erste Schritt – offen über die Risiken zu reden, statt das Modell still zu veröffentlichen und auf das Beste zu hoffen – ist der richtige.
Weiterlesen:
