Claude Mythos: Anthropics Top-KI durchgesickert, Cyberbedrohung
Claude Mythos, Anthropics bisher leistungsfähigstes KI-Modell, wurde diese Woche geleakt — Cybersecurity-Aktien verloren am Freitag Milliarden angesichts der Folgen.

Das Wichtigste in Kürze
- Claude Mythos wurde diese Woche durch Entwurfsmaterialien geleakt, die in Anthropics öffentlich zugänglichem CMS-Datencache gespeichert waren
- Anthropic bezeichnete Mythos als „das leistungsstärkste KI-Modell, das wir je entwickelt haben" — mit besseren Ergebnissen als Claude Opus in den Bereichen Coding, Reasoning und Cybersicherheit
- Palo Alto Networks fiel um ~7 %, CrowdStrike verlor ~6,4 %, Zscaler gab ~5,8 % nach am Freitag, nachdem das Leak bekannt wurde
- Anthropic führte die Offenlegung auf menschliches Versagen bei der CMS-Konfiguration zurück und schränkte den Zugang nach Benachrichtigung ein
Claude Mythos — Anthropics KI-Modell der nächsten Generation, intern als das bisher leistungsfähigste Modell des Unternehmens beschrieben — wurde diese Woche online geleakt, nachdem Entwurfsmaterialien des Unternehmensblogs in einem öffentlich zugänglichen Datenspeicher verblieben waren. Die Folge: eine rasche Marktreaktion, die am Freitag Milliarden von Cybersicherheitsaktien vernichtete.
Was ist Claude Mythos und wie kam es zum Leak?
Die Existenz des Modells wurde von Anthropic bestätigt, nachdem Fortune zuerst berichtete, dass unveröffentlichte Dateien — darunter ein offenbar als Staging-Blogbeitrag vorgesehenes Dokument — in einem ungesicherten Content-Cache auffindbar gewesen waren. Anthropic schränkte den Zugang zum Datenspeicher nach Benachrichtigung ein und führte den Vorfall auf eine Fehlkonfiguration der CMS-Tools zurück. Menschliches Versagen, so die Erklärung. Für ein Unternehmen, das wohl die sensibelste KI-Entwicklung der Welt betreibt, wird diese Formulierung mit der Zeit zunehmend unangenehm wirken.
In einer archivierten Entwicklungsseite, die unabhängig geprüft wurde, beschrieb Claude Mythos Anthropic als „das leistungsstärkste KI-Modell, das wir je entwickelt haben" — und das Unternehmen hielt sich mit der Bedeutung dieser Aussage nicht zurück. Laut diesen Materialien befindet sich Mythos in einer komplett neuen Leistungsstufe oberhalb der gesamten Opus-Modellreihe und wird beschrieben als „größer und intelligenter als unsere Opus-Modelle — die bis jetzt unsere leistungsstärksten waren." Der Name selbst wurde laut Anthropic gewählt, „um die tiefen Verbindungsgewebe hervorzurufen, die Wissen und Ideen miteinander verknüpfen." Poetisch. Aber auch beunruhigend, je nachdem welchen Satz man als nächstes liest.
Anthropic bestätigte die wesentlichen Punkte in einer Stellungnahme: „Wir entwickeln ein Allzweckmodell mit bedeutenden Fortschritten in den Bereichen Reasoning, Coding und Cybersicherheit. Angesichts der Stärke seiner Fähigkeiten gehen wir bei der Veröffentlichung sehr bedacht vor." Das Unternehmen erklärte, es arbeite mit einer kleinen Gruppe von Early-Access-Kunden zusammen, um das Modell vor einem breiteren Rollout zu testen.
Wir betrachten dieses Modell als einen Quantensprung und das leistungsfähigste, das wir bisher gebaut haben.
Die im Leak verborgene Cybersicherheits-Warnung
Jetzt kommt der Teil, der die Märkte tatsächlich bewegt hat. Laut den geleakten Entwurfsmaterialien erzielte Mythos „dramatisch höhere" Ergebnisse als Claude Opus 4.6 bei Benchmarks für Software-Coding, akademisches Reasoning und — entscheidend — offensive Cybersicherheit. Letztere Kategorie ist der Punkt, an dem es unbequem wird.
Der Ausverkauf bei Cybersicherheitsaktien am Freitag war nicht nur eine Reaktion verunsicherter Anleger auf eine neue KI-Produktankündigung. Es war eine gezielte Reaktion auf Formulierungen in den geleakten Dokumenten, die Mythos als „derzeit jedem anderen KI-Modell bei Cyber-Fähigkeiten weit voraus" beschrieben — und dann noch weiter gingen mit der Warnung, das Modell „kündige eine kommende Welle von Modellen an, die Schwachstellen auf eine Weise ausnutzen können, die die Bemühungen der Verteidiger bei weitem übertrifft." Das hat Anthropic selbst geschrieben. Das ist keine Spekulation eines Forschers — es ist die eigene interne Einschätzung des Unternehmens über das, was es gebaut hat.
Palo Alto Networks (PANW) fiel am Freitag um rund 7 %. CrowdStrike (CRWD) verlor etwa 6,4 %. Zscaler (ZS) gab ungefähr 5,8 % nach, und Fortinet (FTNT) rutschte um etwa 4 % ab, laut Daten von Yahoo Finance. Die Botschaft der Märkte war eindeutig: Wenn das fortschrittlichste KI-Modell der Welt mit offensiven Cybersicherheitsfähigkeiten als festen Bestandteil seiner Benchmarks gebaut wurde und sein Schöpfer es an eine handverlesene Liste von Early-Access-Testern verteilt — dann sieht der bestehende Verteidigungs-Softwarestack plötzlich deutlich fragiler aus.
Ein Modell der zweiten Stufe und was nach Mythos kommt
Die geleakten Dokumente beschränkten sich nicht auf Mythos. Anthropics Materialien verwiesen auch auf ein zweites Nachfolgemodell mit dem internen Codenamen „Capybara" — beschrieben als Version zwei derselben Leistungsstufe, ebenfalls oberhalb der aktuellen Opus-Reihe positioniert. Dieses Detail hat weniger Aufmerksamkeit erhalten als die ursprüngliche Mythos-Schlagzeile, ist aber relevant: Anthropic scheint eine komplett neue Fähigkeitsstufe aufzubauen, statt lediglich eine bestehende Modellfamilie aufzufrischen.
Aufgrund der Cybersicherheitsrisiken, die das Unternehmen in seinen eigenen Dokumenten identifizierte, kündigte Anthropic an, Mythos vorsichtig einzuführen — zunächst an Organisationen, die speziell im Bereich Cybersicherheitsverteidigung arbeiten. Das ergibt intuitiv Sinn — wenn man ein Modell gebaut hat, das Schwachstellen schneller finden und ausnutzen kann als Verteidiger sie patchen können, ist es der verantwortungsvolle Schritt, es zuerst den Leuten zu geben, die die Verteidigung betreiben. Ob diese Early-Access-Leitplanken halten, sobald das Modell breiter zirkuliert, ist eine ganz andere Frage.
Die finanziellen Auswirkungen erinnern an das, was im Februar geschah, als Anthropic Claude Cowork vorstellte — ein KI-System zur Automatisierung komplexer Arbeitsabläufe wie Vertragsprüfung und Compliance. Diese Ankündigung löste einen breiten Ausverkauf bei Software- und Professional-Services-Unternehmen aus, der rund $285 Milliarden an Marktwert vernichtete, als Investoren begannen, das strukturelle Risiko neu zu bewerten, dass Foundation-Model-Anbieter in den Bereich der Unternehmenssoftware vordringen.
Das ist eine höfliche Umschreibung dafür, dass wenn Anthropic ein Rechts-Workflow-Tool intern bauen kann, was sie dann davon abhält, dasselbe für Finanzen, Beschaffung oder HR zu tun?
Was bedeutet das Mythos-Leak für das KI-Wettrüsten?
Das Leak selbst — so unbeabsichtigt es auch war — fiel in eine besonders aufgeladene Woche. Nvidia-CEO Jensen Huang hatte gerade in Lex Fridmans Podcast erklärt: „Ich denke, wir haben AGI erreicht." Zwei Tage später veröffentlichte die ARC Prize Foundation ARC-AGI-3, den derzeit strengsten AGI-Benchmark, und jedes Frontier-Modell lag unter 1 %. Googles Gemini führte das Feld mit 0,37 % an. OpenAIs GPT-5.4 kam auf 0,26 %. Anthropics eigenes Claude Opus 4.6 erreichte 0,25 %.
Die AGI-Behauptungen und die Benchmark-Realität leben also gerade in verschiedenen Welten. Aber dieser Kontext macht das Mythos-Leak interessanter, nicht weniger. Anthropic behauptet kein AGI — es behauptet ein Modell, das „dramatisch höher" bei Coding, Reasoning und Cybersicherheit abschneidet als alles, was derzeit im Einsatz ist. Ob das die Lücke bei Benchmarks wie ARC-AGI-3 schließt oder völlig neue Angriffsflächen eröffnet, ist genau das, was die Early-Access-Tester vermutlich gerade herauszufinden versuchen.
Ein Bundesrichter blockierte zudem am Donnerstag das Pentagon daran, Anthropic als Lieferkettenrisiko einzustufen, und urteilte, die Kampagne der Regierung gegen das Unternehmen verletze die Rechte des Ersten Verfassungszusatzes und des ordentlichen Verfahrens. US-Bezirksrichterin Rita Lin erließ die einstweilige Verfügung vom Northern District of California aus. Der Streit mit dem Pentagon ist nicht vorbei, aber Anthropic ging mit etwas Luft zum Atmen aus diesem Urteil hervor. Und jetzt, wo Mythos in der Öffentlichkeit ist, beginnt die eigentliche Verhandlung — nicht zwischen Anthropic und der Regierung, sondern zwischen Anthropic und jedem CISO, der gerade zusehen musste, wie die Aktie seines Anbieters an einem einzigen Nachmittag um 7 % fiel.
Häufig gestellte Fragen
Was ist Claude Mythos?
Claude Mythos ist Anthropics KI-Modell der nächsten Generation, intern als das leistungsstärkste Modell beschrieben, das das Unternehmen je gebaut hat. Es befindet sich in einer neuen Leistungsstufe oberhalb der bestehenden Opus-Modellreihe, mit bedeutenden Fortschritten in den Bereichen Reasoning, Coding und Cybersicherheit — laut geleakten Entwurfsmaterialien aus Anthropics CMS.
Wie kam es zum Claude-Mythos-Leak?
Entwurfs-Blogmaterialien zu Claude Mythos waren in einem Content-Management-System von Anthropic gespeichert, das öffentlich zugänglich war. Die Dateien waren online auffindbar, bis Fortune Anthropic benachrichtigte, woraufhin das Unternehmen den Zugang einschränkte. Anthropic führte die Offenlegung auf menschliches Versagen bei der CMS-Konfiguration zurück.
Warum fielen Cybersicherheitsaktien nach dem Claude-Mythos-Leak?
Geleakte Dokumente besagten, Mythos sei „jedem anderen KI-Modell bei Cyber-Fähigkeiten weit voraus" und warnten, es könne Schwachstellen schneller ausnutzen als Verteidiger reagieren können. Diese Formulierungen verunsicherten Investoren bei Cybersicherheitsunternehmen und lösten Kursrückgänge von 4-7 % bei Palo Alto Networks, CrowdStrike, Zscaler und Fortinet am Freitag aus.
Wie plant Anthropic die Veröffentlichung von Claude Mythos?
Anthropic erklärte, man gehe angesichts der Fähigkeiten des Modells bedacht bei der Veröffentlichung vor und beginne mit einem begrenzten Early-Access-Rollout für Organisationen im Bereich Cybersicherheitsverteidigung. Das Unternehmen bestätigte, dass eine kleine Gruppe von Kunden das Modell bereits vor einer breiteren Verfügbarkeit testet.
