Letzte Woche geriet die Technologiebranche durch eine überraschende Ankündigung von Anthropic ins Trudeln: Sie haben ein KI-Modell entwickelt, das im Bereich der Cybersicherheit so mächtig ist, dass es als zu gefährlich für eine öffentliche Veröffentlichung gilt.
Das Modell mit dem Namen „Claude Mythos Preview“ ist Berichten zufolge in der Lage, Tausende von Sicherheitslücken mit hohem Schweregrad in den wichtigsten Betriebssystemen und Webbrowsern zu identifizieren. Um dieses Risiko zu bewältigen, hat Anthropic Project Glasswing ins Leben gerufen, eine Initiative, die nur auf Einladung zugänglich ist und es ausgewählten Organisationen ermöglicht, das Modell zu testen und ihre digitale Infrastruktur zu sichern.
Während die Ankündigung Krisendiskussionen unter Finanzführern auslöste und Ängste vor weit verbreiteten Hackerangriffen auslöste, bleibt eine zentrale Frage bestehen: Ist dies ein echter Sprung in der KI-Fähigkeit oder ein kalkulierter PR-Stunt, der darauf abzielt, Investitionen anzukurbeln?
Das Argument für einen Werbegag: „Corporate Theater“
Kritiker und Skeptiker argumentieren, dass der „Safety First“-Ansatz von Anthropic einem doppelten Zweck dient: dem Schutz der Öffentlichkeit und dem Aufbau einer Marke unverzichtbarer Macht.
- Vage Daten: KI-Sicherheitsingenieurin Heidy Khlaaf weist darauf hin, dass Anthropic kritische Kennzahlen zurückgehalten hat, wie etwa die Rate der „falsch positiven Ergebnisse“ und wie viel menschliches Eingreifen erforderlich war, um die Ergebnisse des Modells zu überprüfen. Ohne diese Daten können unabhängige Experten die Behauptungen nicht validieren.
- Der „Marketing-Flex“: Tal Kollender, CEO des Cybersicherheitsunternehmens Remedio, beschreibt den Schritt als „brillantes Unternehmenstheater“. Indem Anthropic das Modell als „zu gefährlich für die Veröffentlichung“ bezeichnet, erzeugt es eine Aura der Mystik und signalisiert den Anlegern eine immense technologische Dominanz.
- Historischer Präzedenzfall: Anthropic hat in der Vergangenheit immer wieder eindringliche Warnungen vor seinen eigenen Modellen herausgegeben. Skeptiker weisen darauf hin, dass einige frühere „gefährliche“ Verhaltensweisen tatsächlich das Ergebnis stark kontrollierter, künstlicher Testumgebungen und nicht der Absicht eines autonomen Modells waren.
Argumente für eine echte Bedrohung: Ein neues Ausmaß der Ausbeutung
Trotz der Skepsis deuten unabhängige Tests darauf hin, dass Claude Mythos kein bloßer Hype ist. Das AI Security Institute (AISI) hat kürzlich bestätigt, dass Mythos Cybersicherheitstests bestanden hat, die kein anderes Grenzmodell erfolgreich bestanden hat.
Die wirkliche Gefahr ist nicht unbedingt ein „Hollywood-Szenario“, in dem ein Teenager ein Stromnetz hackt, sondern vielmehr eine Verschiebung im Ausmaß und in der Geschwindigkeit von Cyberangriffen :
- Automatisierte Erkennung: Im Gegensatz zu aktuellen Tools kann Mythos die Erkennung von „Zero-Day“-Schwachstellen (bisher unbekannten Schwachstellen) in einem beispiellosen Ausmaß automatisieren.
- Schnelle Ausnutzung: Hochentwickelte Hackergruppen könnten solche Modelle nutzen, um Schwachstellen schneller zu finden und auszunutzen, als menschliche Verteidiger sie beheben können.
- Nachgewiesene Fähigkeiten: Der Forscher Nicholas Carlini stellte fest, dass Mythos bereits Schwachstellen in Linux identifiziert hat, die einen unbefugten administrativen Zugriff ermöglichen, was seine technische Leistungsfähigkeit unter Beweis stellt.
Der Mittelweg: Ein zweischneidiges Schwert
Für viele Experten lautet die Antwort nicht „entweder/oder“, sondern beides. Anthropic sagt wahrscheinlich die Wahrheit über die Macht des Modells und nutzt diese Wahrheit gleichzeitig, um seine Marktposition zu stärken.
„Ich würde sagen, es ist beides, und das ist keine Kritik … Jeder große Plattform-Rollout in dieser Ära wird für verschiedene Zielgruppen unterschiedlich aussehen, abhängig von ihrer Sprachkompetenz und ihrer Angsttoleranz.“
— Howie Xu, Chief AI & Innovation Officer bei Gen
Die aktuelle Realität ist ein asymmetrisches Wettrüsten. Während Claude Mythos ein erhebliches Sicherheitsrisiko darstellt, bietet dieselbe Technologie denjenigen, die die digitalen Grenzen verteidigen, einen enormen Vorteil. Da die KI immer besser in der Lage ist, Fehler zu finden, erhalten die mit deren Behebung beauftragten Organisationen ebenso leistungsstarke Tools zur Automatisierung der Verteidigung.
Fazit: Claude Mythos stellt einen echten Technologiesprung dar, der die Entdeckung digitaler Schwachstellen automatisiert, aber der risikoreiche Rollout von Anthropic ist auch eine Meisterklasse in Sachen strategischer Positionierung. Die tatsächlichen Auswirkungen werden davon abhängen, ob Verteidiger dieselben „gefährlichen“ Tools nutzen können, um den Hackern einen Schritt voraus zu sein.






























