StartseiteArtikel

Anthropics „Oppenheimer-Moment“: Das Unternehmen, das am meisten Angst vor KI hat, hat die gefährlichste KI geschaffen.

爱范儿2026-04-09 09:38
Claude Mythos ist aus Gründen des Netzwerksicherheitsrisikos nicht öffentlich zugänglich und kann Null-Tage-Lücken entdecken und nutzen.

Anthropic hat sein bisher leistungsstärkstes Modell, Claude Mythos, veröffentlicht, das nicht für die Öffentlichkeit zugänglich sein wird.

Je mehr man darüber liest, desto neugieriger wird man. Wie leistungsstark ist es denn eigentlich?

Der Grund für die Nichtveröffentlichung ist, dass das Modell „unpräzedenzielle Cybersicherheitsrisiken“ (stellt beispiellose Cybersicherheitsrisiken dar) birgt. Bisher wurden alle Modelle im Bereich der Cybersicherheit getestet, und bisher hat nur Mythos eine solche „hohe Bewertung“ erhalten.

Das Unternehmen, das am meisten Angst vor KI hat, entwickelt die gefährlichste KI. Dies betrifft Sie und mich.

Selbst das Unternehmen A hat Angst

Vor der Veröffentlichung von Mythos hat Anthropic in Privatgesprächen US-Regierungsbeamten gewarnt, dass Mythos es 2026 einfacher machen würde, Massenangriffe im Internet durchzuführen.

Am 7. April hat das Red-Team-Sicherheitsteam von Anthropic einen technischen Bewertungsbericht über Mythos Preview veröffentlicht. Dieser Bericht gehört zu den wichtigsten technischen Dokumenten auf dem Gebiet der KI-Sicherheit in den letzten Jahren. Der Grund, warum das Unternehmen A sich entschied, Mythos nicht öffentlich zu veröffentlichen, liegt darin:

Mythos Preview kann „Null-Tage-Schwachstellen“ (Zero-Day-Vulnerabilities) in jedem Hauptbetriebssystem und jedem Haupbrowser finden und eigenständig Angriffscode schreiben.

Im Bereich der Cybersicherheit bezieht sich „Null-Tage“ darauf, dass die Entwickler nach der Entdeckung einer Schwachstelle keine Zeit haben, sie zu beheben – in dem Moment, in dem sie entdeckt wird, kann sie bereits ausgenutzt werden, und die Verteidiger haben keine Vorbereitungszeit.

Wie wir in einem früheren Beitrag erwähnt haben, hat Mythos eine 27 Jahre alte TCP-Protokollschwachstelle in OpenBSD, eine 16 Jahre alte Videodecodierschwachstelle in FFmpeg, eine 17 Jahre alte Ferncodeausführungsschwachstelle (CVE - 2026 - 4747) im FreeBSD - Kernel, eine Speicherbeschädigungsschwachstelle in einem nicht genannten produktionsreifen Cloud Computing - VMM sowie mehrere Sandbox - Escape - Schwachstellen in Haupbrowsern gefunden. Diese Schwachstellen existieren seit zehn oder sogar zwanzig Jahren und wurden bisher von niemandem oder keinem Tool entdeckt.

Warum konnten diese Schwachstellen so lange verborgen bleiben? Offensichtlich nicht, weil sie zu einfach waren und daher übersehen wurden, sondern weil sie zu komplex sind: Sie erfordern eine Inferenz über mehrere Dimensionen hinweg sowie genaue Triggerbedingungen.

Das wichtigste automatisierte Tool in der Sicherheitsbranche ist derzeit der Fuzzer (Fuzz - Testgerät), das einem Programm eine große Anzahl zufälliger Eingaben zuführt, um zu sehen, ob es abstürzt. Fuzzer sind gut darin, einfache Beziehungen wie „Eingabe X führt zum Absturz“ zu entdecken.

Ein Fuzzer kann nicht „schließen“, sondern testet nur blind. Beispielsweise muss man bei der Sicherheitslücke in OpenBSD verstehen, dass zwei scheinbar unabhängige Bedingungen zusammengeführt werden müssen, um einen Absturz zu verursachen. Bei der Schwachstelle in FFmpeg muss eine Videodatei erstellt werden, die einen bestimmten Wert exakt trifft. Bei normaler Nutzung oder zufälligen Tests wird diese Schwachstelle möglicherweise niemals entdeckt.

Was ist mit Menschen? Menschen können schließlich schließen. Aber menschliche Prüfer müssen die Skalierung berücksichtigen. Diese Projekte haben Millionen von Codezeilen, und es ist unmöglich, jedes File Zeile für Zeile zu überprüfen. Darüber hinaus gibt es eine psychologische Blindheit: Wenn ein Code 27 Jahre lang sicher funktioniert hat, nimmt jeder an, dass jemand ihn bereits überprüft hat.

Die qualitative Veränderung von Mythos besteht darin, dass es erstmals beide Fähigkeiten, Inferenz und gezieltes Experimentieren, in sich vereint. Traditionelle Tools testen „blind“: Sie geben zufällige Eingaben ein und beobachten das Ergebnis. Menschliche Prüfung basiert auf „Inferenz“: Sie lesen den Code, schließen auf Schwachstellen und verifizieren diese.

Mythos vereint beide Ansätze. Es versteht die Semantik des Codes, stellt die Hypothese auf, dass hier eine Schwachstelle vorhanden sein könnte, und startet dann selbst das Programm, fügt Debugging - Logik hinzu und führt Experimente durch, um die Hypothese zu verifizieren oder zu widerlegen. Dies wird wiederholt.

Anthropic betont, dass diese Fähigkeiten nicht das Ergebnis einer speziellen Schulung sind, sondern ein Nebenprodukt der allgemeinen Verbesserungen des Modells in Bezug auf Code, Inferenz und Autonomie. Sie sind „emergent“. Indem das Modell besser darin wird, Schwachstellen zu beheben, wird es auch besser darin, sie auszunutzen. Das Vorgängermodell Opus 4.6 hatte bei der autonomen Ausnutzung von Schwachstellen eine Erfolgsrate von fast 0 %. Bei demselben Test stieg die Erfolgsrate von Mythos Preview von 2 auf 181 Mal. Es ist nicht eine schrittweise Verbesserung, sondern ein Sprung ins Ungewisse.

Der Chefwissenschaftler von Anthropic, Jared Kaplan, sagte der New York Times, dass er es wünsche, dass mehr Menschen die Fähigkeiten dieser Technologie verstehen würden, denn das bedeutet, dass das Modell nicht nur in der Lage ist, Schwachstellen zu finden und Probleme zu entdecken, sondern auch in der Lage ist, diese Probleme auszunutzen und Schwachstellen automatisch in nutzbare Waffen umzuwandeln.

Ein anderer Sicherheitsforscher, Logan Graham, hat eine noch schärfere Frage gestellt: Es gibt weltweit eine große Anzahl an kritischen Infrastrukturen, die auf alten Codes basieren. Ihre Sicherheit hat bisher hauptsächlich darauf beruht, dass deren Angriff eine große Anzahl an menschlicher Arbeitskraft erfordert. „Was passiert, wenn dieses Sicherheitskonzept nicht mehr gilt?“

Das System, auf das Sie sich verlassen, verliert seine Schutzfunktion

Cybersicherheit ist ein eher hoher Begriff, aber tatsächlich ist es eng mit dem täglichen Leben jedes Internetnutzers verbunden.

Das bekannteste Beispiel ist FFmpeg, eine Open - Source - Videobehandlungslibrary, die für die Decodierung, Codierung und Konvertierung von Videos verantwortlich ist. YouTube, Netflix, Bilibili, der Videobereich von WeChat und der VLC - Player – fast alle Software, die Videos abspielen oder verarbeiten muss, ist direkt oder indirekt von FFmpeg abhängig. Wenn Sie täglich Videos auf Ihrem Handy ansehen, läuft wahrscheinlich der Code von FFmpeg auf Ihrem Gerät.

Bei einer so grundlegenden Infrastruktur war es bisher kein Problem, dass im Code eine 16 Jahre alte Schwachstelle verborgen war, die niemand entdeckt hatte – bis Mythos auf den Markt kam.

Die Schwachstellen, die Mythos in diesen Systemen gefunden hat, haben bisher keine Probleme verursacht, weil es eine große Anzahl an menschlichen Experten und Zeit erforderte, sie zu finden. Jetzt besteht diese Hürde nicht mehr.

Ein Bericht der New York Times vom 6. April hat ein breiteres Bild gezeichnet: KI verändert grundlegend die Balance zwischen Angriff und Verteidigung in der Cybersicherheit. Hacker nutzen KI, um Angriffe zu beschleunigen, und die Verteidiger müssen ebenfalls mehr KI einsetzen, um zu reagieren. Menschliche Sicherheitsexperten werden aus der ersten Reihe der Angriffe und Verteidigungen verdrängt.

Am nächsten Tag berichtete TIME über die neuesten Forschungen von Google und dem Quantencomputing - Startup Oratomic. KI - unterstützte Quantencomputer könnten die Zeit, die benötigt wird, um Internet - Verschlüsselungsprotokolle zu knacken, um mehrere Jahre verkürzen. Das Forschungsteam von Oratomic hat KI - Tools eingesetzt, um Algorithmen zu optimieren und die Anzahl der benötigten Quantenbits für die Konstruktion eines gefährlichen Quantencomputers um das 100 - fache zu reduzieren. Der Mitbegründer Dolev Bluvstein sagte: „Wir haben KI eingesetzt, um diese Forschung zu beschleunigen, das ist unbestritten.“

Die Einschätzung des Sicherheitsforschers Bas Westerbaan von Cloudflare war noch direkter: „Fast jedes System auf der Welt wird für Quantenangriffe anfällig.“

Wird man sich für die Entdeckung von Problemen auch verantwortlich zeigen?

Anthropic ist eines der Unternehmen in Silicon Valley, die am häufigsten das Banner der „verantwortlichen KI“ hissen. Die Gründer haben OpenAI verlassen, weil sie sich Sorgen um die Sicherheit von KI machten. Das Unternehmen A veröffentlicht jedes Jahr eine große Anzahl an Sicherheitsforschungen. Gleichzeitig hat es aber auch eine der gefährlichsten Waffen im Bereich der Cybersicherheit entwickelt.

Es gibt nur eine dünne Grenze zwischen verantwortlicher Offenlegung und Gefahrenwarnung. Im Rahmen der Veröffentlichung von Mythos hat Anthropic auch das Projekt Glasswing ins Leben gerufen. Dabei werden diese Tools zunächst an die Verteidiger (kritische Infrastrukturen und Open - Source - Projekte) übergeben, damit sie die wichtigsten Schwachstellen beheben können, bevor Modelle mit ähnlichen Fähigkeiten allgemein verfügbar sind.

Das ist das am wenigsten intuitive Teil: Das Unternehmen, das diese Probleme entdeckt hat, ist auch das Unternehmen, das immer wieder vor diesen Problemen gewarnt hat. Anthropic gibt nicht vor, dass alles in Ordnung sei. Es sagt laut und deutlich: Wir haben etwas Gefährliches geschaffen, wir wissen, dass es gefährlich ist, und wir tun alles, um den Verteidigern einen Vorsprung zu verschaffen. Aber sie wissen auch, dass ähnliche Modelle von anderen Unternehmen bald folgen werden. Durch die öffentliche Demonstration der Gefahren erreicht Anthropic zwei Ziele: Es etabliert sich als Sicherheitsautorität und beweist den potenziellen Kunden die Grenzen der Fähigkeiten von Mythos. „Dieses Modell ist so stark, dass es uns selbst Angst macht.“ Diese Aussage ist sowohl eine Warnung als auch eine Werbung.

Und gleichzeitig wird das Sicherheitskonzept Ihrer Browser, Ihrer Cloud - Dienste, Ihrer Videoplattformen und Ihrer verschlüsselten Kommunikation neu definiert. Die Sicherheitsabdeckung, die diese Systeme bisher hatten, wird immer schwächer. Früher waren sie „sicher“, weil Angreifer eine große Anzahl an menschlicher Arbeitskraft und Zeit benötigten, um Schwachstellen zu finden und auszunutzen. Jetzt kann ein Modell dieselbe Arbeit in wenigen Stunden erledigen.

Die Sicherheit von KI ist nicht mehr nur ein Branchenthema, sondern betrifft Sie und mich. Und Mythos ist nur der Anfang.

Dieser Artikel stammt aus dem WeChat - Account „APPSO“, Verfasser: Entdecker zukünftiger Produkte. 36Kr hat die Veröffentlichung mit Genehmigung durchgeführt.