StartseiteArtikel

97,6 % nahe am vollen Punktesatz. Claude's stärkstes Modell wird veröffentlicht, aber es wird den Benutzern nicht zur Verfügung gestellt: Es ist zu gefährlich.

雷科技2026-04-09 11:03
Wann kann man das stärkste Modell auf der Erde nutzen?

Letzte Nacht hat die neueste Vorschauversion von Claude Mythos von Anthropic die gesamte KI-Branche auf den Kopf gestellt.

Die Vorschauversion von Claude Mythos wird von der offiziellen Seite als „das bisher stärkste KI-Modell“ bezeichnet. Es repräsentiert eine neue Leistungsebene und übertrifft sogar deutlich das bisher stärkste eigene Modell, Claude Opus 4.6.

Zumindest anhand der bisher gezeigten Daten und Ergebnisse handelt es sich hierbei nicht um Marketing-Redewendungen, sondern um einen echten qualitativen Sprung. Zunächst liegt die Vorschauversion von Claude Mythos in fast allen öffentlichen Benchmarks an erster Stelle. Noch beeindruckender ist jedoch ihr Fortschritt:

Im SWE-bench Verified für Software-Engineering ist der Anteil von 80,8 % bei Opus 4.6 auf 93,9 % gestiegen, im SWE-bench Pro von 53,4 % auf 77,8 %. Im USAMO 2026 für hochschwere mathematische Schlussfolgerungen ist der Anteil sogar von 42,3 % direkt auf 97,6 % gestiegen – fast eine volle Punktzahl.

Bildquelle: Anthropic

Es kann als das derzeit stärkste Modell auf der Erde bezeichnet werden.

Dies sind nur einige „kleine“ Beispiele. Noch beeindruckender ist, dass Anthropic in den letzten Wochen praktische Tests durchgeführt hat. Die Vorschauversion von Mythos hat in den gängigen Betriebssystemen und gängigen Browsern Tausende von hochgefährlichen Null-Tage-Lücken (zero-day) autonom entdeckt, einschließlich Kernkomponenten wie dem Linux-Kernel, OpenBSD, dem Firefox-Browser und FFmpeg.

Viele Lücken wurden von menschlichen Sicherheitsteams in zehn oder zwanzig Jahren nicht entdeckt. Beispielsweise hat die Vorschauversion von Mythos in OpenBSD, das für seine Sicherheit bekannt ist, eine versteckte Fernabsturz-Lücke entdeckt, die 27 Jahre lang unerkannt geblieben ist. Die offizielle Seite von Anthropic hat sogar mit Bestimmtheit erklärt, dass die Vorschauversion von Mythos in Bezug auf die Netzwerksicherheit weit über alle anderen KI-Modelle hinausgeht.

Dies ist kein „besserer Claude“. Seine Fähigkeiten in Bezug auf das Schreiben von Code, das Durchführen von Schlussfolgerungen und das Bewahren der Sicherheit haben alle ein bisher nie dagewesenes Maß an Autonomie und Tiefe erreicht. Die Entwickler hatten gehofft, dass sie endlich ihre Produktivität vollständig entfesseln könnten, aber das Ergebnis war:

Anthropic hat die Tür einfach geschlossen.

Ja, zumindest derzeit ist die Vorschauversion von Claude Mythos nicht für die Öffentlichkeit zugänglich. Laut der offiziellen Erklärung wird die Vorschauversion von Mythos derzeit nur für „defensive Netzwerksicherheit“ verwendet, und nur 12 Partner (AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks) sowie über 40 Organisationen, die kritische Software-Infrastrukturen erstellen oder warten, haben Zugangs- und Nutzungsrechte für die Vorschauversion von Mythos.

Bildquelle: Anthropic

Dies ist das gleichzeitig von Anthropic gestartete Project Glasswing. Anthropic hat sogar 100 Millionen US-Dollar bereitgestellt, um über 40 zusätzliche Organisationen bei der Nutzung der Vorschauversion von Mythos zur Wartung der „Grundlagen“ der Open-Source-Ökosystem zu unterstützen.

Warum wird ein „stärkstes Modell“ versteckt und nicht für die Nutzung freigegeben?

Die Waffe ist zu stark und erfordert eine Übergangsphase

Zunächst ist klar, dass die Vorschauversion von Claude Mythos oder ein Super-Großmodell ähnlicher Ebene auf jeden Fall für die Öffentlichkeit zugänglich gemacht werden wird. Die offizielle Seite von Anthropic hat es sehr direkt geschrieben:

„Obwohl wir derzeit keine Pläne haben, die Vorschauversion von Claude Mythos für die Öffentlichkeit freizugeben, ist unser endgültiges Ziel, es den Benutzern zu ermöglichen, das Mythos-Modell auf sichere Weise in großem Maßstab bereitzustellen – nicht nur für die Netzwerksicherheit, sondern auch für die unzähligen anderen Vorteile, die diese leistungsstarken Modelle bringen werden.“

Wie in der offiziellen Blog-Nachricht angedeutet, ist dieses Modell „zu gefährlich“.

Ende vergangenen Jahres hat die Google Threat Intelligence Group (GTIG) die beiden echten Beispiele PromptFlux und PromptSteal entdeckt: Sie verbinden sich während der Laufzeit direkt mit kommerziellen Großmodellen (z. B. der Gemini-API), generieren dynamisch bösartige Skripte, verwirren ihre eigenen Codes in Echtzeit und können neue Funktionen „vor Ort“ basierend auf der Zielumgebung erstellen, um vollständig die traditionelle Signaturerkennung zu umgehen und Angriffe durchzuführen.

Dies ist kein Einzelfall. Laut einem Bericht der Marktforschungsfirma SQmagazine ist die Anzahl der weltweit gemeldeten KI-gesteuerten Netzwerkangriffe um 47 % gestiegen und wird auf über 28 Millionen geschätzt.

Die Fähigkeit der Vorschauversion von Mythos, Sicherheitslücken zu finden, hat sich bereits angezeigt. Insbesondere im Vergleich zur nahezu 0 %-igen Erfolgsrate des bisher stärksten Claude-Modells, Opus 4.6, bei der autonomen Entdeckung und Nutzung von Sicherheitslücken ist die Leistung der Vorschauversion von Mythos erstaunlich.

Nehmen wir als Beispiel die in der Mozilla Firefox 147 JavaScript-Engine gefundene und bereits behobene Lücke. Claude Opus 4.6 hat bei der Nutzung der Lücke Hunderte von Versuchen unternommen und nur zweimal erfolgreich sein können, während die Vorschauversion von Claude Mythos in demselben Test 181 Mal erfolgreich die Lücke genutzt hat.

Bildquelle: Anthropic

Aus den Testberichten geht hervor, dass die Vorschauversion von Mythos in den letzten Wochen bei internen Red-Team-Tests eine Angriffsfähigkeit gezeigt hat, die weit über die Fähigkeiten von Spitzen-Sicherheitsexperten hinausgeht. Sie kann nicht nur „Sicherheitslücken finden“, sondern auch Tausende von hochgefährlichen Null-Tage-Lücken autonom entdecken und kettenartig nutzen.

Es ist bekannt, dass es weiße und schwarze Hacker gibt. Weiße Hacker informieren normalerweise die Projektmanager über gefundene Sicherheitslücken und reparieren sie sogar aktiv in Open-Source-Projekten. Schwarze Hacker hingegen nutzen möglicherweise Sicherheitslücken, um Systeme anzugreifen.

Obwohl die Vorschauversion von Mythos sowohl Angriffe als auch Verteidigungen durchführen kann, ist ihr Angriffspotenzial immer noch so groß, dass es besorgniserregend ist. Sollte es in die Hände von Personen mit bösen Absichten fallen, könnte es sofort eine KI-Level-Angriffskette aufbauen. Selbst Anthropic selbst hat erklärt, dass es sich hierbei nicht um ein gewöhnliches Frontmodell handelt, sondern dass die allgemeinen Fähigkeiten so stark sind, dass sie den Netzkrieg in eine neue Dimension bringen können.

Der Angriff- und Verteidigungs-Krieg im Bereich der Computesicherheit hat immer die Regel „der Böse wird um einen Zoll stärker, der Gute um einen Fuß“ befolgt. In den letzten zwei Jahren war der Sicherheits-Angriff- und Verteidigungs-Krieg um KI-Großmodelle auch eines der Schwerpunkte der Branche, insbesondere der großen Unternehmen. Ohne weit zurückzugehen, haben ByteDance und Ant Group in China in den letzten zwei Jahren ähnliche KI-Großmodell-Angriff- und Verteidigungs-Kämpfe durchgeführt, um Sicherheitsherausforderungen in der KI-Zeit durch die Konfrontation zwischen Rot (Angreifer) und Blau (Verteidiger) zu entdecken und zu lösen.

Bildquelle: Globaler KI-Großmodell-Angriff- und Verteidigungs-Wettbewerb

Anthropic hat jedoch auch darauf hingewiesen, dass langfristig ein so starkes Sprachmodell wie die Vorschauversion von Mythos eher der „Blauen Seite“ bei der Verteidigung hilft. Kurzfristig würde die Vorschauversion von Mythos jedoch, wenn sie für die Öffentlichkeit zugänglich gemacht würde, schnell von Angreifern genutzt werden, um das globale Netzwerk mit bisher nie dagewesener Effizienz anzugreifen. Das Problem ist, dass Verteidigungsmaßnahmen eher passiv sind, während Angriffsmaßnahmen aktiver sind. Angesichts der Interessen haben Angreifer auch mehr Motivation, Modelle wie die Vorschauversion von Mythos aktiv zu nutzen.

Um eine „ruhige Übergangsphase“ zu gewährleisten, hat Anthropic das „Glasswing-Projekt“ gestartet.

Übrigens ist der Name dieses Projekts von einem in Amerika weit verbreiteten Schmetterling namens Greta oto inspiriert, der wegen seiner transparenten Flügel oft als „Glasswing-Butterfly“ bezeichnet wird. Obwohl er sehr zerbrechlich aussieht, kann er tatsächlich eine Last von 40 Mal seinem Eigengewicht aufnehmen.

Glasswing-Butterfly, Bildquelle: Pixabay

Die Logik des „Glasswing-Projekts“ ist sehr einfach: Es ermöglicht es den Verteidigern, die Waffe zuerst zu erhalten. Bevor die Angreifer auf ein ähnliches Niveau an KI zugreifen können, werden alle Sicherheitslücken geschlossen, und die Verteidiger lernen die Sicherheitsverteidigung auf der Grundlage fortschrittlicher KI.

Von diesem Blickwinkel aus gesehen ist es richtig, das stärkste Modell von Claude nicht für die Nutzung freizugeben. Darüber hinaus ist es auch für normale Claude-Benutzer von Vorteil, wenn die Vorschauversion von Claude Mythos vorerst nicht zugänglich gemacht wird.

Ist Claude besser nutzbar, wenn das stärkste Modell nicht zugänglich ist?

Viele Menschen sind enttäuscht, wenn sie erfahren, dass die Vorschauversion von Mythos nicht zugänglich ist. Warum wird ein so starkes Modell nicht für alle freigegeben?

Aber wenn Sie ein normaler Claude-Benutzer oder ein Entwickler sind, der täglich mit Claude Code schreibt und Projekte durchführt, werden Sie möglicherweise feststellen, dass es für uns von Vorteil ist, wenn die Vorschauversion von Mythos vorerst nicht zugänglich ist.

Erzählen wir zunächst von den aktuellsten Schwierigkeiten, die alle spüren.

Ab ungefähr Februar dieses Jahres hat Claude und Claude Code eine „epische Leistungseinbuße“ erfahren. In den Reddit-Foren r/ClaudeCode und r/ClaudeAI sind die entsprechenden Beiträge zu dieser Thematik überfüllt. Einige haben direkt Beiträge wie „4.6 Regression is real!“ geschrieben, andere haben sich beschwert: „Claude Code has been dumb over the last 1,5 - 2 days“.

Bildquelle: Reddit

Einige Entwickler haben die Daten verfolgt und festgestellt, dass die Anzahl der Dateilesevorgänge von zuvor 6 - 7 Mal auf nur etwa 2 Mal gesunken ist. Das Modell wird bei komplexen Aufgaben immer „fauler“, die Tiefe des Denkens ist deutlich geringer, und es wählt oft direkt die Methode „edit-first“ anstatt zuerst zu recherchieren.

Stella Laurenzo, Leiterin der AMD AI, hat sogar öffentlich erklärt, dass Claude Code „dümmer und fauler“ geworden ist und nicht für komplexe Ingenieurtasks vertrauenswürdig ist.

Boris (Mitglied des Claude Code-Teams) hat auf Hacker News geantwortet und zugegeben, dass es bei einigen agentischen Anwendungsfällen zu einer Regression gekommen ist. Der Kern der Veränderung ist die im Februar eingeführte „redact-thinking“ und die Adaptive Thinking, die es dem Modell ermöglichen, selbst zu bestimmen, wie lange es nachdenken soll. Das Ergebnis ist, dass die Tiefe bei komplexen Aufgaben um etwa 67 % gesunken ist.

Bildquelle: Linkedln

Ähnliche Stimmen gibt es auch auf X. Entwickler beschweren sich, dass Claude Code zu einem „Azubi“ geworden ist, den man ständig überwachen muss.

Warum tritt dieser Fall auf?

Die Regeln für das Training von Super-Großparametermodellen sind klar: Wenn große Unternehmen auf das nächste „stärkste Modell“ zusteuern, benötigen sie eine enorme Rechenleistung. Vor der Veröffentlichung von Gemini 3.