Das stärkste Hacker-Großmodell ist kein Mythos mehr.
【Einführung】 Microsoft hat mit einem Multi-Agent-System den ersten Platz in der Spitzen-Benchmark-Testung für die Entdeckung von KI-Schwachstellen errungen und dabei das stärkste Modell von Anthropic, Mythos, um fünf Prozentpunkte übertroffen. Seltsamerweise verfügt Microsoft selbst über kein marktführendes Modell. Es hat ein System aus fremden Modellen zusammengestellt und damit die Unternehmen besiegt, die diese Modelle entwickelt haben. Die Implikationen für die Wettbewerbssituation in der KI sind wichtiger als die Tatsache, dass dieses Tool eine Vielzahl von Schwachstellen im Windows-System aufgedeckt hat.
Das stärkste Hacker-Großmodell Mythos wurde tatsächlich von einem Außenseiter übertroffen!
Am 12. Mai veröffentlichte Microsoft ein KI-Sicherheitssystem mit dem Codename MDASH und erreichte gleichzeitig die Spitze der CyberGym-Benchmark-Testung mit einem Ergebnis von 88,45%.
Darunter platzierten sich Mythos Preview von Anthropic (83,1%) und GPT-5.5 von OpenAI (81,8%).
https://www.cybergym.io/
Im CyberGym-Ranking verwendet Anthropic sein stärkstes eigenes Modell Mythos, und OpenAI verwendet sein stärkstes eigenes Modell GPT-5.5.
Welches Modell verwendet Microsoft?
Die Antwort ist: fremde Modelle.
Microsoft schrieb in seinem Blog ausdrücklich, dass MDASH ausschließlich „allgemein verfügbare Modelle“ verwendet, also Modelle, die auf dem Markt öffentlich zugänglich sind.
https://www.microsoft.com/en-us/security/blog/2026/05/12/defense-at-ai-speed-microsofts-new-multi-model-agentic-security-system-tops-leading-industry-benchmark/
Microsoft verfügt selbst über kein marktführendes Modell, das mit Mythos oder GPT-5.5 konkurrieren kann.
Wenn Microsoft auf dieser Rangliste ein einzelnes Modell testen würde, würde es höchstwahrscheinlich in der unteren Hälfte landen.
Aber es hat ein System zusammengestellt, das über 100 spezialisierte Agenten koordiniert, sodass mehrere Modelle in einer kooperativen Zusammenarbeit arbeiten und ein höheres Ergebnis erzielen als jedes einzelne Modell.
Es hat mit fremden Steinen das höchste Gebäude gebaut.
Microsoft hat mit diesem Tool bereits 16 hochgradig gefährliche Schwachstellen im eigenen Windows 11-System aufgedeckt!
Demonstration der Auswirkungen der Schwachstelle CVE-2026-33827, die zu einem Bluescreen durch Remoteausführung führt
Was ist diese Rangliste?
CyberGym wurde von einem Team der UC Berkeley entwickelt, und die dazugehörige Studie wurde 2026 in der ICLR veröffentlicht. Es ist eine der autoritativsten öffentlichen Benchmarks im Bereich der Bewertung von KI-Sicherheitsfähigkeiten.
https://arxiv.org/pdf/2506.02548
Anthropic, OpenAI, Meta und Zhipu haben alle Ergebnisse auf dieser Liste eingereicht.
Die Testmethode ist recht einfach: Man gibt der KI einen Code mit bekannten Schwachstellen und eine Beschreibung der Schwachstellen und lässt sie einen Angriffscode schreiben, der die Schwachstelle auslöst.
Es gibt 1507 Aufgaben, die aus 188 echten Open-Source-Projekten stammen.
Man kann sofort feststellen, ob die KI Schwachstellen finden und beweisen kann, dass sie ausgenutzt werden können.
Ein Detail ist bemerkenswert: Die Ergebnisse auf der Rangliste werden von den jeweiligen Unternehmen selbst eingereicht, und der Benchmark-Code ist zwar öffentlich, aber es gibt keine unabhängige dritte Partei, die die Ergebnisse verifiziert.
Die Stärke des Multi-Agent-Systems
Die zentrale Erkenntnis, die MDASH bringt: Ein „System“ kann die Lücke zwischen „Modellen“ ausgleichen oder sogar überwinden.
Anthropic hat enorme Forschungs- und Entwicklungsaufwendungen in die Entwicklung von Mythos investiert. Dies ist derzeit das anerkannt stärkste einzelne Modell im Sicherheitsbereich, so stark, dass Anthropic es selbst nicht öffentlich veröffentlichen möchte und es nur über ein Bündnis namens Project Glasswing für wenige Unternehmen gezielt zugänglich macht.
GPT-5.5 von OpenAI ist ebenfalls ein marktführendes Modell, das mit den Ressourcen des gesamten Unternehmens trainiert wurde.
Microsoft verfügt über kein solches Modell.
Aber es hat eine Pipeline entwickelt, die die fünf Phasen „Vorbereitung → Scan → Verifizierung → Duplikatentfernung → Beweis“ aufteilt und in jeder Phase verschiedene Agenten und Modelle einsetzt.
Der Prüfungs-Agent und der Debatten-Agent werden getrennt eingesetzt, die Entdeckung und der Nachweis von Schwachstellen werden getrennt durchgeführt, für schwere Inferenzaufgaben werden große Modelle verwendet, und für häufige Verifizierungen werden distillierte kleine Modelle eingesetzt.
Das Wichtige ist, dass dieses System nicht an bestimmte unterliegende Modelle gebunden ist.
Wenn ein neues Modell verfügbar ist, kann man einfach die Konfiguration ändern und einen A/B-Test durchführen, und alle bisherigen Engineering-Assets können wiederverwendet werden.
Microsoft betonte in seinem Blog besonders diesen Punkt: „Das Modell ist nur eine Eingabe“, das Modell ist nur eine von vielen Eingaben.
Dies stellt eine neue Bedrohung für Anthropic und OpenAI dar.
Der Vorteil ihrer Modelle, die mit astronomischen Beträgen an US-Dollar trainiert wurden, wird von einem Systemebenen-Konkurrenten durch Engineering-Methoden aufgelöst.
Was noch ärger ist, verwendet Microsoft sogar ihre eigenen Modelle.
Welche potenziellen Veränderungen bringt dies für das Endergebnis der ASI?
Am Tisch der marktführenden Modelle haben nur Anthropic und OpenAI echte Spielkarten.
Obwohl Microsoft der größte Investor und Cloud-Computing-Partner von OpenAI ist, hat es selbst nie ein echtes Flaggschiff-Modell in die erste Liga gebracht.
Das Ergebnis der CyberGym-Testung bringt eine Frage auf den Tisch: Gibt es einen oder zwei Wege zur ASI?
Der erste Weg ist der, den Anthropic und OpenAI gehen: Sie treiben ein einzelnes Modell bis an seine Grenzen.
Mythos ist in der Sicherheitsbranche so stark, dass seine Veröffentlichung eingeschränkt werden muss, und GPT-5.5 setzt auf verschiedenen Benchmarks ständig neue Rekorde.
Mythos wird nur über Project Glasswing getestet
Dieser Weg erfordert eine enorme Rechenleistung, eine riesige Datenmenge und ein erstklassiges Forschungsteam, die Schwelle ist sehr hoch.
Der zweite Weg ist der, den Microsoft mit MDASH zeigt: Anstatt das stärkste einzelne Modell zu entwickeln, wird ein System aufgebaut, das die Fähigkeiten vorhandener Modelle maximiert.
Über 100 Agenten haben ihre jeweiligen Aufgaben, die Differenzen zwischen den Modellen werden zu Signalen, und die mehrstufige Pipeline ermöglicht es, Aufgaben zu lösen, die eine einzelne Inferenz nicht bewältigen kann, indem sie die Aufgaben aufteilt.
Die Ergebnisse von MDASH zeigen, dass der zweite Weg zumindest in bestimmten Bereichen machbar ist.
Aber das bedeutet nicht, dass der zweite Weg den ersten ersetzen kann.
Die unterliegenden Modelle, die MDASH verwendet, stammen immer noch von Unternehmen, die den ersten Weg gehen.
Wenn Anthropic und OpenAI aufhören, stärkere Modelle zu trainieren, wird auch die Obergrenze von MDASH stagnieren.
Dies geht nicht nur um Microsoft
Das Multi-Agent-System als Paradigma geht von der Experimentierphase in die Produktion über.
Mehrere Kernmitglieder des MDASH-Teams stammen aus Team Atlanta, der Mannschaft, die im DARPA KI-Netzwerk-Wettbewerb 29,5 Millionen US-Dollar an Preisen gewonnen hat.
Eine zentrale Erkenntnis, die sie verifiziert haben, ist, dass es viel mehr Aufwand erfordert, die KI für professionelle Sicherheitsüberprüfungen einzusetzen, als für das Modell selbst.
Microsoft hat gleichzeitig 16 Windows-Schwachstellen bekannt gegeben, die mit Hilfe von MDASH entdeckt wurden, darunter 4 Schwachstellen für kritische Remote-Code-Ausführung.
Die meisten dieser Schwachstellen können über das Netzwerk ohne Authentifizierung ausgelöst werden und wurden im Mai bei der Patch-Tuesday-Fixrunde behoben.
Bei internen Rückwärts-Tests erreichte MDASH eine Wiederauffindungsrate von 96% für die in den letzten fünf Jahren bestätigten Schwachstellen in der Windows-Kernkomponente clfs.sys und 100% für tcpip.sys.
Die Bedeutung dieser Zahlen liegt darin, dass sie aus der Praxis stammen, nicht nur aus Benchmark-Tests.
16 CVE-Nummern sind bereits in den offiziellen Patch-Prozess von Microsoft eingegangen, und die 96%-ige Wiederauffindungsrate bezieht sich auf Schwachstellen, die in den letzten fünf Jahren tatsächlich von Angreifern ausgenutzt wurden.
Microsoft schrieb in seinem Blog, dass die Patch-Tuesday-Fixrunden in Zukunft immer größer werden werden.
Die KI beschleunigt die Entdeckung von Schwachstellen, und die Größe der Patches wächst natürlich mit.
Aber dasselbe gilt auch für die Angreifer: Sie können dieselbe Technologie nutzen.
MDASH verwendet ausschließlich öffentlich verfügbare Modelle und hat keine technologischen Monopolbarrieren.
Was sollte man noch beachten?
Für die Branche ist die Bedeutung von MDASH größer als MDASH selbst.
Es bestätigt eine Vermutung: Im nächsten Wettbewerbsphase der KI-Fähigkeiten könnte das „Aufbauen eines Systems um das Modell herum“ genauso wichtig sein wie das „Trainieren eines stärkeren Modells“.
Dies hat unterschiedliche Bedeutungen für drei Gruppen von Menschen.
Für Modellunternehmen (Anthropic, OpenAI) ist es eine Warnung.
Das Vorhandensein eines leistungsstarken Modells garantiert nicht automatisch den Vorsprung auf der Anwendungsseite.
Andere können Ihre Modelle nutzen und Sie auf Ihrem eigenen Terrain schlagen.
Für Plattformunternehmen (Google, Microsoft) zeigt es einen differenzierten Weg auf.
Kein stärkstes Modell? Kein Problem, bauen Sie stattdessen das stärkste System.
Aber dazu müssen Sie die technischen Details eines bestimmten Bereichs gut verstehen. Die kooperative Gestaltung von über 100 Agenten, die Bereichs-Plugins und die Verifizierungs-Pipeline erfordern ebenfalls eine hohe Schwelle an Erfahrung und Wissen.
Für normale Benutzer ist die direkte Auswirkung einfach: Installieren Sie die Patches rechtzeitig, sonst können auch technisch unversierte Menschen mit Hilfe der KI diese Schwachstellen ausnutzen.
MDASH wird derzeit wie Mythos und GPT-5.5 Cyber in einer kleinen Kunden-Testphase eingesetzt. Microsoft hat noch keine Preise und kein offizielles Veröffentlichungsdatum bekannt gegeben.
Quelle: https://www.microsoft.com/en-us/security/blog/2026/05/12/defense-at-ai-speed-microsofts-new-multi-model-agentic-security-system-tops-leading-industry-benchmark/