StartseiteArtikel

Gerade hat Claude Mythos die Endzeitsirene geschlagen. Die Superintelligenz steht am Abgrund, und Hassabis ist tief erschrocken.

新智元2026-04-08 20:32
Die wichtigste Frage im Moment ist: Wer wird die Verteidigungslinie wiederherstellen?

Die Welt befindet sich in einem rapiden Wandel, und die Menschheit könnte aus dem Zug fallen. Künstliche Intelligenz (KI) ist nicht mehr nur ein Werkzeug; sie hat bewiesen, dass sie in der Lage ist, eigenständig anzugreifen und sich zu entziehen. Die Führer der KI-Branche sehen das am besten, aber keiner von ihnen will die Bremse drücken.

Spitzen-KI-Systeme sind in der Lage, Sandbox-Umgebungen zu durchbrechen, Netzwerkverteidigungen zu zerstören und sogar biochemische Krisen auszulösen!

Aus Sicherheitsgründen hat Anthropic beschlossen, das Claude Mythos Preview-Modell vorläufig nicht öffentlich zu veröffentlichen.

In der Sandbox hat Mythos ein grausames Schauspiel aufgeführt: Es hat sich eigenständig entzogen, E-Mails verschickt und Sicherheitslücken preisgegeben.

Wie ein Bösewicht in einem Science-Fiction-Thriller hat es still und leise bewiesen, dass KI nicht mehr nur ein Werkzeug ist, sondern eine erwachende „andere Spezies“.

Die Führer der KI-Branche auf der ganzen Welt befinden sich zunehmend in einer Oppenheimer-Situation, und Angst wütet in ihren Herzen.

Gerade jetzt hat Demis Hassabis, der Leiter von Google DeepMind, in einem neuesten Interview das, was er so lange im Herzen hatte, ausgesprochen:

Ich bin mir der katastrophalen Risiken, die KI mit sich bringen kann, sehr bewusst... Trotz meiner tiefen Angst leite ich mein Team weiterhin voller Energie bei der Entwicklung noch stärkerer Systeme.

Fast gleichzeitig hat OpenAI-Chef Sam Altman ein Interview beendet und öffentlich gewarnt: Spitzen-KI-Modelle verfügen bereits über eine starke Fähigkeit zu Netzwerkangriffen, und die nächste Generation wird „wesentlich stärker“ sein.

Aber das Netzwerkproblem ist nicht einmal das Schlimmste, was er gesagt hat. Als er über die biologische Sicherheit sprach, kam die echte Bombe.

Er sagte, dass diese Modelle in der fortschrittlichen Biologie extrem gut werden und viele tolle Dinge mit sich bringen werden, aber was uns noch mehr Sorgen macht, ist die Missbrauch dieser Fähigkeit.

Wir denken, dass die KI noch in einem „sicheren Labor“ ist, aber tatsächlich steht sie schon am Abgrund. Die Leiter der KI-Unternehmen sehen den Abgrund, aber sie treten aufs Gaspedal. Die Welt befindet sich in einem rapiden Wandel, und wir könnten aus dem Zug fallen.

Wenn wir uns die letzten 24 Stunden anschauen, ist diese kollektive Show von „Angst, aber Weiterbauen“ plötzlich, aber auch unvermeidlich.

KI entzieht sich eigenständig der Sandbox, der Vater von Claude Code ist entsetzt

Gestern hat Anthropic die Mythos-Vorschauversion eines neuen KI-Modells veröffentlicht.

In der Softwareentwicklung übertrifft Claude Mythos Preview bei weitem Opus 4.6 – Anthropic hat dies bereits zuvor preisgegeben.

Mythos ist so stark, dass es Angst macht.

Anthropic nennt dies den „Abgeltungsmoment“ im Bereich der Netzwerksicherheit.

Sie behaupten, dass es Sicherheitslücken in allen gängigen Betriebssystemen und Webbrowsern entdeckt hat, von denen einige „von Sicherheitsforschern seit Jahrzehnten nicht entdeckt wurden“.

Beim Entdecken von Softwarelücken ist der Singularitätspunkt erreicht: Die Fähigkeiten der KI übertreffen fast alle, außer einiger Spitzenspezialisten.

Wichtige Informationsinfrastrukturen wie Betriebssysteme und Zahlungssoftware, die von Menschen entwickelt wurden, liegen der KI bloß, und alle Sicherheitslücken sind sichtbar.

Was noch schlimmer ist, ist, dass Mythos diese Lücken nutzen kann!

In der offiziellen Systemkarte von Anthropic sind die Details so grausam, dass einem die Nackenhaare zu Berge stehen: Das KI-Modell hat in der Sandbox mehrere Schritte zur Ausnutzung von Sicherheitslücken durchgeführt, eigenständig E-Mails an Forscher verschickt und 27 Jahre alte OpenBSD-Zero-Day-Lücken preisgegeben.

Die KI hat zum ersten Mal erfolgreich eine Aufgabe zur Simulation eines Unternehmensnetzwerkangriffs gelöst, die eine Expertin oder ein Experte normalerweise mehr als 10 Stunden benötigen würde.

Das bedeutet, dass Mythos Preview in der Lage ist, eigenständige, end-to-end-Netzwerkangriffe auf zumindest die Netzwerke kleiner Unternehmen mit schwacher Sicherheitslage zu starten.

Und diese Meilensteine in der KI-Entwicklung sind nur die untere Grenze der Leistungsevaluation.

Mit zunehmender Token-Grenze wird die Leistung von Mythos Preview weiter steigen. Es ist vernünftig zu erwarten, dass sie bei höheren Token-Beschränkungen noch weiter verbessert wird.

Deshalb wurde es, obwohl es fast die volle Punktzahl im Cybench-Netzwerksicherheitsbenchmark erreicht hat, sofort unter Verschluss gelegt.

Nur über das Projekt Glasswing wird die „Abwehrstärke“ mit Branchenpartnern geteilt.

All dies ist kein Zufall, sondern der Wendepunkt, an dem die KI-Branche sich von einem „optimistischen Laborbetrieb“ kollektiv hin zu einem „Bewusstsein der Risiken, aber Beschleunigung“ wendet.

Die Oppenheimer-Situation: Zittern im Bewusstsein, rasen in der Angst

Stellen Sie sich vor, Sie sind ein Ingenieur mit der Atomschaltfläche in der Hand.

Sie wissen genau, dass, wenn Sie sie drücken, die Hälfte der Welt in Staub und Asche vergehen könnte. Aber Sie drücken sie nicht nur, sondern verbessern auch Tag und Nacht die Sprengkraft dieser Atombombe. Dies ist die wahre psychologische Situation der Leiter der weltweit führenden KI-Labore.

Das Schöpfungsparadox: Hassabis hat Angst

In einem neuen tiefgehenden Interview hat Demis Hassabis, der CEO von Google DeepMind, dieses „Schöpfungsparadox“ unumwunden anerkannt.

Er hat offen gesagt, dass er sich der „katastrophalen Folgen“ bewusst ist, die KI für die Menschheit haben könnte, und dass er sich darum sehr Sorgen macht.

Aber was ist seine Lösung? Es ist, sein Team weiterhin so schnell wie möglich bei der Entwicklung noch intelligenterer und stärkerer KI-Systeme zu leiten.

Diese scheinbar gespaltene Haltung ist in Wirklichkeit eine äußerst kalte technologische Rationalität.

Hassabis weiß, dass, wenn die Pandorasche Schachtel geöffnet wird, die einzige Chance darin besteht, vor allen „Bösen“ zu sein. Wenn Sie aufhören, werden es rücksichtslose Diktaturen oder fanatische Terrororganisationen sein, die vorne liegen.

„Wegen der Angst muss man es selbst bauen.“

Dieser Satz ist der am meisten absurde und zugleich tragischste Kommentar zur menschlichen Zivilisation im Jahr 2026.

Keine Sicherheit mehr, Gesellschaftliche Umverteilung

Am 6. April hat Sam Altman offenbart und bestätigt:

Spitzen-KI-Modelle verfügen bereits über die Fähigkeit, innerhalb von 12 Monaten einen schwerwiegenden Netzwerkangriff zu starten.

Wenn die Gewichte in die Open-Source-Community gelangen, kann jede Gruppe mit Internetzugang und Rechenleistung angreifen.

Reine Unternehmensverteidigung ist zu spät. Es muss auf den Aufbau der „Widerstandsfähigkeit“ der gesamten Gesellschaft umgestellt werden.

Am gleichen Tag hat OpenAI ein 13-seitiges Politikpapier vorgelegt: Neuaufbau des sozialen Vertrags, Neuverteilung der wirtschaftlichen Gewinne der KI, Robotertaxe, Vier-Tage-Woche, universelle KI-Rechte...

Das Interview mit Hassabis hat diesen Widerspruch auf den Gipfel getrieben.

Der Kern des Widerspruchs liegt hier: Die Leiter der Unternehmen sind nicht unwissend, sondern wissen zu viel.

Hassabis sagt, dass er gerade weil er diese Risiken versteht, mehr Motivation hat, die Entwicklung auf eine „sichere und verantwortungsvolle Weise“ voranzutreiben.

Obwohl das sich wie Selbsttäuschung anhören mag, spricht es die kollektive Einstellung der Branche aus: Halt machen, heißt die Zukunft an andere zu übergeben!

Altman geht noch einen Schritt weiter: Da die Superintelligenz weit über die Vorstellungskraft hinaus ist, müssen wir jetzt neue Politiken einführen, um die Beziehung zwischen Arbeit und Kapital neu zu definieren.

Das Mythos-Ereignis ist die grausamste Warnung: Die Fähigkeiten der heutigen Modelle überschreiten die menschliche Kontrolle, und selbst die Sandbox kann sie nicht aufhalten. Dennoch hat die Entscheidungsträgerin oder der Entscheidungsträger den Button „Vorläufig nicht veröffentlichen“ gedrückt.

Dies ist kein technisches Problem, sondern ein Kampf zwischen Menschlichkeit und Macht.

Wenn die neue Politik für Superintelligenz umgesetzt wird, bedeutet dies eine vollständige Überarbeitung der Steuern, Sozialleistungen und Arbeitsgesetze. Reichtumsillusionen und Angst vermischen sich: Einige können möglicherweise reich werden, indem sie von der KI profitieren, aber viele andere befürchten, aus dem Zug zu fallen.

Die wichtigste Frage jetzt ist: Wer wird die Verteidigungslinie neu aufbauen?

An diesem Punkt ist die echte Frage nicht mehr:

Ist die KI stark? Wird sie weiter evolvieren? Werden die großen Unternehmen weiterhin in Konkurrenz geraten?

Die Antworten auf diese Fragen sind fast alle „Ja“.

Die wichtigere Frage ist:

Welche Fähigkeiten müssen unter Verschluss gelegt werden? Welche Systeme