Die größte Trainingskampagne in der Geschichte von Anthropic wird preisgegeben. Hat Ilya unrecht? Der CEO jammern: Start-ups werden vernichtet.
【Einführung】Wurde die verrückte Gerüchte vor drei Wochen nun endgültig von Mythos bestätigt? Anthropic hat möglicherweise die größte Trainingskampagne aller Zeiten abgeschlossen, und die Leistung des neuen Modells könnte das Doppelte des erwarteten Werts erreichen, was die Scaling Law um ein Vielfaches übertrifft! Eine umwälzende Veränderung naht, und Rechenleistung und Energie werden zu den entscheidenden Wettlaufkarten. Start-ups droht eine vernichtende Reduktion ihrer Wettbewerbsfähigkeit!
Ein Gerücht vor drei Wochen scheint nun immer plausibler zu werden: Ein Spitzenlabor hat die größte Trainingskampagne aller Zeiten abgeschlossen.
Die Leistung des neuen Modells hat die internen Erwartungen bei weitem übertroffen und hat sogar die Vorhersagen, die auf der Scaling Law basieren, gebrochen.
Wenn all dies stimmt, stehen wir möglicherweise am Vorabend einer umwälzenden Veränderung!
Heute hat ein Beitrag von Andrew Curran, einem großen Influencer im Bereich KI, in der Branche zu intensiven Diskussionen geführt.
Er glaubt, dass das legende Labor Anthropic ist.
Sie haben möglicherweise einen strukturellen Durchbruch erzielt: Bei einer bestimmten Größe oder auf eine bestimmte Weise trainiert, hat das Modell Fähigkeiten entwickelt, die weit über das bisherige Niveau hinausgehen!
Sobald die Gerüchte um Mythos kursierten, sind die Aktien der Netzwerksicherheitsbranche gefallen. Wird es noch schlimmer?
Der Sturm über Silicon Valley naht?
Mythos, oder sein anderer Kandidatennamen Capybara (Kapoiba), ist höchstwahrscheinlich das nächste Flaggschiffmodell von Anthropic.
Was noch beängstigender ist: Die tatsächliche Leistung des Modells soll das Doppelte der internen Erwartungen erreicht haben.
Im Bereich KI bedeutet eine Leistungserhöhung um das Doppelte einen generationalen Sprung in der logischen Denkfähigkeit.
Wenn GPT - 4 ein ausgezeichneter Student ist, dann ist Mythos möglicherweise ein Denkfeuerwerk aus Tausenden von Genies.
Der Chefwissenschaftler von Anthropic hat prophezeit, dass "vollständig automatisierte KI - Forschung innerhalb eines Jahres möglich sein könnte". Jetzt scheint es, dass er nicht die Zukunft beschreibt, sondern ein auf den Servern laufendes Demo.
Der Test von Claude 5.0 ist ausgetreten, Programmierung und logische Schlussfolgerungen sind unschlagbar!
Gerade gestern hat ein Nutzer festgestellt, dass Anthropic heimlich seinen neuen Flaggschiffkandidaten, Claude Mythos 5.0 Beta, testet!
Im Claude - Interaktionsinterface ist Mythos 5.0 (Beta) deutlich zu sehen, und das Unternehmen bezeichnet es als "größer und intelligenter".
Im Claude Code Terminal wird Mythos 5 direkt als "nächstes Generation - Modell" bezeichnet.
Laut Insider - Informationen ist Mythos 5.0 in Bezug auf Codierung, logische Schlussfolgerungen und Angriffssicherheit ein Ungeheuer, so stark, dass es kaum zu glauben ist. Der erste Austritt der Informationen führte bereits zu einem Absturz der Netzwerksicherheitsaktien.
Am 27. März berichtete das ausländische Magazin Fortune exklusiv, dass das stärkste Modell von Anthropic, Claude Mythos, das stärkste Claude Opus 4.6 um ein Vielfaches übertrifft und zudem über starke "Netzwerkangriffs - " und "Abwehrfähigkeiten" verfügt.
Interne Tests zeigen, dass Mythos bisher unbekannte Sicherheitsrisiken mit sich bringt. Anthropic zieht sich bisher zurück, weil es weiß, dass die Auswirkungen, wenn dieses "Wilde Tier" losgelassen wird, nicht vorhersehbar wären!
Beim Netzwerkangriff liegt Mythos weit vor allen anderen Modellen auf der Welt. Daher besteht die hohe Wahrscheinlichkeit, dass es von Hackern für massenhafte und hochschädliche Netzwerkangriffe eingesetzt wird.
Der Grund, warum Fortune diesen exklusiven Bericht veröffentlichen konnte, ist, dass es einen Blog - Beitragstext in Entwurf gefunden hat.
Die Entdeckungen der Nutzer bestätigen auch, dass der Informationsgehalt dieses Blog - Beitrags immer höher wird.
Hat Ilya unrecht?
Offensichtlich würde Ilyas These von vor sechs Monaten, dass die Scaling Law an ihre Grenzen stößt, etwas peinlich werden, wenn dieser Durchbruch real ist.
In Reddit - Beiträgen zu diesem Thema dreht sich die Debatte hauptsächlich um die Frage: Ist der Fortschritt von Claude 5.0 das Ergebnis einer bloßen Erhöhung der Rechenleistung oder einer strukturellen Revolution?
Laut diesen Gerüchten hat Anthropic eine neue Trainingsmethode bei einer bestimmten Größe entdeckt.
Wenn man einfach nur Rechenleistung hinzufügt, folgt die Leistung der abnehmenden Marginalproduktivität. Aber wenn es einen "strukturellen Durchbruch" gibt, steigt die Leistungskurve wie ein Rakete!
Ilya, der ehemalige Chefwissenschaftler von OpenAI, hat möglicherweise nicht vorausgesehen, dass die "Mauer", die er vermutete, von einem neuen Mechanismus wie "rekursiver Selbstverbesserung" durchbrochen werden würde.
Das entspricht auch Karpathys "Ich war falsch" - Gesetz. Im Oktober 2025 meinte er noch, dass die von KI geschriebenen Codes Schrott seien. Zwei Monate später schrieb die KI bereits 80 % seiner Codes - selbst Spitzenspezialisten haben oft Schwierigkeiten, "exponentielles Denken" zu verstehen.
Nachbesprechung der ungewöhnlichen Entscheidungen von OpenAI: Warum ist Sora gescheitert?
Laut Andrew Currans Analyse würde, wenn Mythos real ist, die Reihe ungewöhnlicher Entscheidungen von OpenAI plötzlich sinnvoll erscheinen.
Das unbegreiflichste Verhalten von OpenAI war bisher die "Abschaltung von Sora".
Warum ist Sora, das einst die Welt verblüffende Videoerzeugungsmodell, plötzlich aus der Mode gekommen? Die Antwort könnte im Spannungsfeld zwischen Kosten und Rechenleistung liegen.
Wenn Mythos beweist, dass ultraskalierte Trainingskampagnen der einzige Zugang zu AGI sind, dann ist jeder H100/GB200 eine strategische Ressource, und alle großen Unternehmen leiden an einem Hungerverlangen nach Rechenleistung!
Während die Videoerzeugung zwar spektakulär ist, verbraucht sie eine erstaunliche Menge an Rechenleistung für die Inferenz. Am Scheideweg zur AGI muss OpenAI alle Rechenressourcen auf die Entwicklung von Modellen setzen, die einen grundlegenden logischen Durchbruch erzielen können, anstatt sich um die Realität von Wasserspritzern in Videos zu kümmern.
Dies ist OpenAIs "Beschleunigter Ausbruch". Wenn der Führende eine enge, aber dennoch den "Gottessichtspunkt" bietende Route entdeckt, ist es nur logisch, alle unnötigen Ballasten zu werfen.
Zweite Ordnungseffekt: Die Durchschnittlichen können die Spitzenmodelle nicht mehr bezahlen!
Andrew Curran bringt einen frustrierenden, aber realistischen Gedanken auf den Tisch: "Spitzenintelligenz wird immer teurer, so teuer, dass die meisten Menschen es sich nicht leisten können."
Wir sind es gewohnt, dass KI immer günstiger wird und die API -