HomeArticle

Der Preis ist um das Sechsfache gestiegen. Claude hat in der Nacht einen Schnellmodus eingeführt. Die Internetnutzer sind kollektiv enttäuscht: Es ist noch schlimmer als OpenAI.

新智元2026-02-09 07:06
Anthropic hat in der späten Nacht den Schnellmodus von Opus 4.6 eingeführt. Die Geschwindigkeit ist um das 2,5-fache erhöht, während der Preis um 600 % sprunghaft gestiegen ist. Diese ungewöhnliche Preisgestaltung hat die weltweiten Entwickler kollektiv verärgert und wird als "hässliche Gier" kritisiert. Handelt es sich hier um technisches Selbstvertrauen oder um kommerzielles Selbstmordverhalten?

Gerade eben (am 8. Februar) hat Claude Opus 4.6 einen Schnellmodus (Fast mode) eingeführt.

Die Leistung bleibt gleich, aber die Geschwindigkeit erreicht 2,5-mal die des Normalmodus!

Die Offizielle Seite gibt an, dass der Fast mode bereits in Claude Code und der API zur Verfügung steht.

Der Wechsel ist auch einfach: Geben Sie im Claude Code-Befehlszeileninterface  /fast ein. Neben der Eingabeaufforderung erscheint ein kleines Blitzsymbol, und der Fast Mode startet sofort. Geben Sie erneut  /fast ein, um ihn zu beenden.

So einfach ist das. Es gibt keine komplizierten Konfigurationen und keine zusätzlichen Installationsschritte. Das gleiche gilt für die VS Code-Erweiterung.

Anfangs schien es eine ganz normale Ankündigung zu sein, aber sobald die Nachricht heraus kam, war die Community in Aufruhr.

Der Grund ist einfach – es ist zu teuer!

Dieser neue Fast Mode ist zwar schneller, aber auch deutlich teurer. Im Standardmodus kostet die Ausgabe von Opus 4.6 25 US-Dollar pro Million Tokens, während der Fast Mode auf 150 US-Dollar springt.

Das ist ganze 6-mal so viel!

Es ist erwähnenswert, dass die Kosten für den Fast Mode nicht von Ihrem Abonnementkontingent abgezogen werden.

Selbst wenn Sie noch ein Großteil Ihres monatlichen Abonnementkontingents haben, wenn Sie den Fast Mode aktivieren, werden ab dem ersten Token die Preise des Fast Modes angewandt, und es wird nichts von Ihrem Abonnementguthaben abgezogen.

Es handelt sich um eine völlig unabhängige „zusätzliche Kosten“ -Route.

Bezahlen Sie also so viel Geld, um einen intelligenteren KI zu erhalten?

Die Antwort ist: Nein.

Anthropic hat klar gemacht, dass der Fast Mode immer noch dasselbe Opus 4.6 verwendet, mit denselben Modellgewichten und derselben Intelligenzstufe. Die Qualität der Antworten ist identisch.

Der Standardpreis für die API von Claude Opus 4.6 beträgt 5 US-Dollar pro Million Tokens für die Eingabe und 25 US-Dollar pro Million Tokens für die Ausgabe.

Dieser Preis ist bei Spitzenmodellen schon nicht mehr günstig. Selbst Anthropic gibt zu, dass Opus 4.6 einer der teuersten Modelle in der Artificial Analysis-Intelligenzindex-Rangliste ist.

Der Preis für den Fast Mode beträgt: 30 US-Dollar pro Million Tokens für die Eingabe und 150 US-Dollar pro Million Tokens für die Ausgabe.

Sie haben richtig gelesen: Die Eingabe ist 6-mal teurer, und die Ausgabe ist ebenfalls 6-mal teurer.

Noch erschreckender ist es in Szenarien mit langer Kontextlänge.

Opus 4.6 ist das erste Opus-Modell von Anthropic, das im Beta-Stadium einen Kontext von 1 Million Tokens unterstützt. Wenn Ihre Eingabe mehr als 200.000 Tokens überschreitet, verdoppelt sich der Preis im Standardmodus fast (10 US-Dollar für die Eingabe und 37,5 US-Dollar für die Ausgabe).

Im Fast Mode verdoppelt sich der Preis ebenfalls fast – 60 US-Dollar pro Million Tokens für die Eingabe und 225 US-Dollar pro Million Tokens für die Ausgabe!

Es ist das „Hermes der Token-Welt“.

Einige Internetnutzer behaupten, dass diese hohen Preise Anthropic viele Benutzer kosten werden.

Internetnutzer rufen, dass diese Preise ein Scherz seien.

Verluste und Insolvenz haben noch nie so schnell eintreten können.

Der Anthropic-Ingenieur Alex Albert hingegen hält dies für eine der größten Produktivitätssteigerungen in seinem vergangenen Jahr.

Er betont, dass in manchen Aspekten das Gefühl der Geschwindigkeit genauso beeinflussend ist wie eine Erhöhung der Modellintelligenz.

Der KI-Ingenieur Dan McAteer sagt, dass der Fast Mode wirklich „sehr schnell“ ist und er in einer Minute einen Fehler beheben kann.

Weshalb?

Wenn der Fast Mode sechsmal so teuer ist und das dahinterliegende Modell mäßig wäre, würde der Markt es nicht akzeptieren.

Aber es muss gesagt werden, dass Opus 4.6 wirklich stark ist.

Es ist möglicherweise bisher das leistungsstärkste Large Language Model (LLM).

Der von Artificial Analysis veröffentlichte Intelligenzindex v4.0 ist eine der umfassendsten Bewertungen von KI-Modellen in der Branche. Er umfasst 10 Bewertungen wie GDPval-AA (Praktische Fähigkeiten von Agenten), Terminal-Bench Hard (Programmierung von Agenten), SciCode (Wissenschaftliche Programmierung), Humanity's Last Exam (Multidisziplinäre Inferenz) usw.

Auf dieser Rangliste hat Claude Opus 4.6 mit 53 Punkten den Gesamterstenplatz belegt und OpenAIs GPT-5.2 (xhigh) um zwei Punkte übertroffen.

Betrachten wir nun die Plattform „Große Modell-Arena“ von Arena.ai, die Modelle anhand von Tausenden von echten menschlichen Blindtests bewertet.

Opus 4.6 hat in den drei Arenen Code, Text und Experten alle erste Plätze belegt.

Insbesondere in der Code-Arena hat es im Vergleich zu seinem Vorgänger Opus 4.5 um 106 Punkte gestiegen. Dieser Anstieg ist weit größer als der Vorsprung von Opus 4.5 gegenüber Sonnet 3.7.

In der Text-Arena hat es 1496 Punkte erzielt und Google's Gemini 3 Pro unterlegen gestellt. In der Experten-Arena liegt es um etwa 50 Punkte vor dem Zweitplatzierten, was einen deutlichen Vorsprung darstellt.

Bei der GDPval-AA-Bewertung der Leistung bei Wissensarbeit hat Opus 4.6 einen Elo-Score von 1606, was etwa 144 Punkte mehr als GPT-5.2 und 190 Punkte mehr als das Vorgängermodell Opus 4.5 ist.

Dieser Unterschied ist kein geringfügiger Vorteil, sondern eine Generationsebene.

Konkreter betrachtet: Bei der Bewertung der Agentenprogrammierung Terminal-Bench 2.0 hat Opus 4.6 mit 65,4 % den höchsten Wert aller Modelle erreicht.

Im ARC-AGI-2-Test (Abstrakte Inferenz) ist es von 37,6 % des Vorgängers auf 68,8 % gestiegen, fast verdoppelt.

Was die Entwickler wirklich begeistert, sind zwei Durchbrüche auf der technischen Ebene.

Der erste ist das Kontextfenster.

Opus 4.6 ist das erste Opus-Modell von Anthropic, das im Beta-Stadium einen Kontext von 1 Million Tokens unterstützt. Der Höchstwert des Vorgängers Opus 4.5 lag bei 200.000 Tokens.

Das bedeutet, dass Sie eine gesamte große Codebasis auf einmal eingeben können, ohne befürchten zu müssen, dass es den vorherigen Inhalt „vergisst“.

Im MRCR v2-Test „Nadel im Heuhaufen“ mit langer Kontextlänge hat Opus 4.6 76 % erreicht, während das Schwestermodell Sonnet 4.5 nur 18,5 % erreichte.

Ein häufiges Problem von KI-Modellen ist die „Kontextschwächung“ - je länger das Gespräch, desto verwirrter wird das Modell.

Opus 4.6 hat dieses Problem fast beseitigt.