StartseiteArtikel

Garnelenzüchter fressen chinesische Modelle auf, die Aufrufe von 4,19 Billionen Tokens steigen um 34,9 % und übertreffen die USA.

量子位2026-03-11 15:11
Domestische Modelle belegen die ersten drei Plätze in der Hummeranwendung.

Herzlichen Glückwunsch! Die echten Hummerkenner sind die Chinesen.

Die Volksbegeisterung für das "Hummerzüchten" hat direkt dazu geführt, dass die chinesischen Large Language Models (LLMs) eine goldene Woche erlebt haben.

Nach den neuesten Daten von OpenRouter ist die wöchentliche Gesamtanzahl der Aufrufe chinesischer LLMs in der vergangenen Woche auf 4,19 Billionen Tokens gestiegen.

Nachdem die chinesischen LLMs erstmals im Februar dieses Jahres die US-LLMs überholt haben, haben sie sich erneut stark auf die Spitze geschoben und wieder die globale Spitzenposition eingenommen.

OpenClaw bleibt weiterhin der beliebteste Anwendung und in der Liste der am besten geeigneten Rechenleistungspartner für Hummerzüchter dieser Monat sind die chinesischen LLMs immer noch weit vorne.

Die ersten drei Plätze in der Liste gehen an Kimi K2.5, Step 3.5 Flash und MiniMax M2.5, alle mit über 1 Billion Tokens.

Es ist wirklich so, dass die chinesischen Anwender in Sachen "Essen" (hier: Nutzung von LLMs) richtig tüchtig sind! Nach einem Becher Milchtee noch einen Hummer essen, wunderbar wunderbar~(doge)

🦞 Lieben chinesische Large Language Models

Insgesamt gab es in der vergangenen Woche, vom 2. bis 8. März, eine deutliche Differenzierung zwischen der Aktivität chinesischer und US-amerikanischer LLMs. Die genauen Gesamtanzahlen der Aufrufe sind wie folgt:

  • China: 4,19 Billionen Tokens (↑34,9%)
  • USA: 3,63 Billionen Tokens (↓8,5%)

Die wöchentliche Gesamtanzahl der Aufrufe chinesischer LLMs hat stark zugenommen, teilweise auch aufgrund des Einflusses von OpenClaw. Im Gegensatz dazu zeigen die US-LLMs eine kurzfristige Schrumpfungstendenz, und sowohl die Gesamtanzahl als auch die Wachstumsrate wurden vom chinesischen Markt überholt.

Das letzte Mal, dass ein ähnliches Szenario aufgetreten ist, war im Februar.

Im Zeitraum vom 9. bis 15. März betrug die Gesamtanzahl der Aufrufe chinesischer Modelle 4,12 Billionen Tokens, was erstmalig die USA (2,94 Billionen) überholte.

In der darauffolgenden Woche, vom 16. bis 22. März, blieb die Popularität chinesischer Modelle weiterhin sehr hoch. Die Zahl stieg auf 5,16 Billionen Tokens, was einem Anstieg von 127% innerhalb von drei Wochen entspricht. Im gleichen Zeitraum schrumpften die US-Modelle weiter auf 2,7 Billionen Tokens, und die Differenz zwischen den beiden Ländern wurde immer größer.

In der letzten Woche des Februars kam es zu einer vorübergehenden Einstellung der Aufrufe chinesischer Modelle, nachdem Google die Preise für Gemini 3 Flash optimiert und OpenClaw seine offizielle Version aktualisiert hatte.

Am Anfang des März stieg Step 3.5 Flash nach der Einbindung in OpenClaw auf die Spitze der Liste und brachte die chinesischen LLMs wieder in die 4-Billionen-Tokens-Ecke.

Betrachtet man die Rangliste genauer, so nehmen chinesische Produkte in den Top 5 der globalen Gesamtanzahl der Aufrufe von LLMs in der vergangenen Woche drei Plätze ein.

MiniMax M2.5 bleibt stabil auf der globalen Spitze; DeepSeek V3.2 zeigt weiterhin ein Wachstumstrend; Step 3.5 Flash war die größte Überraschung in der vergangenen Woche und hat sich erfolgreich in die globalen Top 5 geschafft.

Betrachtet man die Marktanteile in den letzten Monaten, so hat MiniMax nach der Veröffentlichung mehrerer Modelle wie MiniMax Music 2.5 und MiniMax M2.5 am Ende Januar einen Sprung in der Marktanteilsentwicklung gemacht.

In der Woche vom 16. bis 22. März hat es Google sogar überholt und die globale Spitze erreicht. In der vergangenen Woche hat MiniMax weiterhin den dritten Platz beibehalten und ist fest in der ersten Liga des globalen LLMs-Marktes etabliert.

In Bezug auf die Programmierung (einschließlich Codeerstellung, -debugging und -entwicklung) belegen MiniMax M2.5, Kimi K2.5 und Claude Opus 4.6 die ersten drei Plätze in der vergangenen Woche.

Überraschenderweise waren die chinesischen LLMs in der vergangenen Woche nicht nur auf dem chinesischen Markt sehr beliebt, sondern auch im englischen Sprachraum hervorragend vertreten und haben direkt die ersten drei Plätze in der Weltplatierung belegt.

Das beweist, dass die chinesischen Modelle immer stärker in der globalen Entwickler-Ökosystem etabliert werden.

Was die Token-Verbrauch in Abhängigkeit von der Kontextlänge angeht, gibt es deutliche Unterschiede:

Bei 1K-10K Tokens haben die ausländischen Mainstream-Modelle wie GPT-oss-120b und Gemini 2.5 Flash den Vorteil.

Bei Aufgaben mit 10K-100K Tokens sind MiniMax M2.5 und DeepSeek V3.2 die beliebteren Optionen.

Bei noch längeren Kontexten von 100K-1M Tokens hat MiniMax M2.5 einen deutlichen Vorteil.

In anderen Rankings, wie der Nutzung von Tools, führt MiniMax weiterhin mit weitem Vorsprung an.

Bei der Bildgenerierung wird Gemini 2.5 Flash Lite bevorzugt. Das einzige chinesische LLM in der Liste ist Qwen 3 VL 235B, ein erstklassiges multimodales LLM.

Was die Beliebtheitsliste von Anwendungen angeht, so sitzt der Hummer unangefochten auf der globalen Spitze. Seit Januar hat es 9,16 Billionen Tokens weltweit verschlungen und ist damit der unangefochtene "Schwarze Loch" der Rechenleistung.

Das am häufigsten verwendete Modell in OpenClaw in diesem Monat ist weiterhin Kimi K2.5. Auf dem zweiten und dritten Platz folgen Step 3.5 Flash und MiniMax M2.5.

Alle drei chinesischen LLMs haben mehr als 1 Billion Tokens erreicht und bilden ein Gleichgewichtssystem.

Das im vergangenen Monat auf dem dritten Platz belegte Gemini 3 Flash Preview ist auf den fünften Platz in der monatlichen Rangliste abgestiegen.

Chinesische Large Language Models schmecken auch gut

Aber wenn es darum geht, welches Modell für OpenClaw am besten geeignet ist, muss man sich auch die PinchBench-Liste ansehen, die kürzlich vom "Vater des Hummers" empfohlen wurde.

Diese Liste wurde speziell für den Hummer erstellt und bewertet die Eignung globaler LLMs für OpenClaw aus mehreren Perspektiven wie Erfolgsrate, Geschwindigkeit und Preis.

Zuerst die Erfolgsrate: claude-opus-4.6 führt derzeit an, und die chinesischen LLMs an den vorderen Plätzen der Liste sind Kimi K2.5, MiniMax M2.1 und Qwen3-Coder-Next, alle mit einer Punktzahl von über 79%.

In Bezug auf die Geschwindigkeit müssen die chinesischen LLMs noch verbessern. Mit Ausnahme von Qianwen liegen die anderen Modelle eher hinten in der Liste.

Bis jetzt liegt Kimi K2.5 auf Platz 20, MiniMax M2.1 auf Platz 23 und MiniMax M2.5 auf Platz 26 in der Liste.

In Bezug auf den Preis sind neben Google und OpenAI auch Qianwen, DeepSeek und Zhipu in der Liste vertreten und haben einen Kostenvorteil.

Zusammenfassend betrachtet sind die chinesischen LLMs derzeit bei den globalen Hummerzüchtern sehr beliebt, und es gibt eine Vielfalt von Anbietern wie MiniMax, DeepSeek, Yuezhianmian und Step.

<