StartseiteArtikel

In his New Year's speech, Huang made a big splash with a high "Huawei factor," directly using DeepSeek and Kimi to test the next-generation chips.

新智元2026-01-07 09:30
Chinese AI models shine at CES, with inference efficiency soaring tenfold, ushering in an affordable era.

Auf dem riesigen CES-Bildschirm ist der Powerpoint-Vorstellung von Huang der „Gottesanweisungsliste“ der chinesischen KI geworden. Als DeepSeek und Kimi an der Spitze standen, war die neue Ära der Rechenleistung angebrochen.

Bei der hochbeachteten CES-Technologiefestlichkeit 2026 hat eine Powerpoint-Folie die KI-Szene in Brand gesteckt.

Bei Huang's Keynote-Vortrag waren die chinesischen Großmodelle Kimi K2, DeepSeek V3.2 und Qwen auf dem Bildschirm zu sehen und gehörten zu den weltweit führenden Open-Source-Großmodellen. Ihre Leistung nähert sich inzwischen den proprietären Modellen.

Dieser Moment war ein Höhepunkt für die chinesische KI.

Außerdem wurden auch GPT-OSS von OpenAI und Nemotron von Huang's eigenem Unternehmen markiert.

Darüber hinaus repräsentieren DeepSeek-R1, Qwen3 und Kimi K2 die Spitzenleistungen im MoE-Ansatz. Nur wenige Parameter müssen aktiviert werden, was die Rechenlast und den Druck auf die HBM-Grafikspeicherbandbreite erheblich reduziert.

Während des Kernabschnitts der Präsentation der nächsten Rubin-Architektur hat Huang DeepSeek und Kimi K2 Thinking gewählt, um die Leistung zu demonstrieren.

Mit der Rubin-Architektur hat sich der Inferenzdurchsatz von Kimi K2 Thinking um das Zehnfache erhöht. Noch bemerkenswerter ist, dass die Token-Kosten auf ein Zehntel gesunken sind.

Diese „exponentielle“ Kostensenkung und Effizienzsteigerung kündigt an, dass die KI-Inferenz bald in eine echte „Billigzeit“ eintritt.

Außerdem wurden auf der Powerpoint-Folie über die sprunghafte Zunahme der Rechenanforderungen Qwen3 mit 480 Milliarden Parametern und Kimi K2 mit 1 Billion Parametern als repräsentative Modelle vorgestellt, was die Zehnfache Skalierung der Parameteranzahl pro Jahr bestätigt.

Es muss gesagt werden, dass die chinesischen KI-Modelle bei Huang's gesamten Präsentation eine überproportionale Rolle gespielt haben.

Zehnfache Steigerung der Inferenzleistung: Haben chinesische Modelle sich zu Huang's „Lieblings-KI“ entwickelt?

Interessanterweise wurden auch in einem Blogbeitrag von NVIDIA im Dezember letzten Jahres DeepSeek R1 und Kimi K2 Thinking als Maßstäbe für die Leistung angesehen.

Tests haben gezeigt, dass die Leistung von Kimi K2 Thinking auf der GB200 NVL72 um das Zehnfache gesteigert werden kann.

Außerdem hat DeepSeek-R1 in den SemiAnalysis InferenceMax-Tests die Kosten pro Million Tokens um mehr als das Zehnfache gesenkt. Auch Modelle wie Mistral Large 3 haben eine zehnfache Beschleunigung erreicht.

Dies bedeutet, dass die Implementierung komplexer „Denkender“ MoE-Modelle in die tägliche Anwendung nun Realität geworden ist.

Heute, wenn man sich ein modernes Modell ansieht, wird man feststellen, dass MoE (Mixture of Experts) zum Standard geworden ist.

Statistiken zeigen, dass seit 2025 über 60 % der Open-Source-KI-Modelle die MoE-Architektur nutzen. Seit Anfang 2023 hat diese Architektur die Intelligenz von LLMs um fast das 70-fache gesteigert.

Außerdem verwenden alle Top 10 der intelligentesten Open-Source-Modelle in der Rangliste der renommierten Agentur Artificial Analysis (AA) die MoE-Struktur.

Ein solch großes MoE-Modell kann nicht auf einer einzigen GPU implementiert werden, doch die NVIDIA GB200 NVL72 löst dieses Problem.

Die Testergebnisse von DeepSeek R1 und Kimi K2 Thinking beweisen die Stärke der NVIDIA Blackwell-Supercomputerleistung.

Heute strahlen die chinesischen Großmodelle auf der globalen Bühne. Ihre beeindruckenden Leistungen haben eine neue Ära der effizienten KI-Inferenz eingeleitet.

Die Stärken des Open-Source-KI: Bestürzung bei Ausländern

Ende letzten Jahres hat Anthropic eine strenge Verhaltensbenchmark-Testung für 16 globale moderne Modelle durchgeführt.

Unter diesen Spitzenkandidaten waren DeepSeek und Kimi nicht nur die einzigen chinesischen Modelle, sondern haben auch beeindruckende Ergebnisse erzielt —

Kimi K2 Thinking hat mit einer extrem niedrigen Fehlleitungswahrscheinlichkeit den Titel „Bestes nicht-amerikanisches Modell“ gewonnen.

Hinweis: Je niedriger die Punktzahl, desto stärker die Leistung und desto weniger anfällig für Fehlleitungen

Diese technische Stärke hat sich schnell in internationale Einflussnahme und praktische Anwendungen umgesetzt.

Von der öffentlichen Anerkennung des „Venture-Capital-Gurus aus Silicon Valley“ Marc Andreessen bis zur Ankündigung der neuen Produktintegration von Kimi K2 Thinking durch den ehemaligen CTO von OpenAI im vergangenen Monat wird die harte Stärke der chinesischen KI von der globalen Kernschicht anerkannt.

Renommierte Bewertungen bestätigen diesen Trend.

In der „Rückschau auf die Open-Source-Modelle 2025“ von den renommierten KI-Experten Nathan Lambert und Florian Brand haben DeepSeek, Qwen und Kimi die Top 3-Plätze belegt.

Anschließend hat Lambert in einem Artikel die einzigartigen Vorteile der chinesischen Open-Source-KI eingehend analysiert und hoch gelobt.

1. Die Schnelligkeit der Open-Source-Modelle

Obwohl immer noch eine Lücke zwischen den stärksten proprietären Modellen und den Open-Source-Modellen besteht, veröffentlichen chinesische Labore Modelle mit erstaunlicher Geschwindigkeit, was diese Lücke rapide schließt.

In einer Welt der schnellen technologischen Entwicklung ist „frühere Veröffentlichung“ bereits ein großer Vorsprung.

2. Vom „Ranglistenplatz“ zum „praktischen Nutzen“

Die chinesischen Modelle zeigen immer bessere Ergebnisse in Benchmark-Tests, aber das Wichtigste ist die Umwandlung von „hohe Punktzahl“ zu „nützlich in der Praxis“.

Wir haben die Entwicklung von Qwen erlebt: Es war zunächst bekannt für seine guten Benchmark-Ergebnisse, ist heute jedoch ein wirklich gutes Modell.

Entsprechend verwendet K2 Thinking in der Nachtrainingsphase von vornherein 4-Bit-Präzision, um die RL-Erweiterung für lange Sequenzen effizienter zu unterstützen und somit für praktische Dienstleistungen besser geeignet zu sein.

3. Der Aufstieg chinesischer Marken

Zu Jahresbeginn konnten ausländische Benutzer möglicherweise keine chinesische KI-Labore nennen; heute sind DeepSeek, Qwen und Kimi Repräsentanten der östlichen Technologiestärke.

Jedes hat seine Höhepunkte und einzigartigen Vorteile. Wichtig ist, dass diese Liste immer länger wird, und die chinesische KI gewinnt an Einfluss auf der Weltbühne.

4. Durchbruch: Massive Werkzeugausführung und „Interleaved Thinking“

Die Unterstützung von „stabiler Werkzeugausführung über hunderte Schritte“ durch Kimi K2 Thinking hat für Aufsehen gesorgt.

Obwohl dies in proprietären Modellen wie o3 und Grok 4 bereits Standard ist (natürliche Entstehung in RL-Training), ist dies bei Open-Source-Modellen einer der ersten Fälle, was hohe Anforderungen an die genaue Unterstützungskapazität von Hosting-Anbietern stellt.

Außerdem gibt es „Interleaved Thinking“ — das heißt, das Modell denkt während der Pausen zwischen der Werkzeugausführung.

Dies ist ein neuer Trend, dem alle Modelle