StartseiteArtikel

Freigabe des H200: Das "Wolkendurchdringende Pfeil" auf dem Weg zu einem Marktwert von 6 Billionen US-Dollar für NVIDIA?

海豚投研2025-12-10 08:15
Wie viel Potenzial kann NVIDIA tatsächlich durch die Rückeroberung des chinesischen Marktes erzielen?

Nach einer Weile des Geknüppels an Gerüchten (Medienberichte, dass Jensen Huang kürzlich mit konservativen Kräften in der Weißen Haus debattierte und ankündigte, dass es nicht sicher sei, dass die H200-Chips nach China verkauft werden würden, usw.) hat US-Präsident Trump endlich hochkarätig verkündet, dass die US-Regierung NVIDIA erlauben wird, H200-Chips nach China zu verkaufen. Ebenso können auch NVIDIA-Konkurrenten Chips in der gleichen Spezifikationsklasse wie die H200 nach China verkaufen.

Naturgemäß sind die neuesten Architekturen wie die Blackwell-Serie und die kommende Rubin-Serie nicht auf der Genehmigungsliste. Darüber hinaus wird die US-Regierung 25 % von jedem Verkaufseingang abziehen.

NVIDIA hat in der vierten Quartal schon seit einer Weile keine nennenswerten Fortschritte gemacht, vor allem wegen Problemen wie Finanzierung der Lieferkette, Aufstieg von ASICs, Nullmarktbeteiligung am chinesischen Markt und der Blase bei AI-Investitionen.

Dolphin Jun schrieb in seiner kürzlich erschienenen Analyse über die Machtbalance in der AI-Lieferkette, "Die "ursprüngliche Sünde" der AI-Blase: Ist NVIDIA die unentbehrliche "goldene Droge" der AI?":

Unter dem Druck eines Marktwerts von 4 bis 5 Billionen US-Dollar muss NVIDIA ständig Chips liefern, um die US-Aktienmärkte zu stützen und sich zum "schwarzen Öl" in der globalen AI-Großinfrastrukturzeit zu machen.

Eine der Schlüsselaufgaben, um diese Mission zu erfüllen, ist es, NVIDIA-Technologie auf den globalen Markt zu bringen. Beispielsweise führte Trump GPU-Hersteller nach Naher Osten, um Verträge zu unterzeichnen. Deshalb fiel NVIDIA's Marktbeteiligung am chinesischen Markt von ursprünglich 95 % plötzlich auf Null, was Jensen Huang dazu brachte, zu sagen, dass die USA den AI-Krieg verlieren würden.

Vor sechs Monaten war die Genehmigung für den Verkauf von H20 noch nicht möglich. Jetzt beginnt die US-Regierung, H200 und Chips in der gleichen Klasse zu verkaufen. Also stellen sich folgende Fragen:

1) Was hat sich in diesen sechs Monaten verändert?

2) Ist der Weg frei, nachdem die USA die Genehmigung für H200 erteilt haben?

3) Wie viel Potenzial kann die Wiedereroberung des chinesischen Marktes für NVIDIA bringen?

Im Folgenden finden Sie eine detaillierte Analyse.

01 Was hat sich in sechs Monaten so dramatisch verändert, dass die Haltung komplett umgedreht wurde?

Wir wissen, dass die amerikanischen Anwender die H200-Chips nutzen, während China mit einer gekürzten Version, der H20, ausgestattet wurde. Später, im Verlauf der Machtspiele, konnten die chinesischen Unternehmen sogar die H20 nicht mehr nutzen, obwohl die US-Regierung die Beschränkungen zunächst aufgehoben hatte, doch dann wurden die chinesischen internen Politiken ein Hindernis.

Hinter dieser Entscheidung steckt der Umstand, dass die "harten" Parameter der H20 im Vergleich zu chinesischen Produkten keine deutlichen Vorteile aufweisen. Ohne die CUDA-Oekosystem und die Frage der Massenlieferung zu berücksichtigen, ist die H20 in vielen Aspekten wie Rechenleistung, Arbeitsspeicher, Interkonnektivitätsbandbreite und Clusterfähigkeit hinter chinesischen Produkten wie denen von Huawei zurück.

Die USA haben in der Vergangenheit immer die hochwertigen Produkte blockiert. Sobald die chinesischen Unternehmen in der Lage waren, diese Produkte in Massenproduktion herzustellen, wurden die Produkte wieder zu niedrigen Preisen freigegeben. Diese Entscheidung scheint wieder in der gleichen Linie zu liegen. Die Freigabe dieser Zeit ist ein Beweis für den schnellen Aufholprozess der chinesischen AI-Industrie und ein Beispiel für die flexible Politik der US-Regierung in Bezug auf die industrielle Entwicklung.

02 Wird die H200 ein "geeigneter Konkurrent" im Jahr 2026?

Obwohl die neueste Blackwell-Serie von NVIDIA nicht genehmigt wurde, ist die H200 dennoch sechs Mal leistungsfähiger als die H20. Derzeit wird die H200 von vielen ausländischen Großunternehmen eingesetzt.

Da die Massenproduktion der H200 im zweiten Quartal 2024 begann, ist es noch nicht einmal zwei Jahre her. Angesichts der Abschreibungsdauer von vier bis sechs Jahren bei den Großunternehmen wird die H200 noch normal genutzt.

Die meisten der aktuellen ausländischen Spitzen-KI-Modelle wurden mit H100-Chips trainiert (die H200 hat im Vergleich zur H100 hauptsächlich ein verbessertes HBM). Bislang gibt es noch keine Modelle, die mit der Blackwell-Serie trainiert wurden. Die bereits eingesetzten Blackwell-Chips werden hauptsächlich für Inference-Engines und Fine-Tuning eingesetzt. Die kommenden Spitzenmodelle werden wahrscheinlich mit der Blackwell-Serie trainiert werden.

Mit anderen Worten, die derzeit freigegebene H200 hat einen Generationenunterschied im Vergleich zur kommenden Blackwell-Serie, die für die Modellierung von neuen KI-Modellen in den USA eingesetzt werden soll (die Zeitspanne zwischen den NVIDIA-Produktionsgenerationen beträgt normalerweise zwei Jahre. Die Blackwell-Serie benötigt aufgrund ihrer stärkeren Ausrichtung auf systemlösungen einen längeren Einlaufzeitraum).

Im Vergleich zu chinesischen Produkten hat die H200 immer noch einen deutlichen Vorsprung in der Rechenleistung. Außer Huawei haben die meisten anderen chinesischen Unternehmen noch Schwierigkeiten bei der Massenproduktion.

Das Kernproblem der chinesischen Rechenleistungskarten liegt in der Mangel an Trainingskarten. Es gibt keine wirklich brauchbaren Trainingskarten. Die H200 kann ein FP8-Trainings-Supercomputer mit gleicher Leistung wie in den USA aufbauen, was die Entwicklung von KI-Modellen (wie GPT-4-ähnlichen MoE-Modellen) und die industrielle Anwendung (wie intelligente Agenten und Cloud-Dienste) beschleunigen kann.

FP8 ist derzeit das Standardformat für Training und Inference. FP4 wird nur von einigen Unternehmen wie OpenAI erforscht. Die H200 unterstützt kein natives FP4, kann aber durch "FP4-Speicherung + FP8-Berechnung" FP4-Modelle kompatibel machen, um die Lücke zur Blackwell-Serie zu verringern.

Im Produktionsplan wird die nächste Generation des Huawei 950-Chips (für FP8 geeignet) der erste chinesische Chip sein, der für das Training eingesetzt werden kann und gleichzeitig über eine starke Arbeitsspeicherausstattung, Karten-Interkonnektivität und Clusterfähigkeit verfügt.

Selbst der 950-Chip in einem Jahr wird in Bezug auf die Gesamtverarbeitungsleistung (TPP) noch hinter der H200 zurückbleiben. Erst die Huawei Ascend 960-Serie im vierten Quartal 2027 wird möglicherweise die H200 in der Leistung übertreffen.

Mit anderen Worten, wenn Huawei seinen Produktionsplan einhält, hat die NVIDIA H200 einen Vorsprung von etwa zwei Jahren gegenüber chinesischen KI-Chips. Wenn der Unterschied nur ein Jahr oder ein Jahr und ein halb beträgt, könnte die H200 das gleiche Schicksal wie die H20 haben, wenn die USA diese freigaben: Es wird nicht so gut akzeptiert werden.

Ein zweijähriger Unterschied in der Hardware ist im Vergleich zur derzeitigen Iterationsgeschwindigkeit der KI-Modelle, die alle sechs Monate verbessert werden, relativ groß. Deshalb gibt es Gerüchte, dass einige chinesische Spitzenmodelle im Ausland trainiert und dann zurück in China übertragen werden.

03 Wie lange wird die H200 in China verkauft und wo wird sie eingesetzt?

Nach dem gegenwärtigen Zeitplan scheint die H200 in China einen Verkaufshorizont von ein und einem halben bis zwei Jahren zu haben. Aber die Frage ist, kann NVIDIA mit der H200 wieder die Zeit der 95 % bis 100 % Marktbeteiligung am chinesischen Markt zurückholen?

Dolphin Jun bezweifelt das stark.

Erstens: In der Inference-Szene sind die Anforderungen an die Rechenleistung nicht besonders hoch. Aufgrund der Bedürfnisse der Endbenutzer haben die chinesischen Großunternehmen auch hohe Anforderungen an die Kosteneffizienz. In der Trainingsszene sind die chinesischen Konkurrenten jedoch noch relativ "rar".

Zweitens: Aus politischen Gründen müssen die chinesischen Cloud-Anbieter einen gewissen Anteil ihrer Kapitalausgaben für die Unterstützung der chinesischen Chip-Industrie aufwenden, um die Selbstversorgungskapazität der Branche zu gewährleisten und die Forschung und Entwicklung von Chips sowie die Kapitalausgaben für die Fertigung zu unterstützen.

Drittens: Die Software- und Hardwaretechnologien in der AI-Branche entwickeln sich schnell. Die Geschwindigkeit der technologischen Entwicklung wird zu neuen Verhandlungschips. In Anbetracht des Machtspiels zwischen der H20 und der H200 ist die zukünftige Freigabe von Produkten mit welchen technologischen Standards völlig ungewiss. In diesem Sinne ist die Eigenständigkeit in der AI-Rechenleistung und die vollständige Eigenentwicklung von Stack-Technologien eine ständige Forderung der chinesischen Cloud-Großunternehmen.

Unter Berücksichtigung dieser drei Punkte schätzt Dolphin Jun, dass die NVIDIA H200 möglicherweise auf einen Verkaufshorizont von 1 - 2 Jahren und die "Training"-Szene in der chinesischen Rechenleistungseinrichtung zielgerichtet wird. Bei der Inference-Szene werden wahrscheinlich weiterhin hauptsächlich chinesische Chips eingesetzt, sei es aus eigenem Willen oder aufgrund von Zwängen.

Beim tatsächlichen Verkauf der H200 in China wird es wahrscheinlich ein Genehmigungssystem geben. Die chinesischen Cloud-Anbieter müssen die Anwendungsfälle klar beschreiben und begründen, warum die H200 für diese Fälle unbedingt erforderlich ist.

04 Warum ist China für NVIDIA so wichtig?

Obwohl NVIDIA enorme Gewinne erzielt hat, ist es seit 2026 immer noch sehr besorgt:

Der chinesische Markt ist fast verloren gegangen:

Früher konnte NVIDIA die H20-Chips am chinesischen Markt verkaufen. Nach dem Verbot der H20 ist die Marktbeteiligung NVIDIA am chinesischen Markt in den letzten Berichten auf etwa 5 % gesunken (ursprünglich trug der chinesische Markt etwa 20 % des Unternehmensumsatzes bei).

Angesichts der von NVIDIA in den Post-Earnings-Konferenzen erwähnten H20-Verkaufseinnahmen von etwa 50 Millionen US-Dollar wurden die Einnahmen aus der chinesischen Region im letzten Quartal hauptsächlich von PC-, Gaming- und anderen Nicht-AI-Chips generiert.

Die potenzielle Bedrohung der "Google Gemini + Broadcom" -Allianz:

Angesichts der hohen Monopolprämie von NVIDIA haben große Cloud-Service-Provider wie Google und Amazon mit der Eigenentwicklung von Chips begonnen. Insbesondere aufgrund der starken Nachfrage nach Google TPU ist Broadcom AVGO zum "Zweitgrößten" im AI-Chipmarkt geworden (derzeit beträgt seine Marktbeteiligung etwa 10 %).

Andererseits haben sowohl das Gemini-Modell als auch das Anthropic-Modell eine gute Leistung gezeigt. Das erste Modell verwendet überhaupt keine NVIDIA-Produkte, das zweite Modell nur teilweise. Das bedeutet, dass NVIDIA's Produkte nicht unbedingt für die Entwicklung von KI-Modellen erforderlich sind. Die "Google Gemini + Broadcom" -Allianz bietet eine neue Möglichkeit.

Obwohl die Google TPU derzeit hauptsächlich für interne Zwecke eingesetzt wird, gibt es kürzlich Gerüchte, dass Google überlegt, die TPU auch an Meta zu liefern. Sobald die Google TPU auf den externen Markt kommt, wird dies eine direkte Bedrohung für NVIDIA's Marktposition darstellen.