Der "Nebel" um die chinesische Rechenleistung: Rückgang der Nachfrage oder die Stunde vor der "Dämmerung"? | Zhike
Autor | Ding Mao, Fan Liang
Redakteur | Zheng Huaizhou
Mitte Mai brach der starke Anstieg des AI-Sektors an der chinesischen A-Aktienbörse plötzlich ab, und die Marktstimmung kehrte abrupt um.
Hinter diesem Phänomen liegt als direktes Entzündungsmaterial die in den Quartalsberichten der ersten Quartals von 2025 von Tencent und Alibaba, den beiden führenden Cloud-Anbietern, offen gelegten Daten zu AI-verbundenen Kapitalausgaben. Diese lagen nicht nur deutlich unter den zuvor optimistischen Markt-Erwartungen, sondern zeigten sogar Anzeichen eines rückläufigen Trends im Vergleich zum Vorquartal. Dieser „Erwartungshorizontunterschied“ löste schnell Bedenken bei den Anlegern hinsichtlich der Nachhaltigkeit der Branchenentwicklung aus und führte zu einem kollektiven Rückgang des Sektors.
Anders als im vergangenen Jahr, als die A-Aktien einfach der Logik der „Nvidia-Kette“ folgten, hat der chinesische A-Aktienmarkt dieses Jahr „AI-Lokalisierungsinnovation“ als neuen Bezugspunkt für die Bewertung der inländischen AI-Branche festgelegt. Wenn also die Kapitalausgaben der führenden Internetriesen, die ein entscheidender Indikator für die Nachfrage sind, schwanken, wird der Schlag auf das Vertrauen in die gesamte Wertschöpfungskette vervielfacht.
Nachdem die Marktstimmung stark gewankt hat, tauchen einige bemerkenswerte Fragen auf: Sind die Kapitalausgabendaten eines einzigen Quartals ausreichend, um die langfristige Entwicklung der Branche zu beurteilen? Worüber macht sich der Markt eigentlich Sorgen? Gibt es noch Chancen für die inländische Rechenleistung?
Worüber macht sich der Markt Sorgen?
Um diese Frage zu klären, müssen zunächst die Gemeinsamkeiten und Unterschiede der AI-Investitionszyklen in China und den USA geklärt werden. Der US-Aktienmarkt entwickelt sich grundsätzlich entlang eines klaren Pfades von „Modellbruch durch → Hardware zuerst → Infrastrukturausbau → Anwendungsumsetzung“, und die Wertwanderung ist nachvollziehbar. Im Vergleich dazu kämpft die AI-Investitionslinie an der A-Aktienbörse ständig zwischen „Ausländischer Abbildung“ und „Eigener Erzählung“. Der Weg ist umständlicher und leichter anfällig für Störungen durch vorübergehende Daten und Stimmungslage.
Die niedrigeren als erwarteten AI-verbundenen Kapitalausgaben der Internetriesen waren der direkte Auslöser für den Rückgang der Bewertung der inländischen Rechenleistung. Der tiefere Grund ist jedoch, dass der Markt befürchtet, dass sich die Umsetzungsgeschwindigkeit der inländischen AI-Anwendungen verlangsamen könnte. Mit anderen Worten, die Teilnehmer haben nicht so viel Vertrauen in die kurzfristige Entwicklung der AI-Anwendungen und die tatsächlichen Investitionen in die Rechenleistungsinfrastruktur, wie es auf den ersten Blick scheint.
Die zugrunde liegende Logik des Aufbruchs des inländischen Rechenleistungssktors war, dass nach der Entstehung von DeepSeek die praktischen Nutzungsschwellen für große Modelle dramatisch sanken, was einer „AI-Gleichberechtigung“ gleichkommt. Der Markt erwartete, dass dies die Investitionen von Unternehmen in die Entwicklung von AI-Anwendungen anregen würde, was wiederum einen anhaltenden Anstieg der Nachfrage nach Rechenleistung hervorrufen würde, sich in der Geschäftsentwicklung und den Kapitalausgaben von Rechenleistung-Unternehmen widerspiegeln würde und schließlich, ähnlich wie an der US-Aktienbörse in den Jahren 2023 - 2024, zu einem „Davis Double Play“ des gesamten inländischen Rechenleistungssktors führen würde.
Aber zunächst: Gemäß den Daten der AI-Produktranking-Liste haben die monatlichen aktiven Nutzerzahlen verschiedener AI-Anwendungen nach einem starken Anstieg im Februar in den Monaten März und April erheblich abgenommen, und einige Anwendungen haben sogar einen Rückgang der monatlichen aktiven Nutzerzahlen verzeichnet. Das bedeutet, dass der aktuelle Umsetzungsfortschritt der AI-Anwendungen weit hinter den Erwartungen zurückbleibt. Die Nutzer testen AI-Anwendungen eher aus Neugierde auf die Fähigkeiten von DeepSeek im Februar als aus notwendiger Nachfrage. Dies erklärt auch, warum sich die Anzahl der neuen Nutzer und die monatlichen aktiven Nutzerzahlen von AI-Anwendungen ebenfalls verringerten, nachdem die erste Katalysatorwelle von DeepSeek nachließ.
Die Gründe für die langsame Umsetzung von AI-Anwendungen liegen einerseits darin, dass, obwohl die derzeit führenden großen Modelle einige Probleme relativ genau behandeln können, die meisten nur eine aufwertende Rolle spielen, nicht aber eine lebensrettende. Ein entscheidender Faktor dahinter ist, dass die gängigen Modelle bei der Beantwortung von Fragen im Wesentlichen auf Korrelationen statt auf kausalen Zusammenhängen basieren. Nehmen wir als Beispiel die von AI verstandenen Begriffe „Regen“ und „Regenschirm“. Diese basieren darauf, dass diese beiden Begriffe während des Lernprozesses gleichzeitig auftraten. Tatsächlich kann das AI-Modell aber den kausalen Zusammenhang „wegen des Regens wird ein Regenschirm genommen“ nicht gut verstehen. Dies führt dazu, dass die großen Modelle in vielen Fällen die eigentliche Essenz der menschlichen Fragen nicht vollständig verstehen können und daher keine wirksamen Lösungen entwickeln können. Vor allem bei Antworten, die sich auf Fakten oder Geschichte beziehen, treten häufig schwerwiegende „Halluzinations“-Probleme auf.
Andererseits hat zwar die schnelle Weiterentwicklung der großen Modelle die Nutzungskosten effektiv gesenkt, aber in der Praxis besteht bei einigen AI-Anwendungen immer noch das Problem, dass die Implementierungskosten weit höher sind als die tatsächlichen Einnahmen. Nach den strengen Beschränkungen der USA auf hochwertige AI-Chips sind die tatsächlichen Nutzungskosten der inländischen AI-Rechenleistung deutlich höher. Dies erhöht erheblich das Unsicherheitsrisiko des ROI von AI-Anwendungen.
Zweitens hat die Entstehung von DeepSeek im inländischen Rechenleistungssktors nicht zu einem Mangel an Rechenleistung geführt. Im Gegenteil, es wurde in der Vergangenheit berichtet, dass es in China ein strukturelles Überangebot an Rechenleistung gab, nämlich einerseits ein schwerwiegender Mangel an fortschrittlicher Rechenleistung und andererseits ein Überangebot an niederwertiger und ineffektiver Rechenleistung. Angesichts der dringenden Nachfrage des Marktes nach fortschrittlicher Rechenleistung deckten laut Daten von TrendForce die inländischen AI-Chips im Jahr 2024 weniger als 40 % der Zuwachsbedarfs ab.
Der Hauptgrund hierfür ist, dass die inländischen AI-Chips immer noch an vielen Faktoren wie technische Anpassungsfähigkeit, Kapazitätsengpässe und unausgereifte Software-Ökosysteme gebunden sind. Obwohl die inländischen Chips in einigen Parametern nahezu oder sogar überlegen zu Nvidias H20 sind, ist es schwierig, sie schnell und in großem Maßstab in der Praxis einzusetzen.
Sind Kapitalausgaben das einzige fassbare Kriterium?
Wenn der Markt eigentlich Sorgen um die Umsetzung von AI-Anwendungen und den Fortschritt der inländischen Rechenleistung hat, warum wird er dann von den Kapitalausgaben der Großunternehmen beeinflusst? Sind die Kapitalausgaben der Großunternehmen ein wirksames Vorlaufindikator für den Fortschritt der inländischen AI?
Die derzeit vorherrschende Meinung auf dem Markt ist, dass die AI-Anwendungen zunächst die bestehenden Geschäfte von Internetunternehmen neu strukturieren und sich dann allmählich auf AI-eigene Anwendungen ausweiten. Da diese Art der nicht-revolutionären Innovation jedoch schrittweise erfolgt, ist es schwierig, hochfrequente Verfolgungsdaten zu sammeln.
Wie in einem Forschungsbericht von J.P. Morgan erwähnt wurde, wird die generative Künstliche Intelligenz vier Phasen durchlaufen: die Entwicklung von großen Sprachmodellen, die Einführung von generativer Künstlicher Intelligenz in bestehende Anwendungen und Dienste, das Wachstum des Verbrauchs von Internetdiensten und das Auftauchen von „Killer“-AI-Anwendungen.
Mit der Entstehung von DeepSeek trat China von der ersten Phase der Modellentwicklung in die zweite Phase der Einbindung von AI in bestehende Anwendungen und Dienste ein. Ein Hauptmerkmal dieser Phase ist die Stärkung bestehender gängiger Anwendungen durch AI-Funktionen, die in erster Linie zur Kostensenkung und Effizienzsteigerung beitragen. Da die Unternehmen jedoch noch nicht genau wissen, wie AI für ihren Betrieb Mehrwert schaffen wird, handelt es sich hierbei um eine Phase, die auf wiederholten Tests beruht. Darüber hinaus ist es aufgrund des vollständigeren Inhaltsökosystems und der umfassenderen AI-Strategie wahrscheinlicher, dass diese Phase von Internetunternehmen vorangetrieben wird.
In dieser Situation, da es keine Vorlaufindikatoren zur Beurteilung des Fortschritts gibt und die Rechenleistungseressourcen relativ konzentriert sind, betrachtet der Markt die Kapitalausgaben von Internetunternehmen als Vorlaufindikator für die Aussichten von AI-Anwendungen. Gleichzeitig wird angenommen, dass die Kapitalausgaben der Großunternehmen indirekt auch als Vorlaufindikator für die Entwicklung des inländischen Rechenleistungssktors gelten, da sie direkt mit den Absatzvoraussichten von inländischen AI-Chips, Servern usw. zusammenhängen.
Es gibt jedoch ein Problem damit: Die Logik, dass aus Kapitalausgaben, die unter den Erwartungen liegen, auf einen verlangsamten Fortschritt der inländischen AI und somit auf eine schlechtere Entwicklung des inländischen Rechenleistungssktors geschlossen wird, ist möglicherweise nicht streng genug.
Die Kapitalausgaben von Alibaba im ersten Quartal von 2025 beliefen sich auf 24,612 Milliarden Yuan. Obwohl dies im Vergleich zu 31,775 Milliarden Yuan im vierten Quartal von 2024 gesunken ist, hat es jedoch im Vergleich zu 11,153 Milliarden Yuan im ersten Quartal von 2024 eine Verdoppelung erreicht. Ähnlich verhält es sich bei Tencent. Die Kapitalausgaben im ersten Quartal von 2025 beliefen sich auf 27,476 Milliarden Yuan, was im Vergleich zu 36,578 Milliarden Yuan im vierten Quartal von 2024 rückläufig war, aber im Vergleich zu 14,359 Milliarden Yuan im ersten Quartal von 2024 fast verdoppelt war.
Dies zeigt, dass seit 2025 die inländischen Internetriesen die Bedeutung von AI deutlich stärker wahrnehmen und auch tatsächlich ihre Ausgaben erhöht haben. Ein möglicher Grund für den Rückgang im Vergleich zum Vorquartal könnte mit dem „Chips-Sammeln“ im vierten Quartal von 2024 und dem „Chips-Mangel“ im ersten Quartal von 2025 zusammenhängen.
Bekanntlich ist das H20 ein von Nvidia Ende 2023 speziell für den chinesischen Markt entwickelter AI-Beschleunigungs-Chip. Obwohl seine Leistung im Vergleich zu Chips wie dem H100 stark eingeschränkt ist, war es bisher der fortschrittlichste von Nvidia produzierte Chip, der legal für das Training und die Inferenz von großen Modellen erworben werden konnte.
Laut den von ausländischen Medien veröffentlichten Informationen über den H20-Chip wurden nach der Genehmigung im Juni 2024 von Juli bis August kleine Mengen an Großkunden ausgeliefert, und die Massenlieferung begann im vierten Quartal von 2024. Angesichts der Tatsache, dass das vierte Quartal des vergangenen Jahres auch ein entscheidender Zeitpunkt der US-Präsidentschaftswahlen war, haben viele inländische Internetriesen wie Tencent und ByteDance im letzten Quartal des vergangenen Jahres in großem Stil „Chips gesammelt“, was die Kapitalausgaben des jeweiligen Quartals direkt erhöhte.
Normalerweise hätte das erste Quartal von 2025 ebenfalls ein Zeitpunkt für die Massenlieferung von Nvidia-H20-Chips sein sollen. Früher berichtete der Markt auch, dass die Auslieferung von H20-Chips in China im ersten Quartal von 2025 im Vergleich zum Vorquartal um 50 % gestiegen war, und einige Händler haben sogar zu erhöhten Preisen umgesondert. Tatsächlich hat Präsident Trump jedoch Anfang April 2025 den H20-Chip in die neue Ausfuhrbeschränkungsliste aufgenommen. Dies könnte dazu führen, dass einige bestellte aber noch nicht gelieferte H20-Chips aufgrund der neuen Beschränkungen nicht ausgeliefert werden können. Mit anderen Worten, es ist möglich, dass einige Internetriesen, die ursprünglich geplant hatten, im ersten Quartal Kapital auszugeben, diese Ausgaben aufgrund verschiedener Beschränkungen nicht tatsächlich tätigen konnten und stattdessen die Buchungen rückgängig machten, was direkt zu einem Rückgang der Kapitalausgaben auf dem Bilanzstand führte.
Dies kann auch aus den am 15. April von Nvidia veröffentlichten 8-K-Dokumenten abgeleitet werden. Laut diesen Dokumenten wird die Geschäftsentwicklung des ersten Quartals des Geschäftsjahres 2026 (bis zum 27. April 2025) von Nvidia möglicherweise um bis zu 5,5 Milliarden US-Dollar durch Abschreibungen für H20-Chips, Bestellungen und damit verbundene Reserven beeinträchtigt.
Daher kann die kurzfristige Schwankung der Kapitalausgaben von Internetriesen möglicherweise nicht genau die echten Ansichten der Unternehmen hinsichtlich der zukünftigen Entwicklung von AI widerspiegeln, sondern hängt eng mit einigen kurzfristigen Handlungen der Unternehmen infolge von Politikänderungen zusammen. Im Vergleich zu den Schwankungen der Quartalsdaten spiegeln möglicherweise eher die festen Kapitalausgabenverpflichtungen der Unternehmen ihr Vertrauen in die zukünftige Entwicklung von AI wider.
Wie bereits erwähnt, ist in Abwesenheit klarer quantitativer Indikatoren die Kapitalausgabe eines der wenigen verfügbaren Indikatoren, anhand derer der Markt die Entwicklung von AI und die Einstellung der führenden Unternehmen beurteilen kann. Selbst wenn die Daten die Realität nicht genau widerspiegeln, tendiert der Markt dennoch dazu, seine Transaktionen anhand dieser Indikatoren vorzunehmen, insbesondere wenn es keine überraschend positiven Nachrichten gibt.
Wie sieht die Zukunft aus?
Wie bereits erwähnt, ist der Fortschritt der Kapitalausgaben von Internetriesen immer noch ein wichtiger Referenzindikator für den Markt, um den Fortschritt von AI zu beurteilen. Kurzfristig könnte ein erneuter Anstieg der Kapitalausgaben von Internetriesen der Auslöser für den nächsten Aufwärtstrend des inländischen Rechenleistungssktors sein.
Laut einem Bericht von Reuters plant Nvidia, nachdem der H20-Chip im April verboten wurde, diesen Jahr ein neues Produkt mit dem internen Code-Namen B40 auf Basis der Blackwell-Architektur zu entwickeln. Dieses Produkt wird nicht die CoWos-Technologie von TSMC verwenden, sondern anstelle des HBM den GDDR7-Speicher nutzen. Seine Bandbreite beträgt 1,7 TB/s, und die Bandbreite des NVLink-Schnittstellen beträgt 550 GB/s. Es wird weiterhin die CUDA-Software unterstützen, und der erwartete Preis liegt zwischen 6.500 und 8.000 US-Dollar, was deutlich niedriger ist als der des H20-Chips. Laut den bisherigen Informationen soll die Produktion des B40-Chips im Juni beginnen, und der chinesische Markt könnte im dritten oder vierten Quartal vollumfänglich beliefert werden.
Dies bedeutet, dass nach der Massenproduktion des B40-Chips im dritten oder vierten Quartal in China die Kapitalausgaben der Internetriesen möglicherweise erneut stark ansteigen werden. Dies könnte die Marktstimmung wieder in eine optimistische Richtung lenken und dem inländischen Rechenleistungssktors neue Impulse geben.
Langfristig gesehen erhöhen die ständigen Handelskonflikte zwischen China und den USA und die wiederholten Beschränkungen auf Nvidia-Chips nicht nur das