StartseiteArtikel

Feiern Sie die "Spitze im AI-Cloud-Bereich". ByteDance und Alibaba teilen den Kuchen.

咏仪2025-10-09 18:46
Wenn man den Gegner auf derselben Rennstrecke nicht überholen kann, dann erschaffe sich eine eigene Rennstrecke.

Text | Deng Yongyi

Redaktion | Su Jianxun

Coverquelle | Aufnahme von 36 Kr

Ende September in Hangzhou hat der heftige Wettbewerb zwischen Alibaba und ByteDance um die Platzierung auf dem "AI-Cloud-Markt" das ganze Stadt mit Kriegsluft erfüllt.

Während der jährlichen Veranstaltung von Alibaba Cloud, der "Cloud Habitat Conference", konnten viele Besucher an wichtigen Verkehrsknotenpunkten wie dem Hangzhou Xiaoshan Flughafen und dem Hangzhou Hauptbahnhof große Anzeigen von Volcengine sehen. Darin wurde die Marktanteilszahl betont: "46,4% des chinesischen öffentlichen Cloud-Großmodellmarktes."

Diese Formulierung ist sehr interessant. Volcengine hat zwar keine extremen Begriffe wie "am besten" oder "erstes" verwendet, aber es ist bekannt, dass es etwa 10 namhafte Cloud-Anbieter in China gibt. Volcengine hat fast die Hälfte des Marktes für sich beansprucht – es ist so, als hätte es nichts gesagt und zugleich alles gesagt.

Quelle: Aufnahme von 36 Kr

Einige Branchenexperten haben die Anzeige in Frage gestellt: Die Zahlen von Volcengine basieren auf der Statistik in der MaaS-Form, hauptsächlich in der geschlossenen Quelle. Wenn jemand ein Modell aus der Open-Source-Community herunterlädt und es auf der IaaS- und PaaS-Plattform eines Cloud-Anbieters deployt, ist dies nicht in dieser Statistik enthalten. Die Einschätzung des Wettbewerbskonkurrenzes allein anhand des Modellverbrauchs in der MaaS-Form ist nicht umfassend genug.

Eigentlich kann jedes Unternehmen heute der "Erste auf dem AI-Cloud-Markt" sein.

In verschiedenen Anzeigen und Berichten von Marktanalysen haben Alibaba, ByteDance und Baidu jeweils "Erster" angekündigt, nur dass die Formulierungen unterschiedliche Schwerpunkte haben. Die Atmosphäre ist sehr spannend.

Gestaltung: Intelligentes Aufkommen

Wer ist der Erste auf dem chinesischen AI-Cloud-Markt? Dies ist im September das heißeste Thema unter Cloud-Anbietern und AI-Unternehmen.

Einige bauen Küchen, andere liefern Lebensmittel

Zunächst muss man klarstellen: Alle diese "Erste auf dem AI-Cloud-Markt" von den Modellherstellern haben Recht. Das Kernproblem liegt nicht in der Richtigkeit der Daten, sondern in der unterschiedlichen Art der Teilsung des "AI-Cloud-Markt"-Kuchens, d.h. in den unterschiedlichen statistischen Maßen.

Also, in welchem Bereich hat jedes Unternehmen "gewonnen"?

Wir analysieren es konkret:

  • ByteDance Volcengine ist der Erste in der Anzahl der Aufrufe auf dem öffentlichen Cloud-Markt für Großmodelle (MaaS), was die Gesamtzahl der Aufrufe aller Großmodelle auf seiner öffentlichen Cloud-Plattform bedeutet. Auf Volcengine gibt es neben dem Doubao-Modell von ByteDance (ohne interne Aufrufe von Doubao, TikTok usw.) auch viele Drittanbieter-Modelle. Alle Tokens, die auf seiner Cloud aufgerufen werden, zählen zu seinem Marktanteil.

  • Das AI-Cloud von Alibaba Cloud ist ein ganzheitlicher Service, der von der Infrastruktur (z.B. GPU) über PaaS (Plattform) bis hin zur oberen Ebene von MaaS (Modellaufruf) reicht, und es handelt sich um das Gesamtumsatzvolumen, das daraus entsteht.

  • Was Baidu präsentiert, ist der "Erste auf dem Markt für öffentliche AI-Cloud-Services", was mehr Einnahmen aus der Produktentwicklung und branchenspezifischen Dienstleistungen beinhaltet. Baidu hat auch noch detailliertere Indikatoren preisgegeben, wie z.B. "im ersten Halbjahr 2025 war es sowohl in der Anzahl als auch im Betrag der gewonnenen Großmodellprojekte der Erste".

  • Das Großmodellunternehmen Zhipu hat nach der Veröffentlichung von GLM-4.5 angekündigt, dass auf der Basis der Statistik von OpenRouter die Einnahmen aus dem Modellaufruf höher sind als die Summe aller anderen chinesischen Modelle.

Die Wahl des statistischen Maßes ist berechtigt. Dies liegt daran, dass der Cloud-Bereich ein etabliertes Geschäft ist, mit vielen Produktmodulen und sehr vielfältigen Einkaufs- und Servicearten.

Nehmen wir als Beispiel ein kleines oder mittleres Unternehmen, das möglicherweise direkt einen virtuellen Server von einem Cloud-Anbieter monatlich mietet. Ein Privatentwickler braucht dagegen oft keinen Server langfristig zu mieten und registriert sich einfach für eine API und nutzt sie nach Bedarf. Erst wenn ein Benutzer eine AI-Anwendung nutzt, wird der Cloud-Anbieter gebeten, die Geschäftsanforderungen zu bearbeiten.

Das Gleiche gilt auch für Großmodelle. Die Anforderungen an Großmodelle variieren von Privatpersonen über kleine und mittlere Unternehmen bis hin zu großen Unternehmen.

Zum Beispiel: Die "Anzahl der Großmodellaufrufe", die Volcengine betont, ist wie ein systematisches und skalierbares Kettenunternehmen, das nur Lieferdienst anbietet und ein Gericht (Modell-Inferenz-Ergebnis) liefert.

Einfach ausgedrückt, denkt Volcengine, dass die Kunden sich nicht um die Bauweise der Küche kümmern müssen, egal ob es sich um das Doubao-Modell von ByteDance, um Chips oder um das Inferenz-Framework handelt. Hauptsache, das Gericht kommt schnell und hat gute Qualität.

Deshalb betont Volcengine in vielen öffentlichen Äußerungen die "Schnelligkeit" seiner Modelle.

Im August, nachdem DeepSeek die Version V3.1 aktualisiert hatte, betonte Volcengine die Sprechpause von 20 - 40 ms (TPOT) und die anfängliche gleichzeitige TPM (Tokens pro Minute) von 5 Millionen, wobei letztere damals das höchste Niveau in der Branche erreichte.

TPM bedeutet die Anzahl der Tokens, die pro Minute verarbeitet werden können, und es ist ein wichtiger Indikator für die Servicefähigkeit eines Modells. In einem mittelmäßigen Nutzungsszenario (z.B. Dokumentzusammenfassung, Codegenerierung), wenn jeder Benutzer pro Minute 500 Tokens verbraucht, bedeutet eine TPM von 5 Millionen, dass 10.000 Benutzer bedient werden können.

Dies ist eine Strategie, die eher auf Traffic ausgerichtet ist und schnell an Fahrt gewinnt. Mit anderen Worten, es eignet sich besser für die Geschäftsbedürfnisse von Internet-AI-Anwendungen mit elastischen Anforderungen, kleinen und mittleren Entwicklern usw.

Alibaba und Baidu betonen eher den Umsatz auf dem AI-Cloud-Markt.

Zum Beispiel umfasst das von Alibaba Cloud definierte AI-Cloud den gesamten Umsatz, der aus der Infrastruktur (z.B. GPU-Rechenleistung), der PaaS (Plattform) bis hin zur oberen Ebene von MaaS (Modellaufruf) entsteht.

Das ist wie eine voll ausgestattete Küche. Die Kunden können nicht nur die hochwertigen Küchenutensilien (untere Rechenleistung) nutzen, sondern auch direkt Speisen bestellen (Modell-Service), und es gibt mehr Möglichkeiten.

Warum wählt man die Route der vollständigen Eigenentwicklung?

Allein den Modell-Service zu verkaufen, ist schwierig, um eine langfristige Wettbewerbsvorteil zu schaffen. Ein Ingenieur, der sich mit der Inferenz-Service von Großmodellen befasst, hat für "Intelligentes Aufkommen" ein Beispiel gegeben: "Wenn jemand jede Woche in einen Supermarkt (vollständige Cloud-Service) geht und ein Becher (API) kaufen will, wird er es wahrscheinlich im Supermarkt kaufen, es sei denn, der Becher an anderer Stelle hat besondere Vorteile."

Ob es sich um Cloud oder Großmodelle handelt, die echte Bindung kommt von der ganzheitlichen Lösung und der Datenbindung. Die meisten Kunden werden am Ende nicht nur den reinen Modell-Inferenz-Service nutzen, wie z.B. eine API, die leicht zu verlagern ist.

"Meistens wird man eine API zusammen mit einer Datenbank, einer virtuellen Maschine usw. benötigen." sagte der oben genannte Mann.

Die Zeit der Differenzierung ist angebrochen

Man muss auch anerkennen: Der Bereich der Großmodelle sieht zwar lebhaft aus und wächst schnell, aber im Wesentlichen ist der Gesamtmarkt noch sehr klein.

Im Mai 2024 hat Volcengine den MaaS-Service-Markt mit Preissenkungen eröffnet. Damals hat Volcengine den Preis des Flaggschiffmodells Doubao Pro-32k auf 0,0008 Yuan pro Tausend Tokens gesenkt, was einer Preisreduktion von 99,3% entspricht.

Dies hat direkt einen Preisvergleich in der Branche ausgelöst, und Anbieter wie Alibaba, Tencent und Baidu haben ebenfalls Preissenkungen vorgenommen. Infolgedessen ist die Anzahl der Aufrufe von Volcengine von 120 Milliarden Tokens vor der Preisreduktion auf über 500 Milliarden Tokens gestiegen.

Das IDC hat im ersten Halbjahr 2025 gemeldet, dass die Gesamtzahl der Aufrufe von Großmodellen in China 536,7 Billionen Tokens betrug. Wenn man grob auf der Basis des Preises von Doubao Pro 128k nach der Preisreduktion im vergangenen Jahr (0,0005 Yuan pro Tausend Tokens) rechnet, beträgt der Gesamtmarkt des MaaS im Jahr 2025 etwa 500 - 600 Millionen Yuan.

Im Vergleich dazu hat allein Alibaba Cloud im Jahr 2024 einen Umsatz von über 80 Milliarden Yuan erzielt. Im Vergleich zum traditionellen Cloud-Bereich ist der heutige MaaS-Markt nicht zu vergleichen.

Das Problem liegt darin, was die Anbieter derzeit am meisten glauben und wofür sie lieber investieren, was zu unterschiedlichen Marktstrategien führt.

Der Cloud-Bereich ist ein skalierbares Geschäft mit einem deutlichen Mattheus-Effekt. Alibaba Cloud neigt aufgrund seiner Vorteile im traditionellen Cloud-Service natürlich dazu, ganzheitliche Lösungen anzubieten und die Kunden mit Modell-Services anzuziehen.

Volcengine als Neuzugang hat es schwieriger, an den bestehenden Cloud-Markt (z.B. CPU) heranzukommen, deshalb konzentriert es sich auf das zukünftige Wachstum in der GPU- und MaaS-Bereich (Modell-Inferenz-Service).

Im Mai berichteten die Medien, dass Tan Dai, der CEO von Volcengine, sagte: "Wir sind erst 500 Meter in einem Marathon gelaufen", und der zukünftige Markt wird sich mindestens um das 100-fache erweitern. Beispielsweise hat die tägliche Token-Nutzung des Doubao-Großmodells laut den kürzlich veröffentlichten Daten von Volcengine über 16,4 Billionen erreicht, was eine Zunahme um das 137-fache im Vergleich zum ersten Release im Mai letzten Jahres ist.

Wer ist tatsächlich der Erste auf dem AI-Markt? Zur Zeit gibt es keine einheitliche Norm.

Bei der Cloud Habitat Conference hat Alibaba Cloud direkt seine Meinung über die statistischen Maße geäußert: Wenn man nur die Anzahl der Aufrufe von Großmodellen auf der öffentlichen Cloud betrachtet, sieht man nur den Spitzen eines Eisesbergs.

Der Grund dafür ist, dass viele Kunden die Modelle nicht direkt auf der öffentlichen Cloud aufrufen. Die Tongyi-Großmodellfamilie von Alibaba Cloud folgt dem Open-Source-Ansatz, und viele Unternehmen laden die Modelle direkt herunter und deployen sie auf ihrer privaten Cloud oder auf lokalen Servern.

Die Anzahl der Aufrufe dieser Kunden, die die Modelle selbst deployen und nutzen, ist sehr hoch, aber die externen Datenberichte können diese nicht erfassen.

Alibaba Cloud misst das Gesamtumsatz der gesamten "AI-Cloud"-Geschäft. Dies ist ein sehr breites Feld, das die Vermietung von GPU-Rechenleistung (Infrastruktur), die Bereitstellung von Plattform-Services (PaaS) sowie die Modell-Aufruf-Services (MaaS) und alle anderen damit verbundenen Einnahmen umfasst. Gemäß dieser "Gesamtumsatz"-Dimension ist Alibaba Cloud der Erste.

Um zu beweisen, dass sein eigenes Großmodell einen stärkeren Einfluss hat, gibt es tatsächlich noch viele detaillierte Dimensionen, die man untersuchen kann.

Bei einem Interview nach der Cloud Habitat Conference hat Alibaba Cloud auch vorgeschlagen, dass man unterscheiden sollte, ob ein Anbieter ein von ihm entwickeltes Modell verkauft oder ein Modell eines anderen Anbieters weiterverkauft. Und ob der angebotene Modell-Service komplexe Aufgaben (die nur mit einem hochwertigen Flaggschiffmodell gelöst werden können) oder einfache Offline-Markierungsarbeiten bearbeitet?

Ein Bericht von Sullivan im September widerspiegelt diesen Ansatz, der eher auf die Eigenentwicklungskapazität Wert legt. Gemäß der täglichen Token-Aufrufsquote der "selbstentwickelten Modelle" der Anbieter betrug der Anteil von Alibaba Tongyi im ersten Halbjahr 2025 17,7%, der von ByteDance Doubao 14,1% und der von DeepSeek 10,3%.

Der Preisvergleich kann nicht langfristig andauern. Großmodelle gehen von der Konkurrenz um die Infrastrukturgröße, die Anzahl der Token-Aufrufe und andere einzelne Indikatoren hin zur Konkurrenz um Effizienz und Service-Tiefe über.

Ein typisches Zeichen ist, dass im Jahr 2024 die reine Preisreduktion noch einen Anstieg auf dem Token-Markt auslösen konnte, aber im Jahr 2025 ist dies nicht mehr das Allheilmittel. Da die Tokens bereits sehr günstig sind, achten die Unternehmen mehr auf die Modellwirkung und die Effizienz.

Für kleinere AI-Modellunternehmen, die nicht über die Ressourcen für die vollständige Lösung eines großen Unternehmens verfügen, wird die Differenzierung wichtiger denn je.

Ein aktuelles Beispiel ist, dass im Jahr 2025 das neue Modell K2 von Dark Side of the Moon für Code-Aufgaben tiefgehend optimiert wurde und das Verhältnis von Qualität zu Preis sehr gut ist, so dass die Anzahl der Aufrufe plötzlich gestiegen ist. Letzte Woche hat auch Zhipu ein GLM Coding-Paket für Programmier-Szenarien vorgestellt und die gleichzeitige Verarbeitungskapazität für Programmier-Services erhöht.

Der kommerzielle Wettbewerb ist ziemlich einfach. Ein unumstößliches Prinzip ist: Wenn man in den Indikatoren hinter dem Konkurrenten zurückbleibt, ist es besser, einen neuen Indikator auf seiner Stärken zu definieren. Und die wichtigste Frage im Bereich der Großmodelle ist derzeit