Beobachtung der WAIC 2025: Aufstieg der Rechenleistungswettbewerbe in eine höhere Dimension, Suche nach Wegen für die Implementierung von Modellen
Am 28. Juli 2025 fand die Weltkonferenz für Künstliche Intelligenz (WAIC) in Shanghai ihr Ende. Die Ausstellungshalle von über 70.000 Quadratmetern, über 800 Unternehmen und der Einzeltagespreis, der einmal auf 3.000 Yuan getrieben wurde, zeugen von der beispiellosen Popularität dieser Großveranstaltung.
Im Vergleich zu den vergangenen Jahren zeigte diese WAIC-Konferenz zwei zunehmend klare Industriepfade auf: Einerseits treiben Hardwarehersteller wie Huawei, Sugon und Digital China die Konkurrenz um Rechenleistungsinfrastruktur auf neue Leistungshöhen. Andererseits lenken Modell- und Anwendungshersteller wie Baiwang Co., Ltd. und Jieyue Xingchen ihren Blick von den technischen Parametern hin zur tiefgreifenden Umsetzung in kommerziellen Szenarien.
Dieses "zweifältige" Phänomen war überall vor Ort auf der Konferenz zu sehen. Beispielsweise erfuhren die Reporter auf der Huawei-Ausstellungsfläche, dass das erstmals vor Ort gezeigte Ascend 384 Super-Node (Atlas 900 A3 SuperPoD) einer einzelnen Cluster eine Rechenleistung von bis zu 300 PFLOPS (30 Billionen Fließkommaoperationen pro Sekunde) erreicht. Diese gewaltige Rechenleistung, die in den kalten Schränken pulsiert, bildet die "heißeste" Seite dieser Konferenz. Auf der anderen Seite der Halle jedoch liefern die nüchternen Überlegungen der unteren Stromabnehmer einen anderen Aspekt zu dieser Hitze.
"Der Wert von Large Language Models liegt nicht in den technischen Tools, sondern in der tiefen Umsetzung in Szenarien." Am 27. Juli betonte Fu Yingbo, CEO von Baiwang Co., Ltd., dies in einem Interview mit einem Reporter der Economic Observer. Seine Ansicht repräsentiert eine andere Stimme in der Branche. Neben der Konkurrenz um Rechenleistung ist es ebenfalls von entscheidender Bedeutung, wie man KI in reale kommerzielle Werte umwandeln kann.
Weiteres Aufstocken der Rechenleistung als "Neue Infrastruktur"
"Für den Bereich KI haben wir bisher insgesamt 8 Milliarden Yuan in Infrastrukturen wie Rechenzentren und Rechenleistungsmietdienste investiert." Am 27. Juli sagte Xia Yuan, Präsident von Xinxin Financial Leasing Co., Ltd., auf einem Unterforum mit dem Thema "Kooperation zwischen Industriefinanzierung und neuen KI-Kräften".
Laut Xia Yuan ist Xinxin Financial Leasing Co., Ltd. als einziges Finanzdienstleistungsplattform in China, die sich auf die Unterstützung strategisch wichtiger aufstrebender Industrien wie der integrierten Schaltung konzentriert, seit ihrer Gründung vor fast zehn Jahren insgesamt 210 Milliarden Yuan in die integrierte Schaltungsindustrie investiert. Die Investition von 8 Milliarden Yuan in die KI-Infrastruktur ist eine Fortsetzung seiner Strategie, "eine eigenständige und kontrollierbare KI-Industrie-Kette aufzubauen".
Die Industriefinanzkräfte, repräsentiert durch Xinxin Financial Leasing Co., Ltd., bieten der zunehmend teuren Konkurrenz um Rechenleistung kontinuierliche Kapitalunterstützung. Auf der Konferenz sah der Reporter auch einen klaren Trend: Diese Konkurrenz um Rechenleistung entwickelt sich von der Verfolgung einzelner Leistungskennzahlen zu einem "Systemprojekt", bei dem eine Reihe von aufeinanderfolgenden Herausforderungen wie Leistung, Kompatibilität, Speicherleistung und Energieeffizienz gelöst werden müssen.
Was die Verfolgung der höchsten Leistung betrifft, bot Huawei auf dieser Konferenz ein am besten sichtbares Beispiel. Die Reporter erfuhren vor Ort, dass das erstmals vor Ort gezeigte Ascend 384 Super-Node (Atlas 900 A3 SuperPoD) durch die Peer-to-Peer-UB-Bus und die blockierungsfreie Clos-Architektur 384 NPUs und 192 Kunpeng-CPUs effizient miteinander verbindet. Die Rechenleistung eines einzelnen Clusters von bis zu 300 PFLOPS zielt auf ein Ziel – die Schaffung der derzeit stärksten Rechenleistungsmotor.
Wenn die Verfolgung der höchsten Leistung die Höhe der Konkurrenz um Rechenleistung definiert, dann bestimmt das tiefe Verständnis unterschiedlicher Anwendungsfälle die Breite dieser Konkurrenz.
"Die Marktbedürfnisse entwickeln sich weiter. Wir haben zwei deutliche Trends beobachtet: Erstens wächst die Nachfrage von Unternehmen nach der 'privaten Bereitstellung' von Large Language Models aus Gründen der Datensicherheit. Zweitens trennen sich die Szenarien von 'Training' und 'Inferenz', und verschiedene Szenarien erfordern Rechenleistungslösungen mit unterschiedlichem Preis-Leistungs-Verhältnis." sagte Zhou Chuan, Vizepräsident der Digital China's Business Group für Chinesische Technologien und Leiter des Forschungszentrums, in einem Interview mit einem Reporter der Economic Observer.
Basierend auf dieser Einschätzung hat Digital China's Shenzhou Kuntai auf dieser Konferenz den ersten Server KunTai R624 K2 für das Training und die Inferenz von Large Language Models und den Inferenzserver KunTai R622 K2 auf Basis der Kunpeng-Technologie veröffentlicht. Sun Yanan, Produktspezialist der Digital China's Business Group für Chinesische Technologien, erklärte dem Reporter, dass der KunTai R624 K2 bis zu 10 gängige KI-Beschleunigungskarten unterstützen kann und die Rechenleistung im Vergleich zu früheren Produkten um das Doppelte erhöht ist. Der KunTai R622 K2 erreicht innerhalb von 2U den höchsten Rechenleistungsdichte in der Branche.
Noch bemerkenswerter ist seine "offene" Strategie. Zhou Chuan betonte gegenüber dem Reporter: "Während wir uns an die starke Huawei-Kunpeng- und Ascend-Ekologie anpassen, sind unsere Produkte auch mit gängigen KI-Beschleunigungskarten aus China und aus dem Ausland kompatibel. Unser Ziel ist es, Produkte mit höherer Leistung und besserem Preis-Leistungs-Verhältnis zu entwickeln, um die Hardwarekompatibilitätsbarrieren zu brechen und es jeder Branche zu ermöglichen, Large Language Models tatsächlich nutzen zu können."
Wenn die CPU und die KI-Beschleunigungskarte der "Gehirn" der Rechenleistung sind, dann ist das Speichersystem das "pumpende Herz". Selbst wenn die Rechenleistung sehr stark ist, ist alles umsonst, wenn die Daten nicht eingespeist werden können.
"Wir haben festgestellt, dass es in den heutigen Rechenzentren allgemein drei große Probleme gibt: 'Daten können nicht vollständig erfasst, sortiert und effektiv genutzt werden'." sagte He Zhen, Präsident von Sugon Storage, gegenüber dem Reporter. "Die Systeme unterschiedlicher Hersteller sind nicht kompatibel, und die Daten bilden Inseln. Das ist das Problem von 'nicht vollständig erfassen'. Die Wertschöpfung von Massendaten kann nicht schnell ermittelt und über Domänen hinweg zirkuliert werden. Das ist das Problem von 'nicht sortieren'. Die Datenübertragung zwischen Ost- und Westchina hat eine hohe Latenz und eine schlechte Benutzererfahrung. Das ist das Problem von 'nicht effektiv nutzen'."
Als Hersteller mit der ersten Marktanteil in der KI-Speicherbranche seit zwei Jahren versucht Sugon Storage, diese "Datenhauptarterie" zu öffnen.
Auf dieser Konferenz haben China Mobile und Sugon Storage zusammen das erste globale einheitliche Dateispeichersystem in China eingeführt und die Plattform für intelligente Speicherleistungsverwaltung gestartet. Diese Plattform deckt erstmals die vier nationalen Schlüsselknoten wie das Yangtse-Delta und das Chengdu-Chongqing-Ökosystem ab und zielt darauf ab, die nationale Strategie von "Übertragung von Daten aus dem Osten in den Westen" zu unterstützen.
"Man darf nicht lassen, dass die GPU auf die Daten wartet." Erklärte Zhang Xinfeng, Vizepräsidentin von Sugon Storage, die Wichtigkeit der Zusammenarbeit zwischen Speicher und Rechenleistung mit einer anschaulichen Metapher. Sie sagte gegenüber dem Reporter, dass durch Technologien wie Kontextspeicherung und GDS (GPU Direct Storage) die Daten direkt zur GPU gelangen können, ohne den CPU zu passieren. Dadurch kann die Inferenzleistung deutlich verbessert werden, und die Anzahl der Tokens (vergleichbar mit Wörtern oder Zeichen, die von KI verarbeitet werden) pro Sekunde kann von Hunderten auf 2.000 - 3.000 erhöht werden.
"Wir haben berechnet, dass für jeden Yuan, den man in die Speicherleistung investiert, 10 Yuan an Rechenleistungskosten eingespart werden können." fügte Zhang Xinfeng hinzu.
Zhang Zhilei, Vizepräsident von Sugon Storage, betonte gegenüber dem Reporter die technische Herausforderung von "domänenübergreifender Transparenz": "Beim domänenübergreifenden Datenmanagement muss man sowohl sicherstellen, dass die Geschäftsprozesse nicht unterbrochen werden, als auch die starke Konsistenz der Daten bei der gleichzeitigen Zugriffs von mehreren Knoten gewährleisten. Dies stellt eine enorme Herausforderung an die Metadatenverwaltungskapazität des Speichersystems und die Netzwerklatenz dar." Er sagte, dass die Lösung von Sugon Storage von der untersten Chip-Ebene bis zur obersten Software-Ebene beschleunigt wurde und die Anforderungen an Privatsphäre- und Vertrauensberechnung berücksichtigt hat, um sich auf die zukünftige Datensicherheit vorzubereiten.
Eine andere direkte physische Herausforderung, die diese Konkurrenz um Rechenleistung mit sich bringt, ist der mit der Leistung steigende Stromverbrauch. Auf der Konferenz hat diese Herausforderung auch neue Lösungen hervorgebracht.
Die Reporter erfuhren auf der Ausstellungsfläche von SuperCloud Digital Technology Group, dass das Unternehmen auf dieser Konferenz erstmals seinen Full-Stack Flüssigkeitskühlung-Intelligenten Rechenserver R8429 L13 vorgestellt hat. Laut einem Mitarbeiter ist die Flüssigkeitskühlung bei einer Leistung eines Einzelsschaltschranks von über 20 kW zur Schlüsselkühlungslösung geworden. Dieses Produkt wurde speziell entwickelt, um den zunehmend schwierigen Energieverbrauchsproblemen in Rechenzentren in der Zeit der Large Language Models zu begegnen.
Von der Kapitalinjektion über die Leistungsexplosion bis zur Rückkehr zu Offenheit, Zusammenarbeit und Effizienz findet auf der Rennstrecke der chinesischen KI-Industrie eine dreidimensionale und vielseitige Konkurrenz um die Rechenleistung als "Neue Infrastruktur" statt.
Large Language Models treten in die Tiefe der Industrie ein
Wenn die Rechenleistungsinfrastruktur das "Baum der Straßen" ist, dann sind die Modelle und Anwendungen die "Autos" auf diesen Straßen.
Vor Ort auf der Konferenz beobachteten die Reporter, dass die Modellhersteller gemeinsam "aus der Wolke herunterkommen", sich von der bloßen Parametervergleichung und technischen "Show" verabschieden und in die "Tiefe" der Industrie eintauchen, um Szenarien zu finden, Ökosysteme aufzubauen und eine Erkundung zu starten, wie man Technologie in kommerzielle Werte umwandeln kann.
Xu Li, Vorsitzender und CEO von SenseTime, sagte in seinem Vortrag auf dem Hauptforum, dass die Evolution der Künstlichen Intelligenz nach dem Lernen von von Menschen annotierten Daten (Perzeptuelle KI) und Textdaten aus dem Internet (Generative KI) nun vor einem neuen Datenengpass steht.
"Woher wird die nächste Generation von KI-Wissen kommen, wenn das Wissen aus Büchern und dem Internet erschöpft ist?" fragte Xu Li. Er glaubt, dass die Antwort in der physischen Welt liegt. Durch "Embodied Intelligence" und "World Model" soll die KI wie der Mensch in der Interaktion mit der realen Welt wachsen.
Diese Einschätzung erklärt auch, warum viele KI-Unternehmen sich unermüdlich bemühen, die Modelle mit industriellen Szenarien tief zu integrieren. Denn nur in realen Szenarien kann die KI auf neue, hochwertige Daten, die physikalische Gesetze enthalten, zugreifen und somit eine höhere Evolution erreichen.
"Die Industrie ist in die Phase von 'Rückkehr zu den Kundenbedürfnissen und Fokus auf reale Anwendungsfälle' eingetreten." sagte auch Jiang Daxin, CEO von Jieyue Xingchen, vor Ort auf der Konferenz. Er betonte gleichzeitig, dass die Branche die Frage "Ist die Modellleistung vollständig gleich dem Modellwert?" beantworten muss.
Basierend auf dieser Einschätzung hat Jieyue Xingchen das neue Basismodell Step 3 veröffentlicht, dessen Kernziel "Kostensenkung und Effizienzsteigerung" ist. Ein Mitarbeiter von Jieyue Xingchen erklärte, dass die Inferenzleistung dieses Modells auf chinesischen Chips bis zu dreimal höher als die von DeepSeek-R1 sein kann. Gleichzeitig hat Jieyue Xingchen beschlossen, "Freunde zu machen" und hat zusammen mit fast 10 Chipherstellern wie Huawei Ascend und Muxi die "Modell-Chip-Ekosystem-Innovationsallianz" gegründet, um die Zusammenarbeit zwischen Hardware und Software auf der untersten Ebene zu verbessern und die Anwendungsgebühren für die gesamte Branche zu senken.
Das Aufbauen einer Plattform und die Stärkung der Entwickler ist eine andere Art, "Freunde zu machen".
"Wir verstehen uns als KI-Infrastruktur und wollen Wissenschaftlern und industriellen Entwicklern helfen, indem wir einfache Tools anbieten, damit die KI ein 'unsichtbarer Helfer' wird." sagte Xiao Yunfeng, Leiter des Engineering-Teams der Inspire Platform von Infinite Light, gegenüber dem Reporter. Seine "Inspire Platform" bemüht sich darum, ein "ganzheitliches Rechenleistungspedestal" aufzubauen, damit die Entwickler "von den technischen Details befreit werden und sich auf die wissenschaftliche Essenz und die Geschäftsinovation konzentrieren können".
Wenn die Modellhersteller anfangen, "Freunde zu machen" und die Plattformhersteller "Tools anbieten", folgt eine konkretere Frage: Wie kann der Wert der KI tatsächlich in den konkreten Szenarien aller Branchen "ausgebeutet" werden? Auf diese Frage haben einige Unternehmen, die sich auf vertikale Branchen spezialisiert haben, ihre Antwort gegeben.
"Unser Kernkompetenz liegt in den 'Transaktionsdatenminen', die wir in den letzten zehn Jahren gesammelt haben und deren Gesamtumsatz 953,5 Billionen Yuan beträgt." erklärte Fu Yingbo, CEO von Baiwang Co., Ltd., dem Reporter detailliert seine Geschäftslogik. Er glaubt, dass die allgemeinen Open-Source-Modelle die technische Basis bieten, aber nur in Kombination mit tiefgreifenden Branchen-Daten wie denen von Baiwang kann man ein "Geschäfts-Gehirn" trainieren, das wirklich die Geschäftslogik versteht und dringende Probleme wie die Steuerkonformität von Unternehmen lösen kann.
Fu Yingbo sagte auch, dass Baiwang Co., Ltd. sich aktiv mit Modellherstellern wie Tongyi Qianwen von Alibaba und Lingyi Wanwu sowie Chipunternehmen wie Muxi zusammenarbeitet, um den Implementierungspfad von "Open-Source-Modell + Branchenszenario" voranzubringen.
In kreativen Branchen wie der Unterhaltungsbranche verändert AIGC (KI-generierte Inhalte) ebenfalls den Produktionsprozess.
"Die KI ist kein Ersatz für kreative Menschen, sondern ein 'Superhelfer', der es den Künstlern ermöglicht, sich von den lästigen Prozessen zu befreien und sich auf die Kernaspekte zu konzentrieren." sagte Dr. Sun Daqian, Exekutivdirektor von Digital Domain, gegenüber dem Reporter. Das Unternehmen hat auf der WAIC die "AI DOMAIN" One-Stop-Bildschaffungsplattform veröffentlicht, die sieben Kernfunktionen wie Text-zu-Bild, Bild-zu-Video und intelligente Bildvergrößerung integriert hat.
Laut Liu Hongjie, Generalmanager von Digital Domain in China, hat Digital Domain zusammen mit der Hong Kong University of Science and Technology, Shanghai Film Group und Muxi die "Digital Visual Innovation Alliance" gegründet, um "intelligente und skalierbare Inhaltserstellungskanäle" zu erschließen und die Massenproduktion von Kurzvideos und Kurzfilmen voranzubringen.
Wenn man den Blick von der Industrie auf die einzelnen Verbraucher richtet, zeigt sich die Umsetzung der KI in Produkten, die näher am Alltag sind.
Laut einem Mitarbeiter der Ausstellungsfläche von Mobvoi hat das Unternehmen das neue TicNote AI-Sprechschreibergerät vorgestellt. Durch die