Im Jahr 2026 sind AI-Server unglaublich teuer.
2026 wird ein entscheidendes Zeitfenster für die systemweite Upgrades von KI-Servern sein.
Morgan Stanley behauptet in seiner neuesten Forschungsbericht, dass die Hardware von KI-Servern derzeit einem von GPUs und ASICs angetriebenen großen Designupgrade unterzogen wird. Im Jahr 2026 werden die von NVIDIA bevorstehend angebotenen GB300-, Vera Rubin-Plattformen und die Kyber-Architektur sowie das Helios-Serverrack-Projekt von AMD höhere Rechenleistung und eine höhere Rackdichte bringen.
Dementsprechend werden effizientere Stromversorgungslösungen, Standard-Flüssigkeitskühlungslösungen sowie höherwertige PCBs und Hochgeschwindigkeitsverbindungen erforderlich sein. Dieses systemweite Upgrade wird auch dazu führen, dass die KI-Server im Jahr 2026 “unerklärlich teuer” werden.
KI-Server: Sprunghafter Anstieg der Nachfrage
Die Nachfrage nach KI-Servern steigt weiterhin an.
Morgan Stanley prognostiziert, dass allein für die NVIDIA-Plattform die Nachfrage nach KI-Serverracks von rund 28.000 Einheiten im Jahr 2025 auf mindestens 60.000 Einheiten im Jahr 2026 springen wird, was einer mehr als zweifachen Zunahme entspricht. Gleichzeitig hat das Helios-Serverrack-Projekt von AMD (basierend auf der MI400-Serie) gute Fortschritte gemacht, was die Marktnachfrage nach fortschrittlicher KI-Hardware weiter verstärkt.
Derzeit ist die NVIDIA Blackwell-Plattform, insbesondere der GB200-Chip, der zentrale Motor des KI-Servermarktes.
Im Jahr 2026 wird die KI-Hardware von der H00/H200-Ära in einen neuen Zyklus wechseln, der von der NVIDIA GB200/300 (Blackwell-Plattform) und der darauf folgenden Vera Rubin (VR-Serie) Plattform angetrieben wird.
Die Leistungsaufnahme der Chips überschreitet ständig die Grenzen. Von 700 W TDP (TDP: Thermische Entwurfsleistung) beim H100 über 1.000 W beim B200 bis zu 1.200 W beim GB200 und schließlich bis zu 2.300 W TDP für die GPU der Vera Rubin (VR200)-Plattform, die im zweiten Halbjahr 2026 auf den Markt kommt, und sogar bis zu 3.700 W beim VR200 NVL44 CPX Ende 2026.
Mit der Annäherung der GPU-Leistungsaufnahme an 4 kW versagt die herkömmliche Luftkühlung vollständig, und die Flüssigkeitskühlung wird zur einzigen praktikablen Lösung. NVIDIA hat die Flüssigkeitskühlung bereits als Standardausstattung auf der GB200-Plattform implementiert und arbeitet gemeinsam mit den wichtigsten OEM-Herstellern an der Entwicklung von maßgeschneiderten Kaltplattenanschlüssen, um sicherzustellen, dass die Wärme effizient an den Kühlkreislauf übertragen werden kann.
Darüber hinaus muss das Stromversorgungssystem neu strukturiert werden. Die führenden Serverhersteller wandeln von 12V VRM zu 48V Gleichstrombussystemen über, um die Umwandlungsverluste zu reduzieren und die Ansprechgeschwindigkeit der Stromversorgung zu erhöhen. Diese Veränderungen bedeuten, dass zukünftige KI-Datenzentren nicht mehr einfach “mit GPUs gefüllte Maschinenräume” sein werden, sondern ein komplexes Ingenieursystem, das Stromversorgung, Kühlung und Signalübertragung integriert, dessen Bau- und Betriebskosten deutlich steigen werden.
All dies sind die Gründe, warum KI-Server “teurer” werden.
KI-Server-Fabrikanten betreiben mit voller Kapazität
Nachdem NVIDIA im zweiten Halbjahr auf die GB300/B300 der Blackwell Ultra-Plattform umgestellt hat, wird es im nächsten Jahr einen neuen Zyklus geben, der von der Vera Rubin-Plattform angetrieben wird.
Betrachtet man die Lieferanten, so bilden Hon Hai, Quanta Computer, Wistron und Wiwynn, vier ODM-Hersteller mit der NVIDIA Certified Systems-Zertifizierung, die Hauptlieferanten der aktuellen GB200/GB300-Gesamtracks. Hierbei war Hon Hai der erste Hersteller, der die Serienproduktion und Lieferung von GB200- und GB300-Gesamtracks absolvierte.
Hon Hai hat im dritten Quartal eine Steigerung der KI-Serverrack-Lieferungen um 300 % im Vergleich zum Vorquartal erzielt. Insgesamt wird erwartet, dass das Jahresumsatzziel von Hon Hai aus KI-Servern im Jahr 2025 über 1 Billion NT-Dollar liegen wird, was einem Marktanteil von 40 % entspricht. Das Management geht davon aus, dass es keine großen Probleme bei der Übergangsphase zwischen GB200 und GB300 geben wird und gibt an, dass die GB300-Lieferungen im zweiten Halbjahr 2025 dominieren werden.
Kürzlich haben Quanta Computer, Wistron und Wiwynn ihren monatlichen Umsatzrekord im November gebrochen. Quanta Computer und Wiwynn erzielten Umsätze von 192,947 Milliarden NT-Dollar bzw. 96,885 Milliarden NT-Dollar, was einer Monatssteigerung von 11,4 % bzw. 6,2 % entspricht. Die neuesten Daten zeigen, dass Wistron die beste Leistung erbrachte, mit einem konsolidierten Umsatz von 280,624 Milliarden NT-Dollar im November, einer Monatssteigerung von 51,6 % und einer Jahressteigerung von 194,6 %.
Morgan Stanley prognostiziert, dass die monatliche Liefermenge von GB200 im November 5.500 Racks betrug, was einer Zunahme von 29 % gegenüber Oktober entspricht. Hierbei lieferte Quanta Computer 1.000 - 1.100 Racks, Wistron 1.200 - 1.300 Racks und Hon Hai etwa 2.600 Racks.
Betrachtet man die Marktanteile der ODM-Hersteller bei den GB200- und GB300-Rackservern im Jahr 2025, so hat Hon Hai mit 52 % mehr als die Hälfte des Marktes; Wistron hat etwa 21 %; Quanta Computer hat etwa 19 %. Bezüglich der Produktarten beträgt der Anteil von GB200 81 %, während GB300 etwa 19 % ausmacht.
Analysten erwarten, dass die Geschäftsergebnisse der drei Hersteller in diesem Quartal bei Eintritt der Hauptlieferzeit der neuen NVIDIA GB300-Architektur-KI-Server alle neue Höchstwerte erreichen könnten, was zu einer jährlichen Umsatzsteigerung von mindestens 50 % führen würde.
Aufwertung der Lieferkette
Ab diesem späten September 2025 werden die NVIDIA GB300 KI-Server ausgeliefert. Im zweiten Halbjahr 2026 werden die Vera Rubin-Serie ausgeliefert, bei denen sowohl die Stromversorgung als auch die Kühlungsgestaltung sich von der GB-Serie unterscheiden. Dies bietet den Komponentenherstellern die Möglichkeit, ihre Lieferpositionen neu zu verteilen und treibt die Aufwertung der gesamten Lieferkette an.
Stromversorgung
Mit dem exponentiellen Wachstum der KI-Arbeitslasten steigt auch der Leistungsbedarf von Rechenzentren sprunghaft. Nehmen wir beispielsweise Geräte mit NVIDIA GB200 NVL72 oder GB300 NVL72. Diese müssen bis zu 8 Stromversorgungsräume für die MGX-Rechen- und Switchräume haben. Wenn man weiterhin die 54V Gleichstromverteilung verwendet, würde der Kyber-Stromversorgungsraum bei einer Leistungsanforderung im Megawattbereich bis zu 64U Rackraum beanspruchen, was keine Platz für Rechengeräte lassen würde. Auf der GTC-Konferenz 2025 zeigte NVIDIA ein 800V-Sidecar-Konzept, das in einem einzelnen Kyber-Rack 576 Rubin Ultra GPUs mit Strom versorgen kann. Eine andere Alternative besteht darin, jedem Rechenrack einen eigenen Stromversorgungsraum zuzuweisen.
Das herkömmliche 54V Rack-Stromversorgungssystem, das ursprünglich für Kilowatt-Racks entwickelt wurde, kann den Leistungsanforderungen von Megawatt-Racks in modernen KI-Fabriken nicht mehr gerecht werden. NVIDIA hebt seine Stromversorgungsstrategie auf ein neues strategisches Niveau und erweitert seine technologische Marke von der Chip-Leistung auf die gesamte Stromversorgungsarchitektur von Rechenzentren, um die Standards für zukünftige KI-Fabriken zu definieren.
NVIDIAs Stromversorgungsstrategie “Kyber” für KI-Server wird auf zwei Ebenen vorangetrieben, und das Massenproduktionsziel ist bis Ende 2026 festgelegt, früher als der allgemeine Marktvorhersage von 2027.
Laut der Analyse von Guo Mingji, Analyst von Tianfeng International Securities, hat sich der Referenzentwurf des Kyber-Projekts erheblich erweitert und umfasst nicht nur die GPU- und Rack-Ebene, sondern auch die gesamte Stromversorgung und Infrastruktur von Rechenzentren, einschließlich der Anwendung von 800V DC/HVDC-Verteilung und Festkörpertransformatoren (SST). Das bedeutet, dass ab der Kyber-Ära die Wichtigkeit der Stromversorgungsarchitektur bei NVIDIA auf die gleiche strategische Ebene wie die Halbleiterindustrie gehoben wurde.
Morgan Stanley prognostiziert, dass bis 2027 die Stromversorgungslösung für Rubin Ultra-Racks (mit Kyber-Architektur) einen Wert pro Rack haben wird, der mehr als 10-mal höher ist als der aktuelle GB200-Serverrack. Gleichzeitig wird der Wert der Stromversorgungslösung pro Watt Leistungsaufnahme in KI-Serverracks bis 2027 im Vergleich zum gegenwärtigen Stand verdoppelt.
Kühlung
Mit der ständigen Verbesserung der Leistung von CPU und GPU in Rechenzentren steigt auch die Leistungsaufnahme sprunghaft, und der Anstieg der Kühlungskosten ist sehr deutlich.
NVIDIAs Flüssigkeitskühlungstechnologie zeigt einen klaren fortschreitenden Upgrade-Prozess. Früher hatte die GB200 eine Kombination aus Einplatinen-Einweg-Kaltplatten und Luftkühlung. Die Kaltplatten deckten die heißen Bereiche wie CPU und GPU ab, und die Luftkühlung kühlte die kälteren Komponenten wie die Stromversorgung. Die neue GB300 hat eine vollständige Kaltplatten-Flüssigkeitskühlungslösung, die stabile Kühlung für 1.400 Watt Leistungsaufnahme gewährleisten kann. Für die zukünftigen Rubin-Chips mit sehr hoher Leistungsaufnahme hat NVIDIA ein kombiniertes Konzept aus Zweiphasen-Kaltplatten-Flüssigkeitskühlung und stillem (Tauch-)Flüssigkeitskühlung entwickelt.
Genauer gesagt, hat die Flüssigkeitskühlungskomponente des NVIDIA GB300 NVL72 Rack-Level KI-Systems einen Wert von 49.860 US-Dollar (etwa 360.000 Yuan), was etwa 20 % höher ist als das GB200 NVL72 System.
Es gibt Daten, die zeigen, dass die Gesamtkosten für die Kühlung der nächsten Generation Vera Rubin NVL144 Plattform noch höher sein werden. Mit der zunehmenden Kühlungsanforderung von Rechen- und Switch-Trägern wird der Gesamtwert der Kühlungskomponenten pro Rack um 17 % auf etwa 55.710 US-Dollar (etwa 400.000 Yuan) steigen, wobei der Wert der Kühlmodule für die Switch-Träger um 67 % ansteigen wird.
High-End PCB
Die Hardware-Upgrades von KI-Servern und anderen Geräten treiben die Nachfrage nach High-End PCBs stark an. Bei jeder GPU-Iteration werden höhere Anforderungen an die Anzahl der PCB-Schichten, die Materialqualität und die Größe gestellt.
Aktuell steigt die Nachfrage nach PCBs auf einigen Funktionsplatinen wie BMC (Baseboard Management Controller)-Platinen, Netzwerkkarten und PoE (Power over Ethernet)-Karten mit der Verbesserung der Serverfunktionen und der Rechenleistung. In Bezug auf die Iterationsrichtung entwickeln sich die PCBs hin zu höheren Schichten. Derzeit liegt die Anzahl der Schichten im Allgemeinen zwischen 44 und 46.
High-End PCBs zeigen ein enormes Nachfragepotential. Prismark-Daten zeigen, dass der weltweite PCB-Markt im