StartseiteArtikel

Diese Chips sind extrem beliebt.

半导体行业观察2025-08-18 10:11
Halbleiter für Rechenzentren werden voraussichtlich über 50% des gesamten Halbleitermarkts ausmachen, wobei die CAGR (2025–2030) in diesem Segment fast doppelt so hoch wie die des gesamten Halbleitersektors sein wird.

Datencentren werden heutzutage mit beispielloser Geschwindigkeit und Skala zur zentralen Triebkraft für die globale wirtschaftliche und gesellschaftliche Entwicklung. Wenn die Zeit der PCs und Smartphones in der Vergangenheit das Goldene Zehnjahr der Halbleiterindustrie prägte, eröffnen Datencentren, die von Künstlicher Intelligenz (KI), Cloud Computing und hyperskaligen Infrastrukturen angetrieben werden, eine ganz neue Ära des Halbleiters.

Dies ist keine schrittweise Entwicklung, sondern eine umwälzende Veränderung. Der Bedarf der Datencentren an Chips entwickelt sich schnell von einfachen Prozessoren und Arbeitsspeichern zu einem komplexen Ökosystem, das Berechnungen, Speicher, Interkonnektivität und Stromversorgung umfasst. Diese starke Nachfrage treibt den Markt für Datencentren-Halbleiter mit beispielloser Geschwindigkeit in die Richtung eines Billionen-Dollar-Marktes.

Die KI-Welle: Der "Rüstungswettlauf" der Datencentren

Der Ausbruch der Künstlichen Intelligenz, insbesondere der generativen KI, ist der stärkste Katalysator für diese Veränderung. Laut Branchenprognosen übersteigen die KI-verwandten Kapitalausgaben bereits die Nicht-KI-Ausgaben und machen fast 75 % der Investitionen in Datencentren aus. Bis 2025 wird diese Zahl auf über 45 Milliarden Dollar geschätzt. KI-Server wachsen rapide, und ihr Anteil an der Gesamtzahl der Rechenserver ist von wenigen Prozentpunkten im Jahr 2020 auf über 10 % im Jahr 2024 gestiegen.

Angetrieben durch die Entwicklung von Basis-Modellen, Inference und Innovationen bei kundenspezifischen Chips befinden sich die globalen Technologiegiganten in einem heftigen "Rüstungswettlauf" um Rechenleistung. Top-Spieler wie Microsoft, Google und Meta investieren jedes Jahr Hunderte von Millionen Dollar, und auch kleine und mittlere Unternehmen folgen schnell, denn sie wissen, dass der zukünftige Wettbewerbsvorteil direkt von der Größe der Infrastruktur und der Differenzierung auf Chip-Ebene abhängt.

Dieser explosive Wachstum treibt einen beispiellosen Bedarf an Halbleitern an. Die Yole Group analysiert, dass der Markt für die Beschleunigung von Datencentren-Halbleitern ab 2024 expandieren wird und bis 2030 auf 493 Milliarden Dollar ansteigen wird. Damals werden Datencentren-Halbleiter voraussichtlich mehr als 50 % des gesamten Halbleitermarktes ausmachen, und die durchschnittliche jährliche Wachstumsrate des Segmentmarktes (2025 - 2030) wird fast doppelt so hoch sein wie die des gesamten Halbleiterbranchen, was die von KI, Cloud Computing und hyperskaligen Infrastrukturen angetriebene gewaltige Veränderung widerspiegelt.

Das Fest der Chips

Das Rennen zwischen GPU und ASIC: Zunächst wird die GPU sicherlich weiterhin die dominierende Position einnehmen. Aufgrund der zunehmenden Komplexität und der steigenden Verarbeitungsanforderungen von KI-intensiven Workloads wächst sie am schnellsten.

NVIDIA verwandelt sich mit seiner starken GPU-Ökosystem von einem traditionellen Chipdesignunternehmen zu einem Anbieter von ganzheitlichen KI- und Datencentren-Lösungen. Sein Kernwaffen - der Blackwell GPU - behält dank des fortschrittlichen 4nm-Prozesses von TSMC weiterhin die dominierende Position in diesem Bereich.

Um der Marktdominanz von Nvidia entgegenzuwirken, entwickeln große Cloud-Dienstleister wie AWS, Google und Azure eigene KI-Beschleunigungs-Chips, wie z.B. den Graviton-Chip von AWS, und innovieren bei kundenspezifischen Speicher- und Netzwerkhardware. Diese technologischen Entwicklungen machen den Wettbewerb im Bereich der KI-Chips noch heftiger, insbesondere bei Inference und Training. Die Leistungsdifferenzierung der KI-Chips wird zum Kern des Unternehmenswettbewerbs.

Dieses parallele Vorgehen von GPU und ASIC wird zur Hauptmelodie der Datencentren-Berechnung.

HBM: Mit dem exponentiellen Wachstum der KI-Modelle ist die Bandbreite des herkömmlichen Arbeitsspeichers zum größten Engpass bei der Steigerung der Rechenleistung geworden. Der High-Bandwidth-Memory (HBM) ist daher entstanden. Dank seiner innovativen 3D-Stack-Technologie erhöht er die Speicherbandbreite und -kapazität erheblich und wird zur "Standardausstattung" von KI- und Hochleistungsrechen (HPC)-Servern.

Laut einer Forschungsstudie von Archive market research erlebt der HBM-Markt ein explosionsartiges Wachstum. Es wird geschätzt, dass er bis 2025 auf 3,816 Milliarden Dollar ansteigen wird, und die durchschnittliche jährliche Wachstumsrate (CAGR) von 2025 bis 2033 beträgt beeindruckende 68,2 %. Das schnelle Wachstum des HBM wird zu einem weiteren starken Wachstumspunkt im Markt für Speicher-Halbleiter.

Der HBM-Markt für KI-Chipsätze zeigt mehrere Schlüsseltendenzen: Erstens ist der Trend hin zu höherer Bandbreite und Kapazität deutlich. Module mit mehr als 8 GB pro Stack werden immer häufiger, was auf den dringenden Bedarf der immer komplexeren KI-Modelle nach schnellerer Datenverarbeitungsgeschwindigkeit zurückzuführen ist. Zweitens ist die Energieeffizienz ein Schlüsselfaktor, der die Innovation bei energieeffizienten HBM-Designs vorantreibt. Drittens wird die direkte Integration von HBM in KI-Beschleuniger immer häufiger, was die Latenz minimiert und die Gesamtleistung verbessert. Viertens zeugt die Branche von der Entstehung von standardisierten Schnittstellen, die die Systemintegration vereinfachen und die Markteinführung von KI-Systemen beschleunigen. Fünftens ermöglicht die Verwendung fortschrittlicher Verkapselungstechnologien wie Through-Silicon-Vias (TSV) die Herstellung von HBM-Stacks mit hoher Dichte und Effizienz. Schließlich treibt der zunehmende Bedarf an Edge-KI die Entwicklung kostengünstiger HBM-Lösungen für eingebettete Systeme und mobile Geräte voran.

Die Hauptakteure auf dem globalen HBM-Markt sind hauptsächlich SK Hynix, Samsung und Micron Technology. Es gibt auch einige chinesische Hersteller. SK Hynix und Samsung liefern zusammen über 90 % des globalen HBM-Angebots. Micron Technology ist das erste amerikanische Unternehmen, das HBM3E in Serie produziert, und seine Produkte werden bereits in Nvidias H200 GPU eingesetzt.

DPU und Netzwerk-ASIC: In der Ära der KI mit riesigen Datenströmen ist eine effiziente Netzwerkverbindung von entscheidender Bedeutung. Der Aufstieg der Data Processing Units (DPU) und hochleistungsfähigen Netzwerk-ASICs zielt darauf ab, die Netzwerkverarbeitungstasks von CPU und GPU zu übernehmen und die Trafficverwaltung zu optimieren, um so mehr Rechenressourcen freizugeben. Darüber hinaus hat der DPU auch große Vorteile in Bezug auf Sicherheit, Skalierbarkeit, Energieeffizienz und langfristige Kosteneffizienz.

Umwälzende Technologien: Das Neue Kapitel der Post-Moore-Zeit

Wenn die KI der Kernmotor für den Bedarf an Datencentren-Chips ist, definieren eine Reihe von umwälzenden Technologien auf der untersten Architekturebene Leistung, Effizienz und Nachhaltigkeit der Datencentren neu.

Siliziumphotonik und CPO: Der Datenverkehr innerhalb der Datencentren wechselt schnell von der herkömmlichen Kupferkabelverbindung zur optischen Interkonnektivität. Die Siliziumphotonik-Technologie, insbesondere die Co-Packaged Optics (CPO), wird zum Schlüssel für die Lösung der Herausforderungen bei der schnellen und energieeffizienten Interkonnektivität. CPO integriert die optische Engine direkt in die Verkapselung von Rechenchips wie CPU/GPU/ASIC, was die Übertragungsstrecke des elektrischen Signals erheblich verkürzt, die Latenz verringert und die Energieeffizienz deutlich verbessert.

Branchenriesen wie Marvell, NVIDIA und Broadcom setzen sich aktiv in diesem Bereich ein. Es wird geschätzt, dass dieser Bereich bis 2030 Umsätze im Milliarden-Dollar-Bereich erzielen wird. Im Januar dieses Jahres kündigte Marvell die Einführung eines bahnbrechenden Co-Packaged Optics-Architektur für kundenspezifische KI-Beschleuniger an. Der XPU mit integriertem Co-Packaged Optics (CPO) verbessert die Leistung der KI-Server, indem er die XPU-Dichte von einigen Dutzend pro Rack auf mehrere Hundert auf mehreren Racks erhöht.

Der Dünnfilm-Niobat-Lithium (TFLN)-Modulator ist ein weiterer bahnbrechender Fortschritt im Bereich der optischen Kommunikation. Er kombiniert die Hochgeschwindigkeits-Niobat-Lithium-Modulator-Technologie mit der Skalierbarkeit der Siliziumphotonik. Der TFLN-Modulator zeichnet sich durch eine ultrahohe Bandbreite (>70 GHz), eine extrem niedrige Einfügedämpfung (<2 dB), eine kompakte Größe, eine niedrige Ansteuerspannung (<2 V) und die Kompatibilität mit dem CMOS-Herstellungsprozess aus. Diese Eigenschaften machen ihn zur idealen Wahl für die Realisierung von 200 Gbps-Modulatoren pro Kanal und für die Hochleistungsverbindung innerhalb der Datencentren.

CPO löst direkt das Problem des "elektrischen Schnittstellenengpasses", das die steckbare Lösung einschränkt, und ermöglicht so einen entscheidenden Sprung bei Leistung und Bandbreite. Dies kann als Überwindung der "elektrischen Mauer" nach der "Speichermauer" gesehen werden und ist für die Bewältigung der zunehmenden Leistungsdichte und die effizientere Datenübertragung innerhalb und zwischen den Datencentren von entscheidender Bedeutung. CPO ermöglicht längere Distanzen und höhere Dichten bei der Verbindung von XPU zu XPU, was die weitere Entkopplung der Datencentren-Architektur fördert und die flexiblere Verteilung von Rechenressourcen ermöglicht.

Fortschrittliche Verkapselung: CPO ist nur ein Beispiel für die Anwendung fortschrittlicher Verkapselungstechnologien in Datencentren. Mit Technologien wie 3D-Stacking und Chiplets können Halbleiterhersteller Chips mit verschiedenen Funktionen (z.B. Berechnung, Speicher, I/O) auf derselben Platine integrieren und so leistungsfähigere und flexiblere heterogene Rechenplattformen aufbauen. Diese "Lego-artige" Chip-Design-Methode kann nicht nur die physikalischen Grenzen des traditionellen Moore-Gesetzes überwinden, sondern auch mehr Flexibilität für kundenspezifische Chips bieten.

Das Design der nächsten Generation von Datencentren: Maximale Effizienz

Gleichstromversorgung: Mit dem sprunghaften Anstieg des Rechenleistungsbedarfs durch KI-Workloads steigt auch die Leistungsdichte der Datencentren rapide, was die traditionelle Wechselstrom (AC)-Versorgung vor enorme Herausforderungen stellt. Der Leistungsbedarf moderner KI-Racks ist von historischen 20 Kilowatt auf 36 Kilowatt im Jahr 2023 gestiegen und wird bis 2027 auf 50 Kilowatt geschätzt. Nvidia hat sogar einen Rack-Architektur von 600 Kilowatt vorgeschlagen, was die Energieverluste durch die mehrfache AC-DC-Umwandlung inakzeptabel macht.

Deshalb wenden sich die Datencentren zunehmend der Gleichstrom (DC)-Versorgung zu, einer neuen Paradigma zur Steigerung der Energieeffizienz. Die DC-Versorgung kann die überflüssigen AC-DC-Umwandlungsschritte eliminieren, wodurch die Energieverluste verringert und die Gesamtenergieeffizienz verbessert werden. Selbst eine kleine Effizienzsteigerung in einem 600-Kilowatt-KI-Rack kann in enorme Energieeinsparungen umgesetzt werden. Beispielsweise würde die Bereitstellung von 600 Kilowatt Leistung mit einer Spannung von 48 V einen Strom von bis zu 12.500 Ampere erfordern, was in einer traditionellen Architektur schwierig zu realisieren ist.

In diesem Zusammenhang werden breitbandige Halbleitermaterialien wie Galliumnitrid (GaN) und Siliziumcarbid (SiC) von entscheidender Bedeutung. Diese Materialien zeichnen sich durch eine ausgezeichnete Elektronenbeweglichkeit, eine höhere Durchbruchspannung und geringere Verluste aus, was sie zur idealen Wahl für Hochfrequenz- und Hochspannungs-Stromversorgungssysteme macht. Sie ermöglichen eine höhere Leistungsdichte, die Entwicklung kleinerer und leichterer Stromversorgungselektroniksysteme und reduzieren den Bedarf an Kühlung, was direkt die "Energiebarriere" der Datencentren angeht. Nvidia hat bereits die SiC- und GaN-Leistungstechnologie von STMicroelectronics in seinen Hochleistungsracks eingesetzt, um das Kabelvolumen zu reduzieren und die Effizienz zu verbessern.

Flüssigkeitskühlungstechnologie: Moderne Datencentren stehen vor immer schwierigeren Kühlungsh Herausforderungen. Die Kühlung ist der zweitgrößte Kapitalausgabebestandteil nach der Stromversorgungsinfrastruktur und die größte Nicht-IT-Betriebsausgabe. Mit dem explosionsartigen Wachstum der KI- und HPC-Workloads können die herkömmlichen Luftkühlsysteme die Anforderungen nicht mehr erfüllen, und die Flüssigkeitskühlungstechnologie wird zur unvermeidlichen Wahl.

Es wird geschätzt, dass der Markt für Flüssigkeitskühlung mit einer durchschnittlichen jährlichen Wachstumsrate von 14 % wachsen wird und bis 2029 über 61 Milliarden Dollar erreichen wird. Die Flüssigkeitskühlungstechnologie hat eine hervorragende Kühlleistung. Wasser und dielektrische Flüssigkeiten können pro Volumeneinheit tausende Male mehr Wärme aufnehmen als Luft, was eine kompaktere und effizientere Systemgestaltung ermöglicht. Die Flüssigkeitskühlung kann die Kühlenergieverbrauch um bis zu 90 % reduzieren, die Power Usage Effectiveness (PUE) nahe an 1 bringen (oder sogar auf 1,05 senken) und die physische Fläche der Datencentren um bis zu 60 % verringern, während gleichzeitig das Geräuschpegel gesenkt wird.

Hochleistungs-KI-Chips (einschließlich GPU und kundenspezifischer ASIC) treiben die Wärmemanagement an neue Grenzen. Es besteht ein dringender Bedarf an fortschrittlichen Kühlungslösungen. Beispielsweise ist das GB200 NVL72-System von Nvidia speziell für die Direkt-Chip-Flüssigkeitskühlung (DTC) konzipiert, und große hyperskalige Cloud-Dienstleister wie Google, Meta, Microsoft und AWS beschleunigen die Implementierung von DTC-Kühlsystemen.

Die Flüssigkeitskühlungstechnologie umfasst hauptsächlich die folgenden Typen:

Direkt-Chip-Flüssigkeitskühlung (DTC): Die Kühlflüssigkeit kommt über eine Kaltplatte direkt mit dem Chip in Kontakt und wird in Einphasen- und Zweiphasen-DTC unterteilt. Die Zweiphasen-DTC absorbiert durch die Phasenänderung der Kühlflüssigkeit (von flüssig zu gasförmig) eine große Menge an Wärme und ist effizienter.

Rack-Direct Heat Exchanger (RDHx): Eine einfache Methode zur Steigerung der Kühlleistung, die insbesondere für heiße Stellen in bestehenden Luftkühlumgebungen geeignet ist