StartseiteArtikel

Ein weiteres HBM erschaffen

半导体行业观察2025-11-06 11:17
In den letzten zwei Monaten erlebt der Speichermarkt ein seltenes Ungleichgewicht zwischen Angebot und Nachfrage.

In den letzten zwei Monaten erlebt der Speichermarkt eine beispiellose Ungleichgewichtung zwischen Angebot und Nachfrage.

Mit der kontinuierlichen Ausweitung der Kapitalausgaben der Cloudriesen und der weiteren Druckausübung der Künstlichen Intelligenz auf das Angebot hat sich das Problem des Speichermangels immer verschärft. Samsung hat im Oktober erstmals die Preisvereinbarung für DDR5 DRAM-Verträge eingestellt, was schließlich zu einem wilden Anstieg der Speichermedienpreise führte.

Was noch bemerkenswerter ist, spielt der NAND-Flash auch in dieser Preiserhöhungswelle eine wichtige Rolle. Der Bericht zeigt, dass sich seit September der Preis für 512Gb TLC-Wafer stetig erhöht hat und Ende Oktober bereits 5 US-Dollar erreicht hat. Der Preis für 1Tb TLC/QLC-Wafer liegt im Bereich zwischen 6,5 und 7,2 US-Dollar. Der NAND, der traditionell als preiswerter Massenspeicher angesehen wird, erlebt seinen Höhepunkt.

Das Herzstück der Preiserhöhung des NAND-Flash liegt neben dem knappenden Lagerbestand auch in einem neuen Technologiekonzept - dem High-Bandwidth Flash (HBF). Wenn das HBM den DRAM von einem Nebenrolleninhaber zum Kernasset der KI-Zeit gemacht hat, könnte der HBF möglicherweise auch für den NAND-Flash einen ähnlichen "Götterweg" eröffnen.

HBF: Vom Konzept zum Branchenkonsens

Im ersten Halbjahr dieses Jahres stellte SanDisk auf der Investorentagung das Konzept des High-Bandwidth Flash vor, eine NAND-Version der High-Bandwidth-Speichertechnologie. Indem 16 NAND-Schichten über eine Logikschaltung mit einem Zwischenträger verbunden werden und dann auf multi-kanalige Weise mit hoher Bandbreite an eine GPU oder andere Prozessoren angeschlossen werden.

Die Entstehung dieses Technologiewegs war keine Zufälligkeit. Derzeit entwickeln sich die KI-Modelle in Richtung Multimodalität und langer Kontext - die visuelle Verständnisfähigkeit von GPT-4V, der 100K-Token-Kontext von Claude und die Multimodalität von Gemini. Diese Anwendungen müssen riesige Zwischenzustandsdaten im Speicher verwalten. Der traditionelle DRAM ist zwar schnell, aber die Kapazitätserweiterung ist sehr kostspielig; der NAND-Flash hat zwar eine große Kapazität, aber die Zugriffsgeschwindigkeit ist relativ langsam. Der HBF versucht, durch Architekturinnovation die optimale Lösung zwischen beiden zu finden.

Konkret baut der HBF auf SanDisks bewährter CBA (CMOS Direct Bonded Array)-Technologie auf, um die Kernarchitektur zu bilden: Die Logikschaltung wird mit der 3D-NAND-Stackschicht verbunden, wobei die Logikschaltung die Verbindung zwischen NAND und Zwischenträger übernimmt, und die 3D-NAND-Stackschicht wird durch einen 16-Schicht-Kernchips-Stack ersetzt. Die Schichten werden über Siliziumdurchkontaktierungen (TSV) ähnlich wie beim HBM (High-Bandwidth Memory) miteinander verbunden. Diese Konstruktion erreicht ein feines Gleichgewicht zwischen Leistung und Kosten - Ilkbahar betonte, dass der HBF "die Bandbreite des HBM-Speichers erreichen kann und gleichzeitig bei ähnlichen Kosten eine 8- bis 16-fache Speicherkapazität bietet". Dieser Vorteil gibt ihm eine natürliche Wettbewerbsfähigkeit in der Speicherung von Großmodellen.

Im Februar, als SanDisk das HBF-Konzept veröffentlichte, befand sich der NAND-Markt noch in Schwierigkeiten. Daher hat es sofort die Aufmerksamkeit vieler Branchenunternehmen auf sich gezogen, und alle Unternehmen begannen, sich in diese Technologie zu investieren.

Heute hat die HBF-Ökosystem bereits erste Anzeichen einer Gestalt.

Mehrere Anbieter kämpfen um die Spitze: Die Technologiewege der vier Lager

SK Hynix: Der Pionier der Ökosystemallianz

SK Hynix hat auf der OCP Global Summit 2025 eine AI-Produktstrategie, die auch den HBF umfasst, vorgestellt und das Produktportfolio "AIN Family" aufgebaut. Dabei ist AIN B das Produkt, das die HBF-Technologie nutzt. Kernstück ist die Kombination von hochkapazitivem und kostengünstigem NAND mit der HBM-Stackarchitektur.

SK Hynix sagte: "Mit dem raschen Wachstum des AI-Inferenzmarktes steigt die Nachfrage nach NAND-Speicherprodukten, die riesige Datenmengen schnell und effizient verarbeiten können, drastisch. Deshalb haben wir das Produktportfolio 'AIN (AI-NAND) Family' aufgebaut, um die Bedürfnisse der Kunden mit der besten Lösung für die AI-Zeit zu befriedigen."

Im Fachvortrag für Führungskräfte stellte Kim Cheonseong, stellvertretender Leiter der eSSD-Produktentwicklung bei SK Hynix, die AIN-Produktreihe vor.

Es ist bekannt, dass die AIN-Reihe in drei Dimensionen - Leistung (Performance), Bandbreite (Bandwidth) und Kapazität (Density) - optimiert wird, um sowohl die Datenverarbeitungsgeschwindigkeit als auch die Speicherkapazität zu verbessern.

AIN P (Performance) ist eine Lösung, die in einem großen AI-Inferenzumfeld die Schreib- und Leseoperationen von riesigen Datenmengen effizient verarbeiten kann. Durch die Minimierung der Engpässe zwischen AI-Berechnung und Speicher wird die Verarbeitungsgeschwindigkeit und die Energieeffizienz erheblich verbessert. Das Unternehmen entwickelt derzeit eine neue Architektur für NAND und Controller und plant, bis Ende 2026 Musterprodukte vorzulegen.

AIN D (Density) ist eine hochdichte Lösung, die darauf abzielt, große Datenmengen mit geringem Stromverbrauch und geringen Kosten zu speichern und für die AI-Datenspeicherung geeignet ist. Das Produkt soll die TB-Skalen-SSD-Kapazität auf der Grundlage von QLC auf PB-Skalen erhöhen und gleichzeitig die Geschwindigkeit einer SSD und die Kosteneffizienz einer HDD vereinigen. Es ist als Mittelstufenspeicher konzipiert.

AIN B (Bandwidth) ist eine Lösung, die die Bandbreite durch vertikales Stapeln von NAND erweitert. Dies ist genau der Name des Produkts, das die "HBF"-Technologie nutzt.

Der Grund für die Initiierung der AIN B-Forschung bei SK Hynix war die Lösung des Problems des mangelnden Speicherkapazitäts. Der Kern besteht in der Kombination von hochkapazitivem und kostengünstigem NAND mit der HBM-Stackarchitektur. Das Unternehmen untersucht die gemeinsame Implementierung von AIN B und HBM, um verschiedene Anwendungsfälle wie die Ergänzung der fehlenden Kapazität zu behandeln.

Um die Entwicklung des AIN B-Ökosystems voranzutreiben, hat SK Hynix im Tech Interactive in der Nähe des OCP Summit-Veranstaltungsorts die "HBF Night" veranstaltet und Vertreter vieler großer globaler Technologieunternehmen eingeladen. An diesem Tag fand eine Runde Tische Diskussion mit einem Expertenkreis aus Professoren aus dem In- und Ausland statt, die von mehreren Dutzend führenden Architekten und Technologieexperten der Branche besucht wurde. Auf der Sitzung schlug SK Hynix vor, dass die Branche zusammenarbeiten sollte, um die Innovation der NAND-Speicherprodukte zu beschleunigen.

Ahn Hyun, Generaldirektor der Entwicklung bei SK Hynix, sagte: "Durch die OCP Global Summit und die HBF Night haben wir die gegenwärtige Situation und die Zukunft von SK Hynix als 'globaler Anbieter von AI-Speicherlösungen' auf dem sich schnell wandelnden, AI-zentrierten Markt gezeigt. In Zukunft werden wir weiterhin mit unseren Kunden und verschiedenen Partnern im Bereich des nächsten Generation NAND-Speichers zusammenarbeiten und uns bemühen, ein Kernspieler auf dem AI-Speichermarkt zu werden."

Laut Branchenmitteilungen hat SK Hynix die ersten Geräte in die Fabrik M15X in Cheongju transportiert. Diese Fabrik wird sich auf die Massenproduktion von HBM-Produkten der nächsten Generation konzentrieren und ist die erste der drei Speicherfabriken, die die Massenproduktion der sechsten Generation HBM4 vorbereitet hat. Die Ausweitung der HBM-Kapazität legt die Grundlage für die zukünftige Implementierung des HBF - der HBF kann an der Stelle des LPDDR im Basis-Chip des HBM platziert werden, um die Kapazitätsbeschränkung des HBM zu ergänzen und es den großen AI-Modellen zu ermöglichen, direkt auf der GPU gespeichert zu werden.

Für SK Hynix, das bereits viele Ökosystempartner als HBM-Riese angesammelt hat, ist es einfacher, den HBF voranzutreiben. Die vorherige Schwäche auf dem NAND-Markt hat seine Entschlossenheit, sich in diesen Markt zu investieren, nur noch stärker gemacht.

Mit seiner vorhandenen HBM-Technologie scheint SK Hynix der erste NAND-Hersteller zu sein, der den HBF in Massenproduktion bringen kann.

SanDisk: Der radikale Technologiestreber

Im August dieses Jahres hat SanDisk seinen Plan zur Weiterentwicklung des HBF angekündigt. Es wird im zweiten Halbjahr nächsten Jahres HBF-Musterprodukte an die Kunden liefern und Anfang 2027 fertige Produkte für die Inferenz-AI anbieten. Dieser radikale Zeitplan zeigt seine starke Zuversicht in die technologische Zukunft.

Zunächst hatten die SanDisk-Engineer vorgeschlagen, NAND und DRAM in der HBF-Packung zu integrieren, um die DRAM-Cache für die häufig zu aktualisierenden Schlüsseldaten (wie die Key-Value-Caches in der AI-Inferenz) zu nutzen. Aber die "Multi-Head Latent Attention"-Technologie, die von Forschern der DeepSeek AI vorgeschlagen wurde, hat diesen Gedanken geändert - diese Technologie kann die KV-Caches in latente Vektoren komprimieren und so eine 93 %ige Reduzierung der Cachekapazität erreichen. Dieser Durchbruch ermöglicht es dem HBF, riesige Modelle ohne DRAM zu tragen: Der HBF-Speicher auf einer einzelnen GPU kann eine Kapazität von 4 TB erreichen (bestehend aus 8 HBF-Chips mit 512 GB), was ausreicht, um das 16-Bit-Gewicht des GPT-4-Modells (1,8 Billionen Parameter, 3,6 TB Speicher erforderlich) aufzunehmen und so die Effizienzverluste bei der "Modell-Daten-Scheduling zwischen verschiedenen Geräten" in der traditionellen Situation zu vermeiden.

Der größere Wert des HBF liegt in der Möglichkeit, die Edge-Bereitstellung von Mixture-of-Experts-Modellen (MOE) und Multimodal-Großmodellen zu ermöglichen. SanDisk erklärt, dass das MOE-Modell ein riesiges Modell in mehrere "Experten-Untermodelle", die sich auf verschiedene Aufgaben spezialisiert haben, aufteilt. Nur einige der Experten werden aktiviert, wenn Tokens generiert werden, was die Rechenanforderungen erheblich reduziert, aber die Anforderungen an die Speicherkapazität steigen. Die nächste Generation von Multimodal-Modellen, die Text, Audio und Video integrieren, sind ebenfalls typische "speicherbeschränkte Anwendungen", und dies sind genau die Kernanwendungsfälle für den HBF.

Nehmen wir das Smartphone als Beispiel. Der entscheidende Engpass für die schwache Edge-AI-Erfahrung liegt derzeit in den Speicher-, Stromverbrauchs- und Platzbeschränkungen des Geräts - selbst wenn das Modell auf einige Milliarden Parameter reduziert wird, kann die Leistung nicht die Erwartungen der Benutzer erfüllen. Der HBF löst dieses Problem durch Architekturinnovation: Ein einzelner 512-GB-HBF-Chip kann ein MOE-Modell mit 64 Milliarden Parametern (vergleichbar mit der Leistung von Llama 3.1 und DeepSeek 70B) tragen und kann in 8 Mini-Arrays von 64 GB aufgeteilt werden, um jedem der 8 Experten-Untermodelle des MOE eine eigene Speicher- und Datenleitung zu bieten und so eine "präzise Aktivierung und effiziente Reaktion" bei der Edge-AI-Erfahrung zu ermöglichen. SanDisk beschreibt es als "die Möglichkeit, das Unmögliche möglich zu machen und die Edge-Geräte wirklich mit einer hervorragenden AI-Erfahrung auszustatten".

Es ist bemerkenswert, dass Ilkbahar, der Leiter von SanDisks HBF-Projekt, zuvor als Vizepräsident und Generalmanager der Optane-Abteilung von Intel tätig war. Obwohl die Optane-Technologie revolutionär war, konnte sie letztendlich nicht erfolgreich kommerzialisiert werden. Einer der Gründe für das Scheitern war die zu proprietäre Strategie - sie war nur für Intel und seinen Herstellungspartner Micron zugänglich.

Diese Erfahrung hat offensichtlich SanDisks HBF-Strategie beeinflusst. Ilkbahar betonte: "Wir bringen die SanDisk-Marke zurück. Wir sind sehr aufgeregt und können es kaum erwarten, die Speicherbranche zu revolutionieren." Diesmal hat SanDisk jedoch einen völlig anderen Weg gewählt - die Zusammenarbeit mit SK Hynix zur Förderung der Standardisierung.

Im August 2025 haben SK Hynix und SanDisk ein Memorandum of Understanding zur Standardisierung des HBF unterzeichnet. Diese offene Ökosystemstrategie sucht tatsächlich ein Gleichgewicht zwischen technologischer Radikalität und Ökosystem-Öffnung - es muss sowohl die technologische Spitzenstellung aufrechterhalten als auch der Fehler von Optane vermieden werden, das alleine stand.

Kioxia: Der pragmatische Forscher auf mehreren Wegen

Im Gegensatz zu den anderen beiden Unternehmen zeigt Kioxia auf dem HBF-Sektor einen pragmatischeren und vielfältigeren Ansatz bei der Technologieentwicklung. Als NAND-Herstellungs-Joint-Venture-Partner von SanDisk entwickelt Kioxia sowohl eigenständige, differenzierte Technologielösungen als auch kann es die technologischen Erfahrungen des Partners nutzen. Diese "Mehrwege-Strategie" gibt ihm eine einzigartige Position in diesem technologischen Wettlauf.

Im August 2025 hat Kioxia ein Prototyp eines Hochgeschwindigkeits-Flash-Laufwerks für Edge-Server vorgestellt, dessen technologische Architektur im krassen Gegensatz zu der gängigen vertikalen Stapelschichtlösung steht. Dieser Prototyp nutzt seriell verbundene Flash-"Perlen" (beads) und den PCIe 6-Bus, um eine Kapazität von 5 TB und eine Datenrate von 64 GBps zu erreichen.

Kioxias Innovation besteht darin, die Daisychain-Verbindung anstelle der traditionellen Bus-Verbindung zu nutzen. Die Flash-Perlen und der Controller sind in Daisychain-Anordnung auf jeder Speicherplatine angeschlossen, anstatt über einen Bus. Kioxia betont: "Selbst wenn die Anzahl der Flash-Speicher (Perlen) erhöht wird, sinkt die Bandbreite nicht." Diese Eigenschaft löst das Problem des Bandbreitenengpasses in der traditionellen Architektur, das mit der Zunahme der Speichereinheiten auftritt.

Es ist bekannt, dass Kioxias HBF-Prototyp über denselben PCIe Gen 6-Bus (aber mit 8 Kanälen) eine Geschwindigkeit von bis zu 64 GBps aus einer 5-TB-Kapazität liefert. Der Gesamtdurchsatz ist etwa 2,3-mal höher als der von Microns 9650 Pro und etwa 14 % höher pro Kanal (8 GBps gegenüber 7 GBps).

Darüber hinaus hat Kioxia durch die Anwendung von Niederamplitudensignalen und Verzerrungskorrektur-/Unterdrückungstechniken an der Schnittstelle eine Bandbreite von 4 Gbps zwischen den Speicherperlen und dem Controller erreicht. Während des sequentiellen Datenzugriffs verkürzt die Vorabholtechnik des Controllers die Lese-Latenz.

Laut einer Meldung der japanischen Zeitung "Nikkei" hat Koichi Fukuda, der Leiter der SSD-Anwendungstechnologieabteilung von Kioxia, auf einer Technologiepräsentation für den AI-Markt enthüllt, dass Kioxia auf Anfrage von Nvidia ein SSD mit 100 Millionen IOPS entwickelt und voraussichtlich 2027 vorstellen wird.

Fukuda sagte: "Wir werden die Entwicklung gemäß den Vorschlägen und Anforderungen von Nvidia vorantreiben." Dieses AI-SSD wird den PCIe 7.0-Standard unterstützen. Zwei SSDs werden direkt an eine Nvidia-GPU angeschlossen und können insgesamt eine Leistung von 200 Millionen IOPS liefern, um teilweise das HBM für generative AI-Workloads zu