Noch ein HBM-Killer wird aufgedeckt.
In den letzten Jahren ist HBM zu einem der am meisten beobachteten Schlüsselwörter in der Halbleiterindustrie geworden. Mit dem anhaltenden Boom der Anforderungen an AI-Großmodelle, Hochleistungsrechnungen und Rechenzentren wird HBM dank seiner Vorteile wie ultrahoher Bandbreite und geringem Stromverbrauch schnell zur unverzichtbaren Kerntechnologie für Hochleistungs-Rechenleistungschips und löst damit einen neuen Wettlauf in der Speicherindustrie aus.
Allerdings steht die Entwicklung von HBM auch vor beträchtlichen Herausforderungen. Sowohl die Prozesskomplexität, die Ausbeute und die Kostendrucke, die durch fortschrittliche Verkapselung entstehen, als auch Probleme wie Wärmeableitung, Stromverbrauch und Kapazitätsversorgung stellen die Kooperationsfähigkeit der gesamten Branchenkette auf die Probe. Angesichts der kontinuierlich steigenden Anforderungen an die AI-Rechenleistung hat derjenige, der diese Engpässe zuerst überwindet, die Chance, im nächsten Wettlaufschritt die Initiative zu ergreifen.
Da der Markt so riesig ist, hat HBM viele Herausforderer. Kürzlich haben Intel und SoftBank über seine Tochtergesellschaft Saimemory einen neuen Angriff auf HBM gestartet.
Kehrt Intel zurück?
Es ist eine bekannte Tatsache, dass Intel einst der Pionier und Leader in der DRAM-Branche war. Später gab es jedoch unter dem Druck japanischer Unternehmen die DRAM-Geschäftsabteilung auf und wandte sich dem CPU-Bereich zu, was zum heutigen Blue Giant führte. Jetzt scheint es, dass sie sich mit der Popularität der Künstlichen Intelligenz wieder aktivieren wollen. Laut Berichten hat die von ihnen beteiligte Saimemory ständig an einer Technologie gearbeitet, die das derzeit beliebte High-Bandwidth Memory (HBM) ersetzen soll, um höhere Bandbreite und Kapazität für die Speichermodule von leistungsstarken AI-Beschleunigern bereitzustellen.
SAIMEMORY ist eine Tochtergesellschaft, die SoftBank im Dezember 2024 gründete, um die Next-Generation-Speichertechnologie zu vermarkten. Durch diese Partnerschaft wird SAIMEMORY Intels technisches Know-how nutzen, um die Forschung und Entwicklung von Next-Generation-Speicherarchitekturen und Herstellungstechnologien voranzutreiben. Dies umfasst die Next-Generation-Speicher-Basistechnologien, die im Rahmen des Intels "Advanced Memory Technology (AMT)"-Programms (unterstützt vom US-Energieministerium) entwickelt wurden, sowie das technische Wissen, das durch das "Next-Generation DRAM Bonding (NGDB)"-Programm demonstriert wurde.
Intels Fachkenntnisse im DRAM-Bereich werden für die Entwicklung von ZAM eingesetzt. Ein Sprecher von SoftBank sagte jedoch, dass ZAM "ähnlich einem fortschrittlichen DRAM ist und eine völlig neue Technologie nutzen wird". Der Name ZAM stammt vom Konzept der "Z-Achse". Obwohl die technischen Details noch nicht veröffentlicht wurden, sagte der Sprecher: "Wir erwägen die Verwendung einer vertikalen Stapelstruktur."
Im Januar dieses Jahres sagte Joshua Fryman, der damalige Cheftechnologiewissenschaftler von Intels Government Technology: "Intels Next-Generation DRAM Bonding-Programm zeigt eine völlig neue Speicherarchitektur und eine revolutionäre Montagemethode auf, die die DRAM-Leistung erheblich verbessern, den Stromverbrauch senken und die Speicherkosten optimieren können. Die Standard-Speicherarchitektur kann die Anforderungen der Künstlichen Intelligenz nicht erfüllen. Daher definiert NGDB eine neue Methode, um uns in das nächste Jahrzehnt zu führen."
Heutzutage geben Systeme, die Hochleistungs-Speicher verwenden, oft die Leistung anderer Parameter (z. B. Kapazität) auf, um eine höhere Bandbreite zu erzielen. Die NGDB-Technologie beseitigt die meisten Kompromisse zwischen Hochleistungs-Speicher und Double-Data-Rate-DRAM und verbessert gleichzeitig die Energieeffizienz erheblich. Daher können mehr Arten von Anwendungen und Systemen die Vorteile von Hochleistungs-Speicher nutzen.
Im Rahmen dieses Programms wurden eine neue Stapelmethode und eine neue DRAM-Organisationsstruktur entwickelt. Das erste Prototypenmodell hat gezeigt, dass diese neue Montagemethode die Speicherkapazitätsbeschränkungen der bestehenden Technologien überwinden kann, während das neueste Prototypenmodell ein funktionierendes DRAM mit der neuen Stapelmethode demonstriert. Die Demonstration hat bestätigt, dass die NGDB-Technologie kombiniert werden kann, um einen Hochleistungs-Speicher herzustellen, der in großem Maßstab produziert werden kann.
Bei der VLSI-Konferenz, die im Juni 2026 stattfinden wird, plant Saimemory, einen Artikel über seinen neu entwickelten HB3DM-Speicher zu veröffentlichen.
Der Speicher basiert auf der Z-Angle Memory (ZAM)-Technologie. ZAM bezieht sich auf die vertikale (Z-Achse) Stapelung von Chips, ähnlich wie bei traditionellem HBM. Intel hat jedoch das Ziel, mit den neuesten Herstellungstechnologien eine hervorragende Leistung zu erzielen. Die erste Generation von HB3DM wird eine Neun-Schichten-Struktur haben und die Hybrid-Bonding-Technologie für die 3D-Chip-Anordnung verwenden. Die unterste Schicht ist eine Logikschicht, die die Datenübertragung innerhalb des Chips verwaltet, und die oberen acht Schichten sind DRAM-Schichten, die zur Datenspeicherung dienen. Jede Schicht enthält etwa 13.700 TSV (Through-Silicon-Vias) für das Hybrid-Bonding.
Was die Kapazität betrifft, kann HB3DM pro Schicht eine Kapazität von etwa 1,125 GB bieten, was einem Speichermodul von 10 GB entspricht. Intel kann pro Quadratmillimeter Chip eine Speicherbandbreite von etwa 0,25 Tb/s erzielen. Daher können wir für ein 10-GB-Modul mit einer Chipfläche von 171 Quadratmillimetern eine Bandbreite von etwa 5,3 TB/s pro Modul erwarten. Diese erstaunlichen Daten könnten schnell die Konkurrenz des HBM4-Speichers übertreffen, da HB3DM eine höhere Bandbreite bietet. Die Geschwindigkeit eines einzelnen Stapels von HBM4 beträgt etwa 2 TB/s, was weniger als die Hälfte von HB3DM ist.
Allerdings ist die Kapazität von HB3DM begrenzt und liegt derzeit nur bei 10 GB, während die Kapazität eines einzelnen Stapels von HBM4 bis zu 48 GB betragen kann. Mit der Weiterentwicklung der HB3DM-Technologie könnte Intel möglicherweise die Anzahl der Schichten in Serienchips erhöhen, aber derzeit ist es bereits der Leader im Bereich der Bandbreite.
Wir wissen derzeit nicht, wann Saimemory diese Speicherchips auf den Markt bringen wird, und auch nicht, wer die Produktion der unterliegenden DRAM-Chips übernehmen wird. Aufgrund der Beteiligung von Intel könnte Intels Fabrik möglicherweise wieder mit der Produktion von DRAM beginnen, obwohl der genaue Prozessknoten derzeit noch unklar ist.
Mit der Annäherung der VLSI-Konferenz im Jahr 2026 erwarten wir, dass Intel und SoftBank mehr Informationen über ihre Tochtergesellschaft Saimemory und deren Fortschritte veröffentlichen werden. Saimemory plant, Anfang 2028 das Prototypenprodukt fertigzustellen und 2029 ein kommerzielles Produkt auf den Markt zu bringen.
Der echte 3D-DRAM tritt in Aktion
Wer mit HBM vertraut ist, weiß, dass dieser Hochleistungs-Speicher durch eine Stapelung realisiert wird, was ähnlich wie 3D-DRAM aussieht.
Tatsächlich sind HBM und 3D-DRAM zwar beide mit "3D-Stapelung" verbunden, aber sie sind nicht dasselbe Konzept. HBM ist im Wesentlichen ein Hochleistungs-Speicherprodukt für Szenarien wie AI und Hochleistungsrechnungen, das durch die Stapelung mehrerer DRAM-Schichten, TSV und fortschrittliche Verkapselungstechnologien die Datenbandbreite und Energieeffizienz erheblich verbessert. 3D-DRAM hingegen ist eher eine unterliegende Technologierichtung für die nächste Generation von DRAM, deren Ziel ist, die Beschränkungen der traditionellen zweidimensionalen Skalierung zu überwinden und die Speicherdichte durch eine vertikale Struktur zu erhöhen, um das Moore'sche Gesetz fortzusetzen.
Daher untersucht die Branche die Möglichkeit, 3D-DRAM als Ersatz für HBM zu verwenden, und NEO Semiconductor ist einer der Pioniere in diesem Bereich.
Am 23. April hat NEO Semiconductor angekündigt, dass seine 3D X-DRAM-Technologie erfolgreich den Proof-of-Concept (POC) bestanden hat, was beweist, dass mit der bestehenden 3D-NAND-Infrastruktur ein neuer Hochdichte-DRAM hergestellt werden kann.
Das Herzstück dieser Veröffentlichung ist die 3D X-DRAM-Technologie des Unternehmens, ein neuer DRAM, der darauf abzielt, die Beschränkungen der traditionellen Speicherexpansion zu überwinden, indem er eine vertikale Stapelarchitektur verwendet, um eine höhere Dichte, einen geringeren Stromverbrauch und eine bessere Eignung für AI-gesteuerte Workloads zu erzielen.
Die 3D X-DRAM-Architektur von NEO bezieht sich stark auf die 3D-NAND-Herstellungstechnologie. Laut dem Unternehmen wurde der Proof-of-Concept-Chip mit einem etablierten 3D-NAND-Prozess hergestellt, einschließlich bestehender Geräte und Materialien. Dies ist wichtig, da einer der Haupthemmnisse bei der Entwicklung von fortschrittlichen Speichern nicht die Designinnovation, sondern die Herstellungskosten und die Prozesskompatibilität sind.
Der POC-Testchip hat gezeigt, dass 3D X-DRAM mit der bestehenden 3D-NAND-Infrastruktur hergestellt werden kann, einschließlich etablierter Geräte, Materialien und kostengünstiger Prozesse. Angesichts der Tatsache, dass die Anzahl der Serienproduktionsschichten von 3D-NAND derzeit über 300 liegt, ebnen diese Ergebnisse den Weg für die nächste Generation von Hochdichte-3D-DRAM und bestätigen gleichzeitig die hervorragenden elektrischen Eigenschaften und Zuverlässigkeit. Die Hauptergebnisse des POC-Tests umfassen: Lese-/Schreibverzögerung: < 10 Nanosekunden; Datenhaltezeit: > 1 Sekunde bei 85 °C (15-mal besser als der JEDEC-Standard von 64 Millisekunden); Bitline-Interferenz: Dauer > 1 Sekunde bei 85 °C; Wortline-Interferenz: > 1 Sekunde bei 85 °C; Haltbarkeit: > 10¹⁴ Zyklen.
Der Grund für diese Errungenschaften liegt hauptsächlich in einem Design auf der Grundlage von Indium-Gallium-Zink-Oxid (IGZO) – einem kristallinen Material, das für seine Anwendung in der Displaytechnologie bekannt ist. 1T1C- und 3T0C-Speicherzellen können wie 3D-NAND in einer Stapelstruktur angeordnet werden, wodurch die Kapazität und der Durchsatz erhöht werden, während der Energieverbrauch gesenkt wird.
Jeongdong Choe, Senior Technologieforscher und Senior Vice President bei TechInsights, sagte: "In diesem kritischen Moment hat NEO Semiconductor einen großen Durchbruch erzielt." Da die Miniaturisierungstechnologie von traditionellem DRAM an ihre Grenzen stößt, wendet sich die Branche zunehmend an 3D-Architekturen und neue Zelltechnologien, um die wachsenden Anforderungen der Künstlichen Intelligenz und von Rechenzentren zu erfüllen. NEOs Silizium-basierter POC (Proof-of-Concept) stellt einen wichtigen Meilenstein dar, der die praktische Machbarkeit dieser Technologie über die theoretische Konzeption hinaus beweist. Die veröffentlichten Ergebnisse der elektrischen Eigenschaften und der Zuverlässigkeitstests sind ermutigend, und dieser Fortschritt passt in die Branchenroute zur vertikalen Expansion von Speichern. Genau wie in den letzten zehn Jahren der Übergang zu 3D-NAND, erleben wir jetzt die Ankunft einer neuen Ära von 3D-DRAM, die die traditionellen Miniaturisierungsgrenzen überwindet. Es ist wirklich aufregend, diese Vision werden zu sehen."
HBF hat sich etabliert
Abgesehen von den oben genannten Technologien ist HBF, das einen Vorsprung hat, schon lange einer der Kandidaten für die Ersetzung von HBM.
Wir müssen jedoch betonen, dass HBF nicht darauf abzielt, HBM vollständig zu ersetzen, sondern als Ergänzung dient, um eine effizientere Speicherhierarchie zu bilden. Bei AI-Inferenzaufgaben kann HBM zur Verarbeitung von latenzempfindlichen heißen Daten verwendet werden, während HBF für die Speicherung und das Lesen von großen Mengen an nichtflüchtigen Datensätzen geeignet ist. Da der Preis von NAND niedriger ist als der von DRAM, kann HBF die Skalierungskosten von AI-Systemen erheblich senken, insbesondere in Szenarien mit Supergroßmodellen und Edge Computing.
HBF ist ein Next-Generation-Flash-Speicherkonzept, das SanDisk im Februar 2025 eingeführt hat. Seine Kernarchitektur ähnelt der von HBM. HBM, als die Kerntechnologie für die AI-Rechenleistung, hat in letzter Zeit ein rasches Wachstum erzielt, indem es die DRAM-Schichten stapelt, um eine deutlich höhere Geschwindigkeit (Bandbreite) und Leistung zu erreichen. HBF hingegen erhöht nicht nur die Bandbreite, sondern auch die Kapazität, indem es NAND-Flash-Speicher schichtet. Während HBM ein auf Geschwindigkeit optimierter Speicher ist – für die Echtzeitberechnung in der AI-Trainings – maximiert HBF die Kapazität. Im Gegensatz zu DRAM kann NAND Daten auch ohne Stromversorgung behalten (nichtflüchtig), weshalb es als neue Speicherlösung für die AI viel Aufmerksamkeit erhält.
Da das grundlegende Organisationsprinzip von HBF auf der Hochleistungs-Ch