Brillant! Ein so aufregendes AI-Chip-Ereignis! In der Ära der Großen Modelle erblühen die Hoffnungen auf die nationale Produktion.
Xindongxi berichtete am 17. September, dass heute der globale AI-Chip-Summit 2025 in Shanghai stattfand. 42 Experten aus der Industrie, der Forschung und der Lehre sowie Vertreter von Startup-Pionieren aus dem Bereich der AI-Chips diskutierten über die neuesten Beobachtungen und Überlegungen zur Innovation, Implementierung, Existenz und Lösung von Problemen chinesischer AI-Chips in der zweiten Hälfte der großen Modelle.
Wie immer versammelte die Konferenz die neuen und alten Kräfte der chinesischen AI-Chip-Industrie, die Kernunternehmen der Ökosystemkette und die Vertreter von Investmentinstitutionen an einem Ort, um technische und industrielle Informationen zu liefern und die beliebten Entwicklungrichtungen der AI-Chips umfassend zu analysieren.
Dieser Summit wurde gemeinsam von Zhixingxing, einer Tochtergesellschaft von Zhiyi Technology, und Xindongxi organisiert. Das Thema lautet „Große Infrastruktur für Künstliche Intelligenz, Neue Welt der Intelligenten Chips“. Er besteht aus einem Hauptforum + Fachforen + technischen Seminaren + einer Ausstellungszone und deckt AI-Chips für große Modelle, Architektursinnovation, Speicher- und Rechenintegration, Technologien für Superknoten und intelligente Rechencluster und andere führende Themen ab. AWE ist auch das strategische Partnerschaftsunternehmen für diesen Summit.
Es ist erwähnenswert, dass mehrere AI-Chip-Unternehmen auf der Konferenz sensationelle Neuigkeiten preisgaben. Beispielsweise teilten mehrere erfahrene Anleger die Kriterien mit, die sie bei der Investition in AI-Chip-Unternehmen berücksichtigen. Ein Startup im Bereich der Superknoten hat innerhalb weniger Monate sechs- bis siebenhundert Millionen Yuan an Kapital beschafft. Yuntianlufei entwickelt derzeit einen neuen NPU, den Nova500. Huawei Ascend wird CANN vollständig im Dezember quelloffen machen. Das nächste Chipmodell von Sunrise soll in Bezug auf die Kosten-Leistungs-Relation bei der Inferenz von großen Modellen mit der NVIDIA Rubin GPU konkurrieren.
In der Ausstellungszone stellten 11 Aussteller wie Chaomo Technology, Kuixin Technology, Teledyne LeCroy, Alphawave, Xinklai Technology, Achronix, Sunrise, Jueliang Unlimited, AWE, Andes Technology und Xinmeng Technology ihre Produkte vor.
▲ Ein Eck der Ausstellungszone
Als Vertreter des Veranstalters hielt Gong Lunchang, Mitbegründer und CEO von Zhiyi Technology, eine Ansprache. Seit März 2018 hat der globale AI-Chip-Summit insgesamt über 180 Prominenten aus der Industrie, der Forschung und der Lehre eingeladen, um über die Branchentrends und Erkenntnisse zu berichten. Er ist inzwischen der einzige kontinuierlich stattfindende und weitreichend einflussreiche Branchensummit im Bereich der AI-Chips und ein wichtiges Fenster, um die neuesten Entwicklungen bei chinesischen und ausländischen AI-Chips zu verfolgen.
▲ Gong Lunchang, Mitbegründer und CEO von Zhiyi Technology
Gong Lunchang kündigte auch den chinesischen Konferenz für Embodied Intelligence Roboter 2025 an, der Ende November in Shenzhen stattfinden wird. Er lud alle herzlich ein, an der Konferenz teilzunehmen und sich auszutauschen.
Hinweis: Dieser Artikel fasst die Highlights des Hauptforums und des Fachforums für AI-Chips für große Modelle zusammen. Weitere relevante Berichte werden später veröffentlicht.
I. Professor Wang Zhongfeng, IEEE Fellow: Interpretation der drei führenden Richtungen der AI-Chips
Um den drei Herausforderungen wie das „übermolekulare“ Wachstum der Modellgröße, die „Speicherwand“ der traditionellen Architektur und die zunehmende Diversifizierung der Anwendungsfälle zu begegnen, hat Professor Wang Zhongfeng, Direktor der Fakultät für Integrierte Schaltungen der Sun Yat-sen-Universität und IEEE/AAIA Fellow, drei führende Richtungen in der AI-Chip-Entwicklung untersucht und wertvolle Einblicke und Anleitungen für die Branchenentwicklung gegeben.
Erstens die modellgetriebene effiziente Chip-Entwicklung. Angesichts der wachsenden Modellgröße sollte die Hardware eng an die Eigenschaften der AI-Modelle angepasst werden, anstatt dass die Entwicklung der Modelle durch die Hardware-Ressourcen eingeschränkt wird.
Die von Professor Wang Zhongfengs Team vorgeschlagene Arbeit zur Entwurf der Hardware-Beschleunigungsarchitektur für Transformer war das erste umfassende Lösungskonzept, das die Herausforderungen bei der Beschleunigung der Attention-Berechnung löst, und erhielt den Besten-Paper-Preis der IEEE 2020 System-on-Chip Conference (SOCC). Das N:M-Sparse Transformer Inference Acceleration Framework kann die Entwicklung und die Hardware-Deployment von Transformer-Modellen mit beliebigen N:M-Sparsitätsverhältnissen schnell realisieren und gleichzeitig die Genauigkeit stabil halten. Die Grob- und Fein-Granularität gemischte Präzisionsquantisierung in Verbindung mit einem speziellen Mehrkern-Beschleuniger zur Verarbeitung unterschiedlicher Berechnungen ermöglicht eine flexiblere Planung.
Zweitens die anwendungsgetriebene Innovation der AI-Chips, die auf die Implementierung und Anwendung der Modelle abzielt und die Erforschung von Energieeffizienz und Flexibilität berücksichtigt.
Es gibt keine einzige Lösung für die Architektursinnovation, sondern nur passendere Lösungen. Die AI-Chip-Entwicklung, die auf die Anwendungsanforderungen ausgerichtet ist und auf innovativen Technologien wie rekonfigurierbaren Hardwarearchitekturen (dynamische Anpassung an unterschiedliche Algorithmenanforderungen), domänenspezifischen Architekturen (Erzielung einer höheren Energieeffizienz in vertikalen Szenarien als bei allgemeinen Architekturen) und Chiplet-Technologien (Verbesserung der Entwurfsflexibilität, Reduzierung der Kosten und Verkürzung der Markteinführungszeit) basiert, wird in Zukunft ein wichtiges Forschungsgebiet sein.
Drittens die Chip-Entwicklung auf der Grundlage der Speicher- und Rechenintegration, die die Energieeffizienz verbessert und das Gleichgewicht zwischen Leistung und Stromverbrauch herstellt.
Die Speicher- und Rechenintegration ist eine wichtige Richtung in der Umstellung des Chip-Entwurfsparadigmas. Die digitalen Speicher- und Rechenarchitekturen zeichnen sich durch hohe Präzision, hohe Stabilität und ein reifes Ökosystem aus, haben aber Probleme wie hohen Energieverbrauch, hohen Hardwareaufwand und geringe Speicherdichte. Die analogen Speicher- und Rechenarchitekturen haben hingegen Vorteile wie geringen Energieverbrauch, hohe Speicherdichte und geringen Hardwareaufwand, leiden aber unter geringer Präzision, hohen Prozessanforderungen und einem unreifen Ökosystem. Der von Professor Wang Zhongfengs Team entwickelte Großmodell-Beschleuniger auf der Grundlage einer digitalen Speicher- und Rechenarchitektur mit SRAM unterstützt verschiedene Datenpräzisionen und kann im Vergleich zur traditionellen von-Neumann-Architektur die Energieeffizienz um ein Vielfaches verbessern.
Diese drei Wege stehen nicht isoliert voneinander, sondern unterstützen sich gegenseitig und treiben die Entwicklung der AI-Chips von der „allgemeinen Anpassung“ zur „präzisen Anpassung“ voran.
▲ Professor Wang Zhongfeng, Direktor der Fakultät für Integrierte Schaltungen der Sun Yat-sen-Universität und IEEE/AAIA Fellow
Professor Wang Zhongfeng fasste zusammen, dass die Entwicklung der AI-Chips derzeit drei Schlüsseltrends aufweist: Erstens die „Spezialisierung“ von der allgemeinen Rechenleistung hin zu domänenspezifischen Anwendungen, zweitens die „Kollaboration“ durch die gemeinsame Entwicklung von Algorithmen, Software und Hardware und drittens die „Integration“ durch die Überwindung der Leistungsschranken mit neuen Rechenkonzepten.
Am Beispiel der speziellen Architektur SRDA (System-Level Minimal Reconfigurable Dataflow Architecture) für AI-Rechenleistung kann durch Innovationen wie die verteilte 3D-Speichersteuerungstechnologie, die rekonfigurierbare Datenflussrechenarchitektur und das systemnahe vereinfachte Software-Hardware-Integrationsdesign die Effizienz und Leistung der AI-Rechenleistung in Szenarien für die intelligente Verarbeitung von Großmodellen erheblich verbessert werden. Dies ermöglicht es, dass zukünftige AI-Rechenleistungschips auf der Grundlage chinesischer Fertigungsprozesse eine Leistung erreichen können, die der von ausländischen GPGPUs mit fortschrittlicheren Fertigungsprozessen ebenbürtig ist.
Die Entwicklung des nächsten Rechenparadigmas erfordert zunächst die Koexistenz von Software, Algorithmen und Hardware und die gemeinsame Entwicklung aller Schritte. Zweitens muss es möglich sein, intelligente Rechenleistung überall, effizient und vertrauenswürdig bereitzustellen, indem Supercomputer-Systeme für die AGI-Training in der Cloud, Echtzeit-Entscheidungs-Hirne für autonome Roboter an den Rändern und immer-eingeschaltete Sensorchips mit extrem niedrigem Stromverbrauch an den Endgeräten realisiert werden.
Darüber hinaus ist es zur effizienten Unterstützung der intelligenten Rechenleistung erforderlich, die Integration neuer Technologien zu fördern und die potenzielle Kombination von Photonenrechenleistung, Quantenrechenleistung und AI-Chips zu ermöglichen.
Professor Wang Zhongfeng forderte die Offenlegung von Standards, um die Schnittstellen, die Interkonnektivität und die Befehlssätze zu öffnen und die Innovationsschwelle zu senken. Er betonte die enge Zusammenarbeit zwischen der Industrie, der Forschung und der Lehre, um gemeinsam die technischen Probleme in Bereichen wie der Integration von Quantentechnologie und Künstlicher Intelligenz, der Speicher- und Rechenintegration, neuen Materialien, neuen Prozessen und neuen Bauelementen zu lösen. Er legte auch Wert auf die Ausbildung von Fachkräften, um Querschnittsfachleute mit Kenntnissen in Algorithmen, Architektur, untersten Schaltungsebenen und Softwareentwicklung auszubilden.
II. High-Level-Dialog: Die zweite Hälfte der großen Modelle löst die chinesische Rechenleistung aus, und die Welle der Börsengängen von AI-Chip-Unternehmen wird noch spannender
Der High-Level-Dialog mit dem Thema „Die zweite Hälfte der großen Modelle: Die Lösung der Probleme und das Durchbrechen der Barrieren für chinesische AI-Chips“ wurde von Zhang Guoren, Mitbegründer von Zhiyi Technology und Chefredakteur des Mediennetzwerks für intelligente Fahrzeuge, Chips und Industrie, moderiert. Vier Gäste, darunter Wang Fuyu, Partner von Heli Capital, Jiang Chun, Managing Partner von Puhua Capital, Liu Shui, Generaldirektor von BV Baidu Ventures und Zhao Zhanxiang, Gründungsmitglied von IO Capital, teilten ihre Ansichten mit.
Zhang Guoren sagte, dass die zweite Hälfte der großen Modelle nicht nur ein technologischer Wettlauf, sondern auch ein Wettbewerb um die Ökosysteme sei. Er erwartete, dass in China vertikale Integratoren von „Chip + Anwendungsfall + Algorithmus“ entstehen würden und dass es mehr Einzelweltmeister geben würde.
▲ Zhang Guoren, Mitbegründer von Zhiyi Technology und Chefredakteur des Mediennetzwerks für intelligente Fahrzeuge, Chips und Industrie
1. Nach der Erweiterung des Rechenleistungspools von DeepSeek: Was wird bei der Investition in AI-Chip-Unternehmen beachtet?
Wang Fuyu meinte, dass das Auftauchen von DeepSeek bedeutet, dass es in China einen „Leading Customer“ gibt. Gute Technologieunternehmen werden an die Chipunternehmen Anforderungen stellen. Jiang Chun fügte hinzu, dass die wichtigste Bedeutung von DeepSeek darin bestehe, dass China nun ein eigenes System von Großmodellen habe, was den chinesischen Chips Einsatzmöglichkeiten bietet.
Welche Art von AI-Chip-Teams bevorzugen diese erfahrenen Anleger? Alle Anleger legen Wert darauf, ob die technische Richtung der Unternehmen klar ist.