Die generative AI-Konferenz China 2024 in Shanghai wurde erfolgreich abgeschlossen, und die Highlights des zweiten Tages der AI Infra-Gipfelreden sind in einem Artikel zusammengefasst!
智东西 berichtete am 6. Dezember, dass die zweitägige chinesische Generative AI-Konferenz 2024 (Standort Shanghai) heute erfolgreich abgeschlossen wurde.
In den zwei Tagen lieferten 51 Gäste aus Industrie, Wissenschaft und Research dichte Informationen mit spannenden Inhalten. Die Zahl der Anmeldungen überschritt 4000, und mehr als 1200 Teilnehmer kamen zur Konferenz. Die Online-Aufrufe beim Hauptgipfel über große Modelle und dem AI Infra-Gipfel übertrafen 1,04 Millionen.
Das Publikum vor Ort war sehr begeistert, die Haupt- und Nebenschauplätze waren voll besetzt, und der Austausch im Ausstellungsbereich war sehr aktiv. Neue Produkte und Technologien von 15 Unternehmen erhielten breite Aufmerksamkeit und Diskussion.
▲ Ausstellungsbereich der Konferenz
Diese Konferenz stand unter dem Motto "Intelligenter Sprung, unbegrenzte Kreativität". 51 Gäste aus Industrie, Wissenschaft und Research analysierten aus vorausschauenden Perspektiven die technische Produktinnovation von generativer AI, Geschäftsstrategien, zukünftige Trends und aktuelle Forschungsschwerpunkte.
Auf dem heute stattfindenden AI Infra-Gipfel äußerte der außerordentliche Professor der Shanghai Jiao Tong University und Mitgründer sowie wissenschaftlicher Leiter von Wumuxin, Dai Guohao, dass die Industrie mehr darauf achten sollte, wie die Token-Durchsatzrate pro Recheneinheit effizienter gemacht werden kann. Die tatsächlich verfügbare Rechenleistung großer Modelle hängt nicht nur von der theoretischen Chip-Rechenleistung ab, sondern kann auch durch Hardware- und Software-Kollaboration optimiert werden, um die Effizienz der Nutzung zu steigern und die Gesamtrechenleistung durch heterogene Anpassung zu vergrößern.
Guo Wen, Leiter des Beijing North Electric Smart Computing Cloud, King.Cui, Präsident für Asien-Pazifik von GMI Cloud, Cong Peiyan, Verantwortlicher für Produktlösungen von Alibaba Cloud Intelligent Computing Cluster, Zhu Guoliang, Verantwortlicher für den Chip-Software-Stack von Zhonghao Xinying, und Zhou Qiang, Gründer und Vorsitzender von Guangyu Xincheng, teilten ihre Gedanken zu Themen wie vollstufiger AI-Fabrik, der Anpassung an fehlende Rechenleistung für AI-Unternehmen im Ausland, Hochleistungs-Intelligenz-Cluster, China TPU-Chip "No CUDA" Software-Stack und dem Weg zu persönlichen großen Modellen.
Gao Xuefeng, Gründer und CEO von Fengqing Technology, Ma Yujie, Verantwortlicher für generatives AI-Produkt bei Agora, Xie Yu, Technischer Leiter der Tencent Cloud Vector Database, Wang Nan, Mitgründer und Chief Technology Officer von Jina AI, Luan Xiaofan, Partner und Vizepräsident der Forschung und Entwicklung bei Zilliz, Zhang Yingfeng, Gründer und CEO von Yingfeiliu, und Fu Zhengjia, Chefarchitekt von Alluxio, hielten Vorträge zu Themen wie „Von Daten zu Wissen: AI verändert die Grundlagen vieler Branchen“, „Generative AI treibt technische Veränderungen und neue Interaktionserlebnisse an“, „TencentVDB Vector Database“, „Herausforderungen und Chancen für AI Infra im RAG-Paradigma“, „RAG ist stark, aber Vector-Datenbanken sind nicht die Allheilmittel“, „Neue Generation von Unternehmens-RAG-Motoren für Multimodalität“ und „Hochleistungszusammenarbeit für AI-Dateninfrastruktur“.
Der Nachmittag konzentrierte sich auf "Great Models in the Deep Water Zone: New Changes and Opportunities in AI Infra," moderiert von Liu Jingyuan, Executive Director of DeLian Capital. Schließlich gaben die drei Teilnehmer, Fu Zhengjia, Luan Xiaofan und Zhang Yingfeng, wertvolle Einblicke.
Am ersten Tag der Konferenz diskutierten 17 Gäste intensiv über große Sprachmodelle, multimodale große Modelle, verkörperte Intelligenz, AI-native Anwendungen, Musikgenerierung, 3D AIGC, branchenspezifische AI-Anwendungen und das Voranbringen der Verkörperung.
Neben dem Hauptgipfel am ersten Konferenztag und dem heutigen AI Infra-Gipfel organisierte die Konferenz auch separate Seminare zu Themen wie Endgenerierungstechnologie für AI, AI-Videogenerierungstechnologie und verkörperte Intelligenztechnologie, bei denen 17 junge Wissenschaftler und technische Experten Berichte und Diskussionen vorstellten. Nachfolgend werden Aufzeichnungen dieser zahlungspflichtigen Seminare zur Verfügung gestellt.
Teil Eins: Vom Intelligent-Computing-Cluster bis zum nativen Beschleunigungs-Software-Stack: Fokus auf Industrie-Umsetzung zur Überwindung des Rechenengpasses großer Modelle
Die Entwicklung von AI bringt große Herausforderungen in Bezug auf Daten, Rechenkapazität und Energieverbrauch mit sich. Als Schlüsselfaktor für den Betrieb großer Modelle und die Entwicklung generativer AI-Anwendung tritt auch AI Infra ins Rampenlicht und zeigt starken Entwicklungsdrang.
Wie baut man ein hochwertiges Intelligent-Computing-Zentrum und wie erreicht man eine effiziente Koordination der gesamten industriellen Kette von Chips bis hin zu Anwendungen? Mehrere Experten gaben tiefgehende Einblicke.
1. Dai Guohao, außerordentlicher Professor der Shanghai Jiao Tong University und Mitgründer sowie wissenschaftlicher Leiter von Wumuxin
Unter der Scaling Law ist Daten einer der Faktoren, die die Weiterentwicklung von AI einschränken. Beispielhafte Modellierungen wie GPT-o1 können die Datenengpass überwinden, jedoch erhöht der Wechsel des Rechenparadigmas den Bedarf an Rechenkapazität exponentiell, was möglicherweise den Energiebedarf von Hardware-Systemen übersteigt und das nachhaltige Branchenwachstum bedroht.
Professor Dai Guohao hebt hervor, dass die Industrie derzeit mehr Augenmerk darauf legen sollte, wie man effizient einen höheren Token-Durchsatz pro Recheneinheit erzielt, sodass die tatsächlich nutzbare Rechenkapazität großer Modelle nicht nur von der theoretischen Chip-Rechenleistung abhängt, sondern auch durch Software- und Hardware-Kollaboration optimiert werden kann. Dies kann helfen, die Token-Durchsatz-Effizienz in Big-Modelle-Szenarien zu erhöhen.
2. Guo Wen von Beijing North Electric Smart Cloud Computing: AI Factory schließt die Lücken in der Lieferkette von heimischer Rechenkraft
"Für die Entwicklung der Industrie muss Innovation über die rein technische Ebene hinausgehen und umfassende Innovation in Prozessen, Systemen und Organisationen anstreben." Guo Wen, Verantwortlicher für Beijing North Electric Smart Cloud Computing erläutert umfassende Praxisüberlegungen zum Aufbau einer AI-Produktionslinie im KI-Zeitalter aus Sicht von Rechenleistung, Algorithmen, Daten und Ökologie.
Guo Wen bietet Einsichten: Der größte Engpass bei der Verwirklichung von inländischen Chips in der AI-Industrie liegt in der Trennung zwischen dem Angebot und der Nachfrage von Rechenleistung. Daher bietet Beijing North Electric eine "heimische Rechenkraft-PoC-Plattform", die im Beijing Digital Economy Computing Power Center angesiedelt ist. Diese Plattform soll als vollständige AI-Fabrik für den Heimmarkt dienen, indem sie Konnektivität und Kohäsion über schlüsselfertige Szenarien, Modelle und Chip-Stufen fördert und Rechenzentren dabei unterstützt, sich von Kostenfaktoren zu einer Quelle neuer Produktivität für regionale Entwicklung zu wandeln.
3. King.Cui von GMI Cloud: Hoch stabile GPU-Cluster sind der Schlüssel für die globale Expansion von AI-Unternehmen
Die Beschleunigung der AI-Expansion in Übersee zeigt, dass Rechenleistung als zentrale Produktionsressource eine entscheidende Rolle spielt. Hoch stabile GPU-Cluster erhöhen die Effizienz und senken die Kosten, wodurch Unternehmen in der AI-Globalisierung erfolgreich bestehen können.
King.Cui, Präsident für Asien-Pazifik von GMI Cloud, spricht darüber, dass zur Sicherstellung der hohen Stabilität von GPU-Clustern ein selbst entwickelter Cloud-Cluster-Engine mit aktiver Erkennungsfunktion eingesetzt wird, der die effiziente Zuteilung von Rechen-, Speicher- und Netzwerk-Ressourcen realisiert.
GMI Cloud ist eine der Top 10 NCPs von NVIDIA, und vor der Auslieferung durchlaufen sie strenge Prüfverfahren. GMI Cloud kooperiert mit IDC, um Ersatzteile und Wartung anzubieten und die Lieferzeit zu verkürzen, um die Ausfallzeit auf ein Minimum zu reduzieren.
4. Cong Peiyan von Alibaba Cloud: LingJun Smart Computing Cluster nicht nur für Stabilität und extreme Leistung, sondern auch für maximale Erweiterung in verschiedenen Dimensionen
Cong Peiyan, Verantwortlicher für Produktlösungen von Alibaba Cloud Intelligent Computing Cluster, prognostiziert, dass die Leistungsfähigkeit zukünftiger Modelle weiterhin mit den Parametern, dem Datensatz und der Rechenleistung zunehmen wird; die Entwurfsmuster für AI-Cluster werden zunehmend auf GPU-zentriert.
Alibaba Cloud hat den LingJun Intelligent Computing Cluster eingeführt, das für ultraschnelles, verteiltes Training geeignet ist und eine Skalierung auf 100.000 GPUs ermöglicht. Die lineare Beschleunigung bei einer 1.000-GPU-Skalierung erreicht 96%. Alibaba Cloud verwendet auch eigens entwickelte Panlong-Server, die CPU und GPU partitionieren, um die GPU-Kapazität pro Maschine auf 16 GPUs zu steigern; die HPN7.0 Netzwerkarchitektur kann ein System mit bis zu 100.000 GPUs verbinden.
Die Stabilität der Rechencluster ist entscheidend: Der 3.000-GPU Intelligent Computing Cluster von Alibaba Cloud hält einen stabilen Trainingsanteil von 99% innerhalb eines Monats.
5. Zhou Qiang von Guangyu Xincheng: Lösungen für das "Große Modell versteht dich nicht": Chancen für persönliche große Modelle
Als bedeutender Zweig parallel zu allgemeinen großen Modellen, branchenspezifischen großen Modellen und großen Unternehmensmodellen entwickelt sich auch das persönliche große Modell schnell weiter. Zhou Qiang, Gründer und Vorsitzender von Guangyu Xincheng, erklärt, dass das persönliche große Modell das Problem löst, dass "das große Modell dich nicht versteht". Mit dem Aufschwung von Smart Devices wie Mobiltelefonen, PCs und XR-Geräten wird der Weg der persönlichen großen Modelle immer breiter.
Er erwähnt auch, dass persönliche große Modelle auch als End-Side große Modelle bezeichnet werden und darauf abzielen, die Engpässe in Leistung, Stromverbrauch und Kosten auf der End-Seite zu lösen und so echte AI-Mobiltelefone in den Alltag zu bringen. End-Side AI bietet fünf Vorteile: Rechtzeitigkeit, Zuverlässigkeit, niedrige Kosten, Datenschutz und Personalisierung. Gegenwärtig besteht die Schlüsselherausforderung bei der Entwicklung persönlicher großer Modelle darin, die Doppelfragen hinsichtlich Speicherbandbreite und Speicherkapazität zu lösen.
6. Zhu Guoliang von Zhonghao Xinying: Praxis beim Aufbau eines "No CUDA" Software-Stacks für China TPU-Chips
Zhu Guoliang, Verantwortlicher für den Chip-Software-Stack von Zhonghao Xinying, erörterte ihren praktischen Ansatz zum Aufbau eines "No CUDA" Software-Stacks für heimische TPU-Chips.
Der Chip von Zhonghao Xinying nutzt eine VLIW-Befehlssatz-Architektur, und angesichts der riesigen CUDA-Ökosysteme haben sie schrittweise Lösungen für Bibliotheken und parallele Programmierungsprobleme entwickelt. Der vollständig selbst entwickelte User-Mode- und Kernel-Mode-Treiber ermöglicht ein effizientes Management des Chips.
Um eine umfassende ökologische Verträglichkeit zu gewährleisten, ist der Software-Stack von Zhonghao Xinying kompatibel mit PyTorch und allen gängigen Trainings- und Inferenzframeworks. Momentan können sie maßgeschneiderte Cloud-Computing-Lösungen anbieten, die auch heimische Betriebssysteme unterstützen.
Teil Zwei: Vom Enterprise-Intelligent-Agent über Vector-Datenbanken bis zum RAG – AI Infrastructures Software-Plattformen stehen vor vielen neuen Herausforderungen
Am Nachmittag gaben mehrere Experten weitere Einblicke in die Entwicklungen im Bereich AI Infra bezüglich Intelligent Agent Development and Management Platforms, Echtzeit-Sprache, Vector-Datenbanken, Vectormodelle, RAG-Technologie, Datenorchestrierung und vieles mehr. Zahlreiche neue Plattformen, Produkte und Technologien sind auf die Bühne gekommen, um die Branche zu stärken.
1. Gao Xuefeng von Fengqing Technology: Von Daten zu Wissen - Überbrückung der Kluft zwischen Generative AI und Entscheidungsintelligenz
Gao Xuefeng, Gründer und CEO von Fengqing Technology, erklärt, dass der technische Durchbruch, der die Kluft zwischen Generative AI und Entscheidungsintelligenz in Unternehmensentscheidungsanwendungen überbrücken wird, in der Integration von symbolischem Logikschlussfolgern in das Inferenz-Framework liegt.
Die Implementierung der Unternehmensintelligenz erfordert das Überwinden von technologischen Herausforderungen wie Datensilos, Datenintegration, Wissensüberprüfung und Echtzeit-Effektivität. Fengqing Technology bietet Unternehmen eine nächste Generation der Intelligent Agent Platform, basierend auf einem Dual-Engine aus Wissensmotor und großen Modellen. Diese Plattform hilft Unternehmen, die Datenqualität durch Errichtung eines vollständigen Optimierungssystems zu verbessern, lokales Unternehmenswissen zu speichern und die Verallgemeinerungsfähigkeit großer Modelle zu integrieren, um auf dem aufgebauten Wissensnetz rationale Entscheidungen zu treffen, sodass AI in verschiedenen Szenarien genaue, transparente Unterstützung für Entscheidungsfindungen bieten kann, was die erfolgreiche Umsetzung der Unternehmensdigitalisierung vorantreibt.
2. Ma Yujie von Agora: Generative AI + Echtzeit-Interaktion verwandelt Mensch-Maschinen-Interaktion in echte Geists-Kommunikation
Ma Yujie, Verantwortlicher für generatives AI-Produkt bei Agora, beschrieb die Veränderungen von Echtzeit-Engagement (RTE, Real-Time Engagement) Technologien und Erfahrungen nach dem Aufkommen von generativer AI.
Ma Yujie erklärt, dass RTE sich von 2014 bis heute von Servicequalität zu Erlebnisqualität entwickelt hat. Begleitet durch die Entwicklung von generativer AI seit 2025 hat sich RTE zu AI RTE gewandelt und legt nun Wert auf die Qualität multimodaler Erlebnisse. Man strebt multimodale Interaktionen und modalübergreifende Transformationen zu ermöglichen und entwickelte für große Modellfabriken Funktionen wie visuelle, akustische und sensorische Wahrnehmung.
Ma Yujie fügte hinzu, dass Mensch-Maschine-Diskussionen gegenwärtig den Status des "Verstehens" erreicht haben und man danach strebt, im nächsten Schritt "das Herz zu hören" zu erreichen - Mensch-Maschine-Interaktionen in echte Herzkommunikation zu verwandeln.
3. Xie Yu von Tencent Cloud: Vector-Datenbanken helfen Unternehmen, den Wert größerer Datenmengen zu erschließen
Im AI-Zeitalter nehmen Vector-Datenbanken (VDB) eine Schlüsselrolle als Drehscheibe zwischen strukturierten und unstrukturierten Daten ein. Wenn jedoch VDB in RAG angewendet werden, zeigt sich ein niedriges Rückrufverhältnis in mehreren Open-Source-RAG-Architekturen.
Xie Yu, technischer Leiter der Tencent Cloud Vector Database, betont, dass sie zunächst die Erkennung komplexer Dokumente verbesserten, Datenverarbeitung, Embedding, Suche, Zusammenfassung und andere Verfahren optimierten, um eine Rückrufrate von über 90% zu erreichen.
Tencents selbst entwickelter Vector-Retrieval-Engine OLAMA ist seit fünf Jahren im Einsatz und verarbeitet täglich 8,5 Milliarden Suchanfragen. In Zukunft werden sie sich weiterhin auf Leistung, Kosten, Geschäftsergebnisse und Ausfallsicherheit konzentrieren, um die Produktleistung stetig zu verbessern.
4. Wang Nan von Jina AI: Langtext große Modelle und RAG existieren langfristig nebeneinander, und längere Fenster-Vektormodelle stehen vor zwei Herausforderungen
Aufgrund von Trugschlüssen, mangelnder Sicherheit privater Daten und hohem Inferenzkosten stehen große Modelle vor Herausforderungen. Wang Nan, Mitgründer und Chief Technology Officer von Jina AI, ist der Meinung, dass RAG durch die Reduzierung des generativen AI-Bereichs die Genauigkeit der Suche gewährleistet und reproduzierbare Ergebnisse gewährleistet, sodass längere Text große Modelle RAG nicht ersetzen werden. Beide werden langfristig nebeneinander koexistieren.
Kurze Fenster führen zu Informationsverlust im Kontext, daher benötigen RAG lange Fenster-Vektormodelle für Unterstützung. Diese Modelle stehen jedoch vor zwei Herausforderungen: erstens steigen die Inferenzkosten und der Speicherbedarf quadratisch mit der Fensterlänge, was durch gemeinsame Nutzung von GPU eine Lösung darstellen könnte. Zweitens verhindert die lange Fensterlänge, dass das Modell feinkörnige semantische Informationen vollständig erfasst, was durch Erhöhung der Vektoranzahl und die Verwendung multiple Vektoren gelöst werden könnte.
5. Luan Xiaofan von Zilliz: Vektor-Datenbanken stoßen bei der Implementierung auf Herausforderungen bei Kosten und Erweiterbarkeit - von RAG zu GraphRAG
Luan Xiaofan, Partner und Vizepräsident der Forschung und Entwicklung bei Zilliz, teilt die derzeitigen Herausforderungen bei Vector-Datenbanken und die entsprechenden Lösungen dazu.
Luan Xiaofan merkt an, dass es 2025 in neuen Daten generiert werden, davon >80% unstrukturiert sein werden. Angesichts dieser Datenbelastung stehen Vector-Datenbanken sowohl in Bezug auf Kosten als auch auf Erweiterbarkeit vor Herausforderungen. Der aktuelle RAG leidet an schlechter Suchqualität, mangelnder Fähigkeit, Longtail-Anfragen zu bearbeiten, schwer zu erklärende und lenkende Ergebnisse und hohe Speicherkosten für Vektoren.
Deshalb schlägt Luan Xiaofan zwei Lösungsansätze vor: erstens gemischte Abfragen, die in einem einzelnen System dichte und spärliche Einbettungen und Wortsuche unterstützen, und zweitens GraphRAG, das Wissensgrafiken in die Vektorretrieval-Strategie integriert.
6. Zhang Yingfeng von Yingfeiliu: Neue Paradigmen für multimodale RAG
Zhang Yingfeng, Gründer und CEO von Yingfeiliu, betont, dass RAG in Zeiten großer Sprachmodelle vor drei Hindernissen steht: Verarbeitung, Rückmeldungen und semantische Kluft von multimodalen Dokumenten.
Um das erste Problem anzugehen, trainierte Yingfeiliu ein Deep-Document-Understanding-Modell, das komplexe multimodale Dokumentinhalte klassifizieren und verarbeiten kann. Was das zweite Hindernis, die "Last-Mile-Suche„ bei RAG betrifft, nutzte Yingfeiliu eine dreifache Rückgewinnungsstrategie und fügte eine Tensorsuche zur Neusortierung hinzu. Diese Lösung zeigte signifikante Vorteile im Multimodale RAG.
Zuletzt diente GraphRAG dazu, im Prozess erkannte semantische Unterschiede zu beheben, indem zusätzliche Wissensgraphiken extrahiert und mit Originaldaten kombiniert werden, um die Suchqualität zu erhöhen.
7. Fu Zhengjia von Alluxio: Null-Änderung und nicht-invasiver Ansatz, um eine hochleistungsfähige KI-Datenbasis zu schaffen
Fu Zhengjia, Chief Architect von Alluxio, sprach über die zwei Herausforderungen zur Erhöhung der Effizienz beim Training eines groß angelegten Modells: Die erste ist, dass der Datenskala kontinuierlich wächst und die Typen vielfältiger werden, was dazu führt, dass die Recheneffizienz verbessert werden muss; zweitens bleibt der Rechenaufwand niedrig, wenn die Daten zum Trainingssystem übermittelt werden.
Vor diesem Hintergrund bietet Alluxio eine einheitliche Datenansicht, reiche Protokolltransformation und Hochleistungs-Datenzugriff, um umfassende Datenservices zu schaffen. Diese Lösungen bieten durch Null-Änderung, nicht-invasive Ansätze, sodass Ingenieure weiterhin auf herkömmliche Weise arbeiten können, ohne ihre bestehenden Skripte ändern zu müssen. Es gibt auch umfangreiche Datensetzungen, die keine proprietären Protokolländerungen erfordern.
Teil Drei: Im AI 2.0 Zeitalter treiben Große Modelle tiefe Wasserarbeit an und AI Infra erfährt Transformation
In der Podiumsdiskussion teilten mehrere Panelgäste Brancheneinsichten über das Thema "Große Modelle in tieferen Gewässern treiben AI Infra zu neuen Veränderungen und Chancen" und wie ihre jeweiligen Produkte und Technologien die Kernprobleme der AI-Anwendung lösen.
Moderatorin Liu Jingyuan, Executive Director von DeLian Capital, hebt hervor, dass vor zwei Jahren chatbots wie ChatGPT generative AI in den Vordergrund rückten und die AI 2.0 Ära einläuten. Die groß angelegte Zunahme von Scaling Law und Datenvolumen brachte bedeutende Wachstumsmöglichkeiten für AI Infra. Zwei Jahre später betreten große Modelle tiefere Gewässer und AI Infra klärt zunehmend die Produktgrenzen und Funktionalitäten für die Umsetzung solcher Modelle und entsprechender Produkte.
▲ Liu Jingyuan
Für komplexe Softwareprodukte mit längeren Entwicklungszyklen und hoher technischer Komplexität kann die Open-Source-Community möglicherweise einen Beitrag leisten, um die Produktentwicklung und die Auswahl der Technologien besser an den tatsächlichen Bedarf anzupassen und gleichzeitig die Aufmerksamkeit und den Einfluss des Projekts zu steigern.
Zusätzlich wird "Go Global" zunehmend zu einer festen Strategie für Infra-Software, sowohl aus kommerziellen Gründen als auch, um dass die weltweite Anerkennung der harten Arbeit und technischen Fähigkeiten chinesischer Ingenieure zu nutzen. Ressourcenkappen erfordern eine bewusste Auswahl, sowohl hinsichtlich der Funktionalität als auch des Geschäftsmodells.
Zilliz als ein Unternehmen für Vector-Datenbanken bietet ein Produkt, das unstrukturierte Daten in großem Umfang verarbeiten und deren Wert schätzen kann. Angesichts der fortlaufenden Entwicklung in der AI 2.0 Ära glaubt Zilliz-Partner und Forschungs-und Entwicklungsleiter Luan Xiaofan, dass AI-Technologien im vergangenen Jahr überschätzt, in diesem Jahr jedoch unterschätzt wurden. In der Zukunft wird die KI-Implementierung auf eine Gelegenheit warten, was auch eine Chance für die Entwicklung des gesamten Paradigmas darstellt.
Wenn es um Open Source geht, hebt Luan Xiaofan hervor, dass Zilliz sich derzeit in seiner herausforderndsten Phase befindet und einerseits die Kundenbedürfnisse erfüllen muss und andererseits eine Monetarisierung anstrebt.
▲ Luan Xiaofan
Akutell ist das Geschäft mit AI-Infra-Problemen für Expansionen ins Ausland bereits eine zwingende Frage. Luan Xiaofan weist auf das Bedingung der Expansion, dass es erforderlich ist, über einen Anlaufvorteil bei Produktmerkmalen wie Skalierbarkeit und Funktionalität zu verfügen. Das Produkt selbst wird kaum maßgeschneidert, was der Meinung entspricht, dass ihr Marktsegment ausreichend groß ist und es keinen Grund gibt, sich zu bemühen, eine umfassende Plattform zu werden.
Im AI-Zeitalter stellt das explosionsartige Wachstum des Datenvolumens eine gigantische Herausforderung an die Speicherung. Mr. Fu Zhengjia, Chief Architect von Alluxio, erklärt, dass sie ein verteiltes Datenorchestrierungssystem nutzen, um effizient Speicherung und Rechenleistung zu verknüpfen. Von Anfang an hat Alluxio den Trend der Trennung von Speicher und Rechenleistung erkannt und sich auf die Behandlung von Remote-Datenübertragungen konzentriert, um auf die Speicherherausforderungen von AI zu reagieren.
Das Speichersystem von Alluxio bietet sowohl Open- als auch Closed-Source-Versionen. Fu Zhengjia sagt, dass Open Source ihnen geholfen hat, mit der technologischen Entwicklung auf dem Laufenden zu bleiben und sich einen Namen zu machen. Dennoch stehen sie einem Herausforderungen der Kommerzialisierung und einem geringen Engagement einiger Open Source-Nutzer gegenüber. Alluxio geht derzeit verstärkt auf internationale Märkte, wobei die Vorteilsintegration und die lokalisierte Anpassung der Produkte wichtige Faktoren sind.
▲ Fu Zhengjia
Zhang Yingfeng, CEO und Gründer von Yingfeiliu, erklärt, dass die Anwendung von RAG einfach, die Entwicklung jedoch sehr schwierig ist. Der Kern des Erfolgs besteht darin, technische und AI-Experten zusammenzubringen, um Produkte zu entwickeln.
Im Hinblick auf Open Source erklärt Zhang Yingfeng, dass Open Source eine geschäftliche Strategie und nicht Selbstzweck ist; Open Source ist notwendig für die globale Expansion, aber schon in der Startphase einer jeden Unternehmung sollte der Unterschied zwischen der Unternehmens- und Entwicklerausgabe des Produkts klar verstanden werden.
▲ Zhang Yingfeng
Derzeit haben die Infra-Produkte von Yingfeiliu noch nicht den Schritt zur Kommerzialisierung vollzogen. In Kombination mit bisherigen Erfahrungen merkt Zhang Yingfeng an, dass der Gründer während des Kommerzialisierungsprozesses ein klares Verständnis über die Eigenschaften und Grenzen der Produktanpassung haben muss.
Fazit: Die Industrialisierung generativer AI beschleunigt die Umsetzung, und die gesamte nachgelagerte Industriekette ruft nach Zusammenarbeit und Win-Win-Lösungen
Das vergangene Jahr war ein monumentales Jahr für die Entwicklung der generativen AI. Die gesamte Lieferkette war eines der weltweit dynamischsten Bereiche im Bereich der Innovation, Investition und Anwendung. Jeder Akteur stand in engem Wettbewerb mit der Zeit.
Sora sorgte für Aufhebens bei der Videogenerierung, und das Interesse an multimodalen Weltmodellen nahm zu. Ein revolutionäres Modell o1 wurde leise eingeführt, wobei große Sprachmodelle nicht mehr weiter aufholen. Es entstand nicht nur Preiskämpfe und Marketingkämpfe, Investitionen kühlten ab, sondern das Ende des Jahres löste auch große Diskussionen darüber aus, ob Scaling Law zu seinem Ende kommt.
Die Förderung des Branchenpotenzials durch AI wurde fortgesetzt, und das Wachstum von Anwendungsebenen wie Intelligenten Agenten bleibt vielversprechend. Immer deutlicher werden auch die Tendenzen, dass große Modelle zu Knoten für mobile Geräte werden, während AI-Handys und AI-PCs zunehmend zur Trendwelle werden. Neben AI-Hardware war die Popularität der physisch verankerten intelligenteren Modelle mit menschenartigen Robotern größer als je zuvor.
Als langfristiger Beobachter der intelligenten Industrie erwarten wir weiterhin, die Veränderungen im chinesischen Generative AI-Fieber festzuhalten und darüber zu berichten. Dabei werden wir die jungen Triebkräfte dieser Entwicklung kontinuierlich einladen, um ihre aktuellen technologischen Fortschritte und Kommerzialisierungen zu teilen.
Während die heute zu Ende gegangene zweitägige chinesische Generative AI-Konferenz 2024 (Standort Shanghai) erfolgreich abgeschlossen wurde. 2025 wird die Offline-Konferenz offiziell gestartet, einschließlich des globalen Autonomes Fahren Gipfels am 14. Januar. Auch Konferenzen in den Bereichen AI-Chips und generative AI sind bereits geplant. Wir freuen uns darauf!