StartseiteArtikel

Liu Chuanlin, Chef-Lösungsarchitekt von Wuwen Xinqiong: Intensive Arbeit im Gebiet der Rechenleistung, Schaffung einer bahnbrechenden Super-APP | AI Partner-Konferenz 2025

未来一氪2025-04-25 14:07
2025, das erste Jahr der KI-Anwendung. Die AIPartner-Konferenz konzentriert sich auf die Technologie-Ökosystem von Superanwendungen.

Das Jahr 2025 ist das erste Jahr des Ausbruchs der KI-Anwendungen. Wenn der globale KI-Wettlauf in die "Chinesische Phase" eintritt, ändert eine tiefgreifende technologische Revolution die Branchenlandschaft still und leise. An diesem kritischen Punkt steht die Branche vor zwei Kernfragen: Wie kann die Kluft zwischen KI-Technologie und massenhafter Anwendung überwunden werden? Wo wird die nächste bahnbrechende KI-Superanwendung entstehen?

Am 18. April hat die von 36 Kr organisiert 2025 AI Partner-Konferenz im Modu Space in Shanghai grandios begonnen. Das Thema dieser Konferenz lautet "Die Super-App ist da". Sie konzentriert sich auf die bahnbrechende Transformation der KI-Anwendungen in allen Branchen. Die Konferenz gliedert sich in zwei große Kapitel: "Die Super-App ist da" und "Wer ist die nächste Super-App". Sie deckt sieben Themen wie "Im KI-Weltraum aufwachsen" und "Im Jahr 2025 geht es um Super-Apps in der KI" ab, darunter mehr als 10 Themenvorträge, 3 Roundtable-Diskussionen und die Veröffentlichung von zwei Listen ausgezeichneter KI-Anwendungsunternehmen. Die Konferenz analysiert tiefgehend, wie die KI-Technologie die Geschäftslogik neu strukturiert und die Branchenlandschaft neu gestaltet, und erforscht die unendlichen Möglichkeiten, die KI-Superanwendungen mit sich bringen.

An diesem Tag hat Liu Chuanlin, der leitende Lösungsarchitekt von Wuwen Xinqiong, einen Vortrag mit dem Thema "Neuaufbau der KI-Branchenökosysteme mit einer intelligenten Basis" gehalten.

Im Folgenden finden Sie den Inhalt von Liu Chuanlins Vortrag, der von 36 Kr zusammengefasst und editiert wurde:

Sehr geehrte Herren und Damen, guten Nachmittag! Es ist mir eine große Ehre, an der Veranstaltung von 36 Kr eingeladen zu sein. Als KI-Rechenleistungsserviceanbieter und Infrastrukturbauer, der sich auf die Unterstützung von KI-Superanwendungen konzentriert, deckt die Technologiekompetenz von Wuwen Xinqiong die gesamte Wertschöpfungskette von der Optimierung der Rechenleistung über die Modellentwicklung bis zur Algorithmenoptimierung ab. Wir sind bestrebt, eine solide technologische Basis für den chinesischen KI-Markt aufzubauen und so mehr innovativen Anwendungen zu helfen, sich durchzusetzen.

Liu Chuanlin, leitender Lösungsarchitekt von Wuwen Xinqiong

Heute werde ich mich um drei Kernthemen drehen: Erstens die Trends und Veränderungen in der Infra-Schicht: Hier wird die technologische Entwicklung in den Bereichen Modellentwicklung, -training und -inferenz untersucht. Zweitens der praktische Weg von Wuwen Xinqiong: Hier wird erklärt, wie wir durch technologische Innovationen die Nährböden für KI-Superanwendungen schaffen. Drittens die Zukunftsperspektive: Hier werden die Branchenbedürfnisse ausgeschöpft, um die Entstehung von zeitreisenden KI-nativen Anwendungen voranzutreiben.

Wenn man sich die Entwicklung der Künstlichen Intelligenz anschaut, hat jeder bedeutende Durchbruch auf die Verbesserung von Schlüsselfaktoren zurückzuführen. Seit der Entstehung von GPT-3 haben sich unter dem Einfluss des Skalierungsgesetzes Algorithmen und Rechenleistung rasant entwickelt. Mit der zunehmenden Knappheit an öffentlichen hochwertigen Textdaten hat Ilya bereits im vergangenen Jahr vorhergesagt, dass die Vorhersagezeit bald zu Ende gehen wird.

Nehmen wir die GPT-Serie als Beispiel. Der Zeitraum zwischen GPT-4 und GPT-5 hat sich deutlich verlängert, und die Knappheit an Vorhersagedaten wird immer deutlicher. Die Entstehung von DeepSeek bringt ein neues technologisches Paradigma mit sich - durch R1-Deep Reinforcement Learning wird ein geschlossener Kreis aus Training, Inferenz und Anpassung gebildet, um eine zweite Sprung in der Modellleistung zu erzielen. Der technologische Weg kann wie folgt zusammengefasst werden: Kaltstartphase: Basierend auf dem R1 Zero-Modell wird eine erste Verstärkung mit Hilfe des Reward-Modells und des Anpassungsalgorithmus durchgeführt. Datenoptimierungsphase: Hochwertige Branchen- und allgemeine Datensätze werden integriert, um die Generalisierungsfähigkeit des Modells zu verbessern. Geschlossener Kreis der Iteration: Durch den Zyklus "Training - Inferenz - Anpassung - erneutes Training" wird die Modellleistung kontinuierlich verbessert.

Diese Veränderung stellt die Infra-Schicht vor zwei Herausforderungen: Unterstützung der untersten Ebene: Es muss ein KI-Infra-System aufgebaut werden, das für Deep Reinforcement Learning geeignet ist und die Anforderungen an die Entwicklung von großen Modellen erfüllt. Bereitstellung von Anwendungen: Durch die Optimierung der Infra-Schicht können KI-Anwendungen eine geringere Latenz, eine höhere Effizienz und bessere Kostenstrukturen erreichen, wodurch der Geschäftsnutzen (ROI) gesteigert wird.

Als von der Fakultät für Elektronik der Tsinghua-Universität gegründetes Unternehmen haben wir auf der Grundlage unserer Fähigkeiten in der gemeinsamen Optimierung von Hardware und Software ein umfassendes technologisches Ökosystem aufgebaut: Rechenleistungsschicht: Wir integrieren mehrere chinesische Chips und bieten durch heterogene Rechenverfahren eine vielfältige Rechenleistung. Plattformschicht (PaaS): Wir haben eine effiziente und benutzerfreundliche Rechenleistungsverwaltungplattform entwickelt, um die Effizienz der Ressourcenverwaltung zu verbessern. Dienstleistungsschicht (MaaS): Wir bieten stabile Modell-als-Dienstleistungen an, um die Schwelle für die Entwicklung von Anwendungen zu senken.

In der Cloud-Dienstleistung halten wir uns an die "Dreiteilung" - Strategie: Vielfältige heterogene Anpassung: Wir sind kompatibel mit Chips unterschiedlicher Architekturen, um eine elastische Bereitstellung von Rechenleistung zu gewährleisten. Optimierung der Zusammenarbeit zwischen Hardware und Software: Wir integrieren Hardware und Software tiefgreifend, um das Potenzial der Rechenleistung freizusetzen. Verbesserung der Dienstleistungseffizienz: Durch intelligente Ressourcenverwaltung stellen wir sicher, dass die Ressourcen effizient genutzt werden.

Ausgelöst durch das technologische Spannungsverhältnis zwischen China und den USA und dem Aufstieg chinesischer Chips werden in den nächsten drei Jahren chinesische Chips zu einem wichtigen Träger für das Training und die Inferenz von großen Modellen werden. Deshalb haben wir in Shanghai und anderen Orten Tausende von heterogenen Mischtrainingseinsätzen durchgeführt, um die Kompatibilitätsprobleme chinesischer Chips zu lösen und ein vollständiges Ökosystem aus "chinesischer Rechenleistung + chinesischen Anwendungen" aufzubauen. Durch ein einheitliches Scheduling-Framework können wir die kollaborative Berechnung zwischen verschiedenen Chips erreichen und die Trainings-effizienz deutlich verbessern.

Angesichts der von DeepSeek ausgelösten Veränderungen im Rechenparadigma haben wir unsere Ingenieurarchitektur aus drei Perspektiven optimiert: Innovation des Trainingsframeworks: Wir haben ein eigenes Trainingsframework entwickelt, das für LLM (Sprachmodelle) und MOE (Mixture of Experts-Modelle) geeignet ist, um eine höhere Trainingsleistung zu unterstützen und kompatibel mit verschiedenen Beschleunigungskarten zu sein. Optimierung der Kommunikationseffizienz: Durch eine tiefe Überlappung von Berechnung und Kommunikation reduzieren wir die Latenz der Datenübertragung und senken die Ressourcenauslastung bei der MOE-Modelltraining. Dynamische Ressourcenzuordnung: Basierend auf den Eigenschaften des MOE-Modells können wir die intelligente Planung von Expertenmodellen und die Trennung von PD erreichen, um die Flexibilität der gesamten Architektur zu verbessern.

Nehmen wir Shengshu Technology als Beispiel. Wir bieten für das Training von Multimodal-Modellen einen umfassenden Service an: Sofortige Start des Umfelds: Wir können das Trainingsumfeld schnell bereitstellen und die Projektlaufzeit verkürzen. Automatische Fehlerbehandlung: Wir überwachen den Trainingsvorgang in Echtzeit und behandeln automatisch Ausnahmen. Optimierung der Inferenzeffizienz: Durch die Beschleunigung der untersten Ebene können wir die Reaktionsgeschwindigkeit des Modells nach der Bereitstellung verbessern.

Derzeit haben wir in Shanghai ein Rechenleistungsekosystemdienstleistungsportal eingerichtet und in der Provinz Zhejiang ein Vorzeigeprojekt für die Zusammenarbeit zwischen Regierung und Unternehmen geschaffen. Durch technische Unterstützung senken wir die Innovationskosten von KI-Unternehmen.

In der KI-Anwendungsszene hat die Inferenzeffizienz einen direkten Einfluss auf die Benutzererfahrung und den kommerziellen Wert. Wir haben für große Sprachmodelle und Text-zu-Bild-Modelle maßgeschneiderte Lösungen entwickelt: Nehmen wir DeepSeek R1 als Beispiel. Seine MOE-Architektur und die FP8-Präzision stellen hohe Anforderungen an die Bereitstellungsressourcen. Wir haben die Effizienz durch die folgenden Optimierungen verbessert: Ingenieurtechnische Umgestaltung: Wir haben das Dienstleistungsframework neu strukturiert und die Inferenzgeschwindigkeit auf 30 Tokens pro Sekunde erhöht. Stabilitätsgarantie: Wir haben den Scheduling-Algorithmus optimiert, um sicherzustellen, dass der Dienst in Hochlastsituationen ohne Unterbrechung funktioniert. Übereinstimmung der Ergebnisse: Wir halten während der Beschleunigung die Genauigkeit der Generierung mit dem offiziellen Modell überein. Benutzer können über unsere Plattform mit einem Klick auf den R1-Service zugreifen, wodurch die Schwelle für die Bereitstellung erheblich gesenkt wird.

Angesichts der Schwankungen des Datenverkehrs in AIGC-Anwendungen haben wir auf der Grundlage von ComfyUI eine Schnittstellendienstleistung aufgebaut. Glättung der Spitzen und Täler: Wir verteilen die Rechenleistung dynamisch, um die Verschwendung von Ressourcen in Zeiten geringer Nachfrage zu vermeiden. Entkopplung der Architektur: Durch standardisierte Schnittstellen sind wir kompatibel mit neuen Modellen und Frameworks, wodurch die wiederholte Entwicklung durch das Ingenieurteam reduziert wird. Unterstützung von Multimodalität: Wir integrieren die Fähigkeiten von Video, Sprache, Text und Bildern, um eine nahtlose Anbindung der gesamten Branchenkette zu erreichen. Praxisbeispiele zeigen, dass ein E-Commerce-Unternehmen, das unseren Service nutzt, die Kosten gesenkt, die Inferenzgeschwindigkeit erhöht und die Dienstleistungseffizienz verbessert hat.

Im raschen Wandel der KI-Technologie kann man nur dann die Vorreiterrolle einnehmen, wenn man das Gleichgewicht zwischen "Veränderung" und "Konstanz" findet: Veränderung: Die technologische Architektur, das Rechenparadigma und die Modellform entwickeln sich ständig weiter. Konstanz: Die Kernanforderungen der Benutzer nach effizienten, intelligenten und individuellen Dienstleistungen bleiben bestehen.

Wir freuen uns auf eine vertiefte Kommunikation mit Experten aus verschiedenen Branchen, um die Anforderungen aus realen Szenarien zu verstehen und gemeinsam die Innovation und den Durchbruch von KI-nativen Anwendungen voranzutreiben. Wie die heutigen Vortragenden gezeigt haben, birgt jedes Segment, sei es E-Commerce-Fotografie, Bildungsförderung oder Embodied AI, das Potenzial für die Entstehung von Superanwendungen. Wir möchten mit unseren Rechenleistungsinfrastrukturen als Boot zusammen mit unseren Partnern in die Tiefen der KI-Branche segeln und zeitreisende KI-nativen Apps schaffen.