StartseiteArtikel

Wie können Unternehmen, die in ausländische Märkte expandieren, eine vierseitige Schutzmauer aus "Rechenleistung + Daten + Ökosystem + Compliance" aufbauen?

即氪出海2025-04-29 15:15
Wenn KI - Unternehmen ins Ausland expandieren, finden sich die echten Innovationen außerhalb des Hauptstroms der Aufmerksamkeit.

Angesichts der beschleunigten globalen AI-Wettfahrt wird das Expandieren von AI-Unternehmen in ausländische Märkte immer beliebter. Viele chinesische Unternehmen verfügen bereits über internationale Wettbewerbsfähigkeit auf globaler Ebene, sei es in Bezug auf Technologiefähigkeiten, Produkte oder kommerzielle Umsetzungswege. Dennoch stehen Unternehmen, die ins Ausland expandieren, vor Herausforderungen wie rechtlichen und kulturellen Barrieren.

Am 18. April veranstalteten 36Kr, TiDB und GMI Cloud gemeinsam eine exklusive High-Level-Konferenz mit dem Thema "Das neue Paradigma des AI-Expansions in den Auslandsmärkten: Vom globalen Engagement zum tiefen Einstieg in die Weltmärkte". Bei der Veranstaltung lud man Unternehmen aus verschiedenen Branchen ein, die ins Ausland expandieren, um Branchenbeobachtungen und Erfahrungen im Bereich des AI-Expansions in den Auslandsmärkten zu teilen. Es wurde eingehend über das aktuelle Auslandsengagement von AI-Unternehmen, Chancen und Herausforderungen, Infrastruktur sowie die Gewinnung ausländischer Kunden diskutiert.

Das Auslandsengagement von AI-Unternehmen: Situation und Chancen

Gast: Luo Wei, Partner des Cross-Border-Fonds von Yingdong Capital

Schlüsselwörter: Technologische Innovation, Lokalisierung, Arbitrage zwischen verschiedenen Sprachregionen

Die aktuelle globale Situation des AI-Expansions in den Auslandsmärkten lässt sich grob in drei Regionen einteilen: Nordamerika, Europa und Südostasien. Luo Wei ist der Meinung, dass die Kombination von technologischer Innovation und Lokalisierung sowohl eine Chance als auch eine Herausforderung für Unternehmen darstellt, die ins Ausland expandieren.

Heutzutage ist die Technologie bereits weitgehend "egalitär", und mit der Demokratisierung der Rechenleistung haben verschiedene Cloud-Anbieter lokale Präsenz aufgebaut, was die technologischen Hürden und Kosten senkt. Die Lokalisierung ist jedoch eine der größten Herausforderungen. Viele Unternehmen werden "kopiert und eliminiert", weil sie die Lokalisierung vernachlässigen. Luo Wei rät Unternehmen, nicht zu sparsam bei der Lokalisierung zu sein, da dies kein Option, sondern eine Notwendigkeit ist.

Die Chancen beim Auslandsengagement liegen in der "Arbitrage zwischen verschiedenen Sprachregionen". Die Zahlungsbereitschaft der Verbraucher in Japan und Südkorea ist ähnlich wie in Europa und den USA, aber der Wettbewerb ist geringer. AI-Anwendungen, die in den westlichen Märkten erfolgreich sind, können schnell auf die Märkte in Japan und Südkorea lokalisiert werden. Dies ist eine gute Einstiegsmöglichkeit für Unternehmer, die schnell Einnahmen generieren und "Geldkühe" aufbauen möchten.

Die Unternehmen, die ins Ausland expandieren, umfassen hauptsächlich Anbieter technologischer Lösungen, Dienstleister für vertikale Szenarien und Anbieter von Infrastruktur. Das Profil der Endkunden ist noch nicht vollständig ausgebildet. Luo Wei warnt davor, die sogenannte "Auslandserfahrung" großer Unternehmen zu fürchten. In vielen Fällen stehen Unternehmer und große Unternehmen auf gleicher Stufe, und manchmal verstehen die Unternehmer sogar besser. Dies ist eine echte Chance für Unternehmer und kleine und mittlere Teams.

Die Gewährleistung der Inferenzrechenleistung bei der globalen Explosion von AI-Anwendungen

Referent: King Cui, Präsident für den asiatisch-pazifischen Raum von GMI Cloud

Schlüsselwörter: AI-Infrastruktur, GPU-Cloud, Inferenz-Engine, elastische Kapazitätserweiterung

King hat beobachtet, dass seit letztem Jahr die AI-Anwendungen in eine Phase des schnellen Wachstums eingetreten sind. Dies ist auf die regelmäßige Aktualisierung der Basis-Modelle alle 3 - 6 Monate und die Verbesserung der Fähigkeiten der multimodalen Modelle in Bezug auf das Verständnis der physischen Welt und die Kontrollierbarkeit von Inhalten zurückzuführen. Gleichzeitig verschiebt sich der Bedarf von der Modell-Trainingsphase zur Inferenzphase, und die Kosten für das Ausführen von Inferenzmodellen sinken kontinuierlich, um mehr als 90 % pro Jahr. King glaubt, dass das Jahr 2025 das wahre "Jahr der AI" werden könnte.

Derzeit beschleunigt sich das Auslandsengagement chinesischer AI-Anwendungen und tritt in eine Phase der Skalierung ein. Laut Daten bis Ende 2024 gibt es weltweit 1.890 AI-Anwendungen von beträchtlicher Größe, wovon 356 aus China stammen. Davon sind 143 Auslands-Produkte, was mehr als 40 % ausmacht. Fast alle diese Auslands-Anwendungen nutzen die Inferenzdienste großer Modelle über API-Aufrufe und führen selten Voreinstellungen durch. Aus Sicht des ROI ist diese Methode kostengünstiger.

Während des globalen explosionsartigen Wachstums von AI-Anwendungen stehen diese vor vier Hauptherausforderungen:

Erstens müssen GPU-Dienste in vielen Teilen der Welt zur Verfügung gestellt werden.

Zweitens müssen elastische Rechenleistungsdienste basierend auf der elastischen Nachfrage der "Nutzerwachstums" und der Geschäftsplanung für das Wachstum bereitgestellt werden.

Drittens benötigen AI-Anwendungsunternehmen kostengünstige Inferenz-APIs, um ihre Inferenzbedürfnisse zu erfüllen.

Viertens muss die Stabilität der AI-Anwendungsdienste bei hohem Online-Traffic gewährleistet werden.

Daher müssen AI-Anwendungen, die ins Ausland expandieren, GPU-Dienste wählen, die über die Fähigkeit zur weltweiten Datenzentrum-Bereitstellung verfügen, elastische Kapazitätserweiterung und -verringerung unterstützen, stabil bleiben, wenn eine große Anzahl von Nutzern zugreift, und zugleich kostengünstig sind. Dazu bietet GMI Cloud nicht nur leistungsstarke GPU-Cloud-Dienste an, sondern wird auch zwei eigene Engines einsetzen, um die Stabilität der GPU-Cloud-Dienste und die Leistung der Modell-Inferenz zu verbessern.

Die beiden Engines sind die Cluster Engine und die Inference Engine. Die Cluster Engine ist eine private Cloud-Plattform, die Unternehmen bei der Modell-Trainings und -Anpassung hilft. Die Inference Engine ist eine Inferenzplattform, die Unternehmen bei der globalen Expansion unterstützt. Sie hat vier Vorteile - flexible Planung weltweit, zero-code-visuelle Bereitstellung, höhere Kosteneffizienz auf der Grundlage der neuesten GPU-Bereitstellung und die Garantie für die Überwachung und den Service des gesamten End-to-End-Prozesses.

Beim Thema Kosteneffizienz betont King das "Kostenverhältnis pro Leistungseinheit". Beispielsweise ist die Durchsatzleistung des optimierten H200 bei der Ausführung von DeepSeek-FP4 mehr als sechs Mal höher als die des H100, und die Durchsatzleistung des B200 ist 25 Mal höher als die des H100. Je fortschrittlicher der Chip ist, desto geringer sind die Gesamtkosten für die Inferenz. Dies bedeutet, dass der Kauf fortschrittlicher GPU-Dienste tatsächlich die Kosten senkt und die Effizienz erhöht.

Die "Dreirad" der AI-nativen Anwendungen

Gäste: Huang Dongxu, Mitbegründer und CTO von TiDB, und Alex Fan, Vizepräsident für den asiatisch-pazifischen Raum von TiDB

Schlüsselwörter: AI-native Anwendungen, Datenbank, Marktplatz-ähnliche Zusammenarbeit, Agenten

Wir befinden uns jetzt im Zeitalter der AI-Agenten. Huang Dongxu hat insbesondere seine Überlegungen zu AI-nativen Anwendungen geteilt. Er ist der Meinung, dass RAG veraltet ist und dass Agenten mit Gedächtnis eine eher AI-nativere Produktform als RAG-basierte Lösungen sind. Um echte AI-native Anwendungen zu realisieren, sind drei Schlüsselfaktoren erforderlich:

Große Modelle: Ob geschlossen oder offen - die Fähigkeiten der aktuellen großen Modelle sind bereits ausreichend, um die meisten alltäglichen Aufgaben zu bewältigen.

MCP (Model Context Protocol): Ein Standardprotokoll, das große Modelle mit externen Fähigkeiten verbindet.

Datenbank: Ein oft vernachlässigter, aber wichtiger Bestandteil. Das Problem ist, dass traditionelle Datenbanken und Data Lakes für Menschen, nicht für LLMs entwickelt wurden.

Wenn man von der Perspektive großer Modelle aus eine Datenbank von Grund auf neu entwirft, würde Huang Dongxu diese so gestalten: Sie muss die Eingabe von Rohdaten unterstützen, um den individuellsten Service durch große Modelle zu ermöglichen; verschiedene Daten speichern und effizient mit großen Modellen interagieren können; und bessere Zugangschnittstellen bieten.

In diesem Prozess wird der Wert von SQL erneut hervorgehoben. Er meint, dass SQL im Gegensatz zur natürlichen Sprache keine Halluzinationen hat, standardisiert und logisch klar ist. Es ist die stabilste Brücke zwischen großen Modellen und der realen Welt. Sowohl Volltextsuche, Vektorsuche als auch strukturierte Abfragen können schließlich über eine SQL-Schnittstelle durchgeführt werden.

Zurzeit kommunizieren Agenten über das A2A-Protokoll. Huang Dongxu glaubt, dass die zukünftige Kommunikation zwischen Agenten nicht über ineffiziente natürliche Sprache erfolgen sollte, sondern über geteilte Kontextgedächtnisse.

|Das Auslandsengagement ist nicht die Kopie amerikanischer Erfahrungen

Können chinesische Unternehmen den globalen Weg amerikanischer Unternehmen kopieren? Alex hat basierend auf den Auslandserfahrungen von TiDB die Antwort gegeben: Nein.

Die Logik der amerikanischen Unternehmen auf dem globalen Markt in der Vergangenheit war die Aufteilung nach Regionen und Branchen, wie z. B. China, USA, Japan, und dann die weitere Unterteilung in Finanzwesen, Spiele, E-Commerce usw. Dieser Weg ist für chinesische Unternehmen heute nicht mehr anwendbar. Es gibt viele Gründe, darunter kulturelle, organisatorische, Lieferketten- und technologische Unterschiede. Wichtiger ist, dass sich die Struktur des globalen Marktes heute tiefgreifend verändert hat, insbesondere im B2B-Sektor. Chinesische Unternehmen müssen einen neuen Weg gehen.

Nach Alex ist das Schlüsseldenkmodell für chinesische Unternehmen, die global expandieren, die marktplatz-ähnliche Zusammenarbeit. Er betont, dass man in den "globalen Marktplatz der Zusammenarbeit" eintreten und Teil der Weltarchitektur werden muss.

Wie man die Compliance sicherstellt

Referent: Liu Tianfeng, Internationaler Partner von Herbert Smith Freehills & He Ping Law Offices

Schlüsselwörter: Compliance-Strategie, Daten, geistiges Eigentum

Angesichts der gegenwärtigen Situation ist es eine zentrale Herausforderung für Unternehmen, die ins Ausland expandieren, mit den komplexen und sich ständig ändernden rechtlichen Regulierungen in verschiedenen Ländern und Regionen umzugehen.

Liu Tianfeng hat festgestellt, dass aus rechtlicher und compliance-sichtlicher Perspektive die AI-Branche in fünf Ebenen unterteilt werden kann: Hardwarebasis wie Chips, Datenspeicherung, Infrastruktur wie Rechenleistungsplattformen, Kerntechnologien wie Algorithmen von Basis-Modellen, verschiedene praktische AI-Anwendungen und die Endnutzer, die direkt mit AI-Produkten in Kontakt kommen. Je nach Position in der Wertschöpfungskette variieren die Compliance-Anforderungen und Risikopunkte.

Bei der Expansion ins Ausland müssen die Unternehmen insbesondere auf die folgenden rechtlichen Bereiche achten: Schutz personenbezogener Daten, Schutz der Verbraucherrechte, Netz- und Datensicherheit, Arbeitsrecht, Regulierung bestimmter Branchen (z. B. Medizin, Finanzwesen, Autonomes Fahren), Technologieethik, Antimonopolgesetze und Compliance im Bereich des geistigen Eigentums. Insbesondere bei der Datennutzung muss geklärt werden, ob die erforderlichen rechtlichen Genehmigungen vorliegen und wie personenbezogene Daten verarbeitet werden. Beim geistigen Eigentum muss überprüft werden, ob die Daten, die bei der Modell-Trainings verwendet werden, urheberrechtlich geschützt sind.

Angesichts der rechtlichen Herausforderungen bei der internationalen Unternehmensführung hat Liu Tianfeng eine systematische Compliance-Management-Strategie vorgeschlagen, die die Einrichtung einer AI-Regulierungsgruppe zur Definition von Ressourcen und Verantwortlichkeiten, die Stärkung der internen Unternehmenskommunikation zur Identifizierung potenzieller Risiken, die Identifizierung der geltenden Vorschriften am Anwendungsort, die Erstellung einer internen AI-Richtlinie zur Schaffung einer einheitlichen Handlungsweise, die Kombination der AI-Compliance-Strategie mit ESG- und Datenstrategien, die Erstellung von standardisierten Klauselmustern, die Durchführung einer AI-Einflussbewertung und die Organisation von Mitarbeiterausbildungen umfasst.

Jede Branche hat ihre eigene Strategie beim Auslandsengagement

Bei der aktuellen Welle des AI-Expansions in den Auslandsmärkten haben einige Unternehmen bemerkenswerte Ergebnisse erzielt. Diese Unternehmen haben AI-Produkte als Einstiegspunkt gewählt und den Markt durch Traffic-Management und Open-Source-Communities vertieft, um die Chancen des Auslandsengagements zu nutzen.

AI-Office: Die Eroberung von Traffic-Eingängen

Gast: Zhang Lei, Mitbegründer von PixelBloom (AiPPT.com)

Schlüsselwörter: AI-Office, Traffic