Zhang Hao, CTO von Huolala: Der Schlüssel zum Erfolg bei KI liegt nicht in den Basis-Modellen, sondern in den "Anwendungsfeldern".
Die Geschäftswelt im Jahr 2025 befindet sich am Kreuzweg zwischen Altem und Neuem. In einer Zeit, in der die geschäftliche Erzählung neu gestaltet wird und die Welle der Technologie über alles hinwegrollt, verfolgt die WISE2025 Business King Conference das Thema "Hier ist die Landschaft besonders schön" und versucht, in der Unsicherheit die sichere Zukunft des chinesischen Geschäfts zu bestimmen. Hier dokumentieren wir den Beginn dieses Gedankenschmausess und erfassen die Stimmen derer, die auch in Zeiten des Wandels unerschüttert vorwärtskommen.
Am 27. und 28. November fand die von 36Kr veranstaltete WISE2025 Business King Conference, die als "Jährlicher Leitfaden für Technologie und Geschäft" gilt, im Conduction Space im 798 Kunstviertel in Peking statt.
Dieses Jahr ist die WISE nicht mehr eine herkömmliche Branchenkonferenz, sondern ein immersives Erlebnis in Form einer "Technologie-Sensation-Serie". Vom Neuausrichten der Hardwaregrenzen durch KI bis hin zum Öffnen der Türen zur realen Welt durch Embodied AI; von der Globalisierung von Marken in der Auslandsausdehnungswelle bis hin zur "Cyber-Exoskelettierung" traditioneller Branchen - wir rekonstruieren nicht nur die Trends, sondern erfassen auch die Erkenntnisse, die in unzähligen Geschäftspraktiken gewonnen wurden.
In den folgenden Abschnitten werden wir die wahre Logik hinter diesen "Sensation-Serien" Schritt für Schritt aufschlüsseln und gemeinsam die "besonders schöne Landschaft" des Geschäfts im Jahr 2025 entdecken.
Nachfolgend der geschnittene Transkript einer Rede von Zhang Hao, CTO von Huolala:
Sehr geehrte Damen und Herren! Ich heiße Zhang Hao und bin der CTO von Huolala.
Im vorherigen Roundtable-Diskussionsabschnitt wurde darüber diskutiert, welche Branche von der KI derzeit am stärksten betroffen ist. Herr Qin von Sweet Potato Robotics antwortete, dass dies noch nicht erkennbar sei.
Jetzt möchte ich Ihnen die Umsetzung der KI in Huolala vorstellen. Ich werde nicht über die Zukunft sprechen, sondern nur über unseren Entwicklungspfad in den letzten zwei Jahren. Nach meiner Präsentation können Sie dann selbst beurteilen, wie stark die KI derzeit die Branche beeinflusst.
Sie sollten auf der Straße sicherlich schon Fahrzeuge von Huolala gesehen haben, daher werde ich nicht weiter auf unsere Geschäftsszenarien eingehen. Wir wurden ursprünglich in Hongkong gegründet und sind 2014 in das chinesische Festland expandiert. Bis heute haben wir also 12 Jahre Erfahrung. Neben China bieten wir unsere Dienstleistungen in über 400 Städten und Regionen in Südostasien und Südamerika an. Wir haben monatlich fast 20 Millionen aktive Nutzer und 2 Millionen aktive Fahrer. Für eine Vermittlungsplattform wie uns ist die wichtigste Aufgabe die Vermittlung von Transaktionen zwischen Ladungsgebern und Fahrern. Daher sind die Betriebseffizienz und die Nutzererfahrung die Kernkompetenzen von Huolala und auch die beiden Kernbereiche, in denen die KI am effektivsten eingesetzt werden kann.
Die Geschäftsszenarien und Umsetzungsphasen jeder Firma sind unterschiedlich. Vor zwei Jahren begannen wir, nach dem Aufstieg von ChatGPT, auch in diesem Bereich zu forschen. Das erste Problem, das wir lösen mussten, war, in welchen Bereichen die KI in unserem Branchenumfeld und Unternehmensaufbau am effektivsten eingesetzt werden kann.
Wir haben uns an der Bewertungsmethode aus dem KI-Research Report von Goldman Sachs aus dem Jahr 2023 orientiert und die Potenziale der Effizienzsteigerung durch KI quantifiziert, indem wir Job-Befragungen, Aufgabenaufschlüsselungen und Bewertungen der Automatisierungs-Schwierigkeit durchgeführt haben. Generative KI wird zunächst in Bereichen mit hoher Datendichte und hoher Arbeitsintensität eine Produktivitätsrevolution auslösen. Daher haben wir Geschäftssicherheit, Forschung und Entwicklung, Produkte und Betrieb als Prioritätsbereiche für die Umsetzung ausgewählt. In Bereichen, die eine hohe Sicherheit und eine geringe Fehlertoleranz erfordern, wie beispielsweise Datenanalyse, halten wir es noch für nicht die richtige Zeit.
Nach der Bestimmung der Entwicklungsrichtung kam es darauf an, wie wir die Technologie umsetzen sollten.
Wie alle Technologieunternehmen wollten wir Anfang 2023 auch ein Branchen-spezifisches Large Language Model (LLM) entwickeln. Wir haben also Ressourcen in die Entwicklung eines Branchen-LLM für den Frachtverkehr investiert und viel Zeit und Energie darauf verwendet.
Schlussendlich haben wir mit Geld und Zeit zwei Lehren gelernt:
Erstens: Die Entwicklung der Basis-LLMs ist rasant. Es lohnt sich nicht, viel Zeit in die Entwicklung einer Basis-LLM zu investieren. Stattdessen sollten wir uns auf die Umsetzung unserer digitalen Unternehmensressourcen, Geschäfts-APIs und Branchenkenntnisse konzentrieren.
Zweitens: Die Entwicklung unserer eigenen KI-Anwendungspaltform ist wichtiger als die Entwicklung einer Basis-LLM. Mit der Verbesserung der Basis-LLMs werden auch unsere eigenen KI-Anwendungen effizienter funktionieren.
Nach diesen Erkenntnissen haben wir unseren Fokus verlagert und uns nicht länger auf die Basis-LLMs konzentriert. Wir haben also in etwa einem Jahr drei umfassende Plattformanwendungen entwickelt: die Delfin-Plattform, die Monkey King-Plattform und die Evaluierungs- und Annotation-Plattform.
Ich möchte Ihnen kurz diese drei Plattformen vorstellen.
Das Ziel der Monkey King-Plattform ist es, dass auch Nicht-Experten innerhalb von fünf Minuten eine einfache Unternehmens-Intelligenz-Applikation in unserem Unternehmen entwickeln können.
Die Plattform hat drei wesentliche Merkmale:
Erstens: Eine visuelle Prozessorchestrierung, bei der man einfach die API-Schnittstellen unserer digitalen Unternehmensressourcen per Drag-and-Drop verbinden kann.
Zweitens: Die Möglichkeit, mit natürlicher Sprache einfache Intelligenz-Applikationen zu entwickeln, ohne Programmierungskenntnisse zu haben.
Drittens: Die Möglichkeit, ein Unternehmens-Werkzeugbibliothek und ein MCP zu entwickeln. Wie ich bereits erwähnt habe, sollten wir uns nicht so sehr auf der technologischen Ebene bewegen, sondern stattdessen unsere digitalen Unternehmensressourcen optimal nutzen.
Die Delfin-Plattform richtet sich an professionellere Algorithmen-Entwickler und soll die Effizienz von der Datentraining bis zur Modellentwicklung, dem Deployment und der Lebenszyklusverwaltung verbessern.
Wir möchten mit dieser internen Unternehmensplattform unseren Algorithmen-Ingenieuren Zeit bei der Ressourcenverwaltung, Datenverarbeitung, Modellentwicklung und -überprüfung sparen.
Natürlich ist der Evaluierungsschritt nach der Entwicklung und dem Deployment eines Modells sehr wichtig. Deshalb haben wir die Annotation-AB-Test-Plattform und die Huolala-Intelligenz-Evaluierung entwickelt, um die Effizienz bei der Modell-PK und der AB-Test-Splitting zu verbessern.
Früher hat man immer gesagt: "Künstliche Intelligenz ist so intelligent wie es Menschen gibt", weil man viel Zeit und Energie in die Annotation und Evaluierung von Daten investieren musste. Deshalb ist es wichtig, die Evaluierungsinstitutionen zu verbessern, um sicherzustellen, dass die Ergebnisse jedes Deployments zuverlässig und reproduzierbar sind.
Ich habe Ihnen kurz unsere drei Plattformen vorgestellt, und wir sind sehr stolz auf diese Entwicklung. Wir haben mit der Zeit eine Lehre gelernt: Die Large Language Models sind eine öffentliche Infrastruktur, die von Branchenführern und Großunternehmen bereitgestellt werden sollte. Die Plattformanwendungen hingegen müssen von den Unternehmen selbst entwickelt werden. Nur so können wir schneller vorankommen.
Jetzt möchte ich Ihnen einige Anwendungsfälle vorstellen. Ehrlich gesagt, sind diese Anwendungsfälle nicht revolutionär, aber ich denke, dass sie sich lohnen, weiterentwickelt und verbreitet zu werden, und es gibt auch einige kleine Innovationen.
Beispielsweise die Sicherheitskontrolle durch KI. In der Frachtbranche werden Sie, wenn Sie Huolala nutzen, sicherlich feststellen, dass es von Zeit zu Zeit Verstöße gegen die Regeln gibt, wie beispielsweise das Mitnehmen von Passagieren, das Transportieren von gefährlichen Gütern und gefährliche Fahrmanöver.
Als Plattformbetreiber müssen wir diese Verstöße zeitnah unterbinden. Der Zeitraum, in dem wir handeln müssen, ist jedoch sehr kurz, möglicherweise nur wenige Minuten. Wenn wir diese Verstöße nicht in diesen wenigen Minuten erkennen und unterbinden, kann es zu Problemen kommen.
Aufgrund der kurzen Zeitfenster für die Echtzeitüberwachung von sicheren Fahrmanövern und der hohen Genauigkeitsanforderungen haben wir mit Hilfe von Large Language Models, Spracheingabe, Bilderkennung und unstrukturierten Daten Echtzeitüberwachung und Interventionen durchgeführt und die gesamten Bestellprozesse in Ebenen aufgeteilt. Nach einem Jahr haben wir die Anzahl der riskanten Bestellungen bei der Beförderung von gefährlichen Gütern und dem Mitnehmen von Passagieren um 30 % reduziert, und die Erinnerungsrate für Bestellungen beträgt jetzt 100 %.
Zweitens: Jede Technologieunternehmen nutzt KI-Coding, und ein wichtiges Problem, das man sich stellen muss, ist, ob KI-Coding die Effizienz in der Forschung und Entwicklung verbessern kann. Die Antwort ist ja.
Seit wir vor einem Jahr KI-Coding nutzen, verwenden derzeit 90 % unserer Individuen und Teams KI-Coding. Darüber hinaus hat KI-Coding eine Penetrationsrate von 60 % in unserem gesamten Forschungs- und Entwicklungsprozess erreicht, von der Anforderungsanalyse bis zur Entwicklung, dem Deployment, der Fehlersuche und der Überwachung. Die Penetrationsrate ist also relativ hoch.
Allerdings ist die Effizienzsteigerung durch KI-Coding derzeit noch begrenzt. Wir schätzen, dass KI-Coding die Arbeitsleistung um etwa 10 % verbessern kann. Wenn Sie ein Software-Entwickler sind, wissen Sie, dass Programmierer nicht die ganze Zeit am Schreibtisch sitzen und Code schreiben. Wir haben berechnet, dass Programmierer etwa 30 % ihrer Arbeitszeit mit dem Schreiben von Code verbringen. Wenn wir annehmen, dass 30 % des Codes durch KI-Coding generiert werden, beträgt die Gesamtquote der Code-Generierung durch KI-Coding nur etwa 10 %. Dies ist noch nicht sehr hoch.
Wir haben festgestellt, dass KI-Coding in neuen Projekten und Frontend-Aufgaben große Mengen an Code generieren kann. Bei komplexen Geschäftslogiken müssen die Entwickler jedoch oft mit der KI kommunizieren, um die richtige Logik zu erhalten, und es ist nicht immer gewährleistet, dass der generierte Code auch eingesetzt wird.
Das bedeutet, dass zwar die Zeit für das Schreiben von Code reduziert wird, aber die Zeit für die Überprüfung, Fehlerbehebung und Tests erhöht wird. Insgesamt ist die Effizienzsteigerung daher nicht so hoch.
Hier sind noch einige weitere Anwendungsfälle mit kleinen Innovationen. Beispielsweise die Funktion "Foto aufnehmen, Fahrzeug auswählen". Viele Nutzer wissen nicht, welches Fahrzeug für welche Ladung am besten geeignet ist, und einige wissen auch nicht, wie groß und schwer ihre Ladung ist. Wir haben daher eine Funktion entwickelt, bei der die Nutzer ein Foto ihrer Ladung machen können. Die KI kann dann die Ladung per Point Cloud Segmentation analysieren, das Volumen berechnen und automatisch das am besten geeignete Fahrzeug auswählen. Dies geschieht in etwa 10 Sekunden. Diese Funktion hat sich sehr gut bewährt.
Als Internetunternehmen erhalten wir täglich Tausende von Nutzer-Feedbacks. Die Inhalte dieser Feedbacks sind sehr vielfältig, und es ist sehr zeitaufwendig, sie zu kategorisieren und zu analysieren. Wir haben daher ein Nutzer-Feedback-Analyse-Tool entwickelt, das mit Hilfe von Large Language Models die Feedbacks automatisch kategorisiert und zusammenfasst. Dadurch können wir schnell auf die Wünsche und Anregungen der Nutzer reagieren.
Wir haben festgestellt, dass diese Methode sehr effektiv ist. Beispielsweise haben wir festgestellt, dass viele Nutzer beschweren, dass die Rechnungsstellung zu langsam ist. Solche Informationen, die früher möglicherweise übersehen wurden, können jetzt sehr genau erfasst werden.
Außerdem gibt es in vielen Unternehmen das Problem, dass es mit der Zeit viele Wissenslücken gibt. Beispielsweise wissen Sie möglicherweise nicht mehr, wer ein bestimmtes Produkt entwickelt hat und warum es so entwickelt wurde. Wir haben daher ein KI-basiertes Wissensmanagement-System entwickelt, das alle Unternehmensdokumente, Code-Repositories und Konfigurationen sammelt und analysiert. Mit diesem System können wir viele historische Probleme lösen, insbesondere die Probleme mit Wissensmüll und interdepartementaler Zusammenarbeit.
In unserem Geschäftsprozess müssen wir unseren Nutzern täglich Tausende von SMS senden. Die Kosten für SMS sind nicht gering, und es gibt viele Möglichkeiten, diese Kosten zu senken. Die SMS-Inhalte werden von Menschen geschrieben, und es gibt daher immer Raum für Verbesserungen. Large Language Models sind daher ideal für die Optimierung von SMS-Inhalten. Mit Hilfe von intelligenten Optimierungs- und Analyse-Algorithmen können wir die SMS-Inhalte vereinfachen und optimieren, so dass wir etwa 12 % der SMS-Kosten einsparen können.
Außerdem gibt es ein potenzielles Risiko, dass eine fehlerhafte SMS an Millionen von Nutzern gesendet wird. Large Language Models können die Risiken von SMS-Inhalten vorhersagen und uns helfen, diese Risiken zu vermeiden.
Heutzutage sind digitale Personen dank der KI-Technologie allgegenwärtig. Früher hatten virtuelle Assistenten nur eine Text- oder Sprachschnittstelle, und es fehlte ihnen eine menschliche Präsenz. Wir haben daher digitale Personen entwickelt, die als Geschäftspartner eingesetzt werden können. Diese digitalen Personen werden sowohl in internen als auch in externen Geschäftsszenarien eingesetzt und haben sich sehr gut bewährt.
Beispielsweise hatten unsere KI-Assistenten früher Probleme, Dialekte zu verstehen und die Fragen der Nutzer korrekt zu beantworten. Außerdem hatten die Nutzer Schwierigkeiten, sich auf die Antworten der KI-Assistenten zu verlassen, weil sie wussten, dass es sich um KI handelt. Wir haben daher ein System entwickelt, das die KI-Assistenten mit Dialekten und menschlichen Stimmen ausstattet, um die menschliche Präsenz zu erhöhen. Dadurch können wir die menschliche Präsenz unserer KI-Assistenten auf 92 % erhöhen, was sehr gut ist.
Außerdem können die Nutzer in Online-Szenarien oft emotional reagieren, wenn sie mit KI-Kundendienstmitarbeitern interagieren. In solchen Fällen müssen wir die Nutzer beruhigen und sie in die richtigen Geschäftsszenarien lenken