StartseiteArtikel

Zusammenarbeit in der Cloud: Wie definiert KI das nächste Generation intelligenter Endgeräte?

晓曦2025-09-05 11:49
Entwickeln Sie ein replizierbares Paradigma für die Zusammenarbeit zwischen Edge und Cloud, um die skalierbare Umsetzung von KI-Fähigkeiten in allen Branchen zu beschleunigen.

Eine neue Welle der künstlichen Intelligenz breitet sich von der Cloud auf jedes Bildschirm und jedes Gerät um uns herum aus. Von AI-PCs und AI-Smartphones bis hin zu vielfältigen intelligenten Robotern beschleunigt sich eine Branchentransformation. Dies ist nicht einfach eine Funktionsübertragung, sondern eine Entwicklung, die von AI und der Endgeräteerfahrung gemeinsam angetrieben wird und die Interaktionsweise zwischen Menschen und Maschinen neu gestalten wird.

Wenn die AI jedoch zu den Endgeräten gelangt, sind die Herausforderungen, denen sie gegenübersteht, weit komplexer als erwartet. Wie kann man Kosten und Benutzererfahrung ausbalancieren? Wie kann man die Datensicherheit und Privatsphäre gewährleisten? Wie kann man die allgemeinen Großmodelle an die einzigartigen Anforderungen verschiedener Branchen anpassen?

Ein klarer Branchenkonsens ist: Der Aufstieg der Edge-Intelligenz soll nicht von der Cloud getrennt sein, sondern ein intelligentes Modell der „Cloud-Edge-Kooperation“ aufbauen. Dieses Modell ist nicht einfach eine Aufgabe-Zuteilung, sondern eine präzise Planung basierend auf den Szenarioanforderungen, deren Ziel ist, die beste Balance zwischen Benutzererfahrung, Kosten und Sicherheit zu erreichen. In der praktischen Umsetzung wird diese Kooperationsstrategie hauptsächlich von vier Kernantriebskräften bestimmt:

● Echtzeitfähigkeit und Sicherheit. In Bereichen wie Robotik und autonomem Fahren kann eine Verzögerung im Millisekundenbereich sicherheitsrelevante Probleme verursachen. Die „neuronale Steuerung“ von Robotern muss am Edge abgeschlossen werden, da das Risiko, nur auf die Kommunikation mit der Cloud zu vertrauen, nicht akzeptabel ist. Dies ist der unverzichtbare Kernwert der Edge-Rechenleistung, die die Zuverlässigkeit von intelligenten Geräten in kritischen Situationen gewährleistet.

● Datenschutz und Compliance. Der Schutz der Privatsphäre von Benutzerdaten ist von größter Wichtigkeit. Einige Daten eignen sich nicht für das direkte Hochladen in die Cloud, daher ist die lokale Verarbeitung eine unvermeidliche Wahl. Dies bedeutet, dass leistungsstarke Modelle am Edge bereitgestellt werden müssen, um sensible Informationen zu verarbeiten.

Balancing von Kosten und Effizienz. Das Verlegen von häufigen und relativ einfachen Aufgaben an den Edge kann die Cloud-Inferenzkosten erheblich senken; komplexere Aufgaben wie Wissensabfragen, komplexe logische Schlussfolgerungen und die Aktualisierung von Modellen können von der Cloud mit ihrer größeren Rechenleistung und Effizienz besser bewältigt werden. Diese fein abgestimmte Arbeitsteilung ist der Schlüssel für die skalierbare kommerzielle Implementierung.

● Globale Koordination und Optimierung. Die Cloud fungiert eher als ein Koordinations- und Verwaltungsportal. Sie integriert verteilte Endgeräte zu einem organischen Ganzen, gewährleistet über eine globale Perspektive den optimalen Betrieb des Systems und erzielt durch die Cluster-Scheduling einen Synergieeffekt von „1 + 1 > 2“, wodurch das Managementproblem bei der Masseninstallation von Geräten gelöst wird.

Das Schaffen von intelligenten Endgeräten mit hervorragender Benutzererfahrung ist ein komplexes Systemprojekt, das kein einzelnes Unternehmen allein bewältigen kann. Hardware, Cloudplattformen, Algorithmen und Daten sind alle unverzichtbare Bestandteile der Branchenkette. Ein offenes und kollaboratives Ökosystem ist der Konsens, um die Branche voranzubringen.

In diesem Ökosystem ist die Rollenverteilung klar: Hardwarehersteller stellen die physischen Träger bereit, Algorithmenunternehmen konzentrieren sich auf die Forschung und Optimierung von Kernmodellen, und Plattformen wie Alibaba Cloud, die über eine umfassende AI-Cloud-Kompetenz verfügen, spielen die Rolle des „intelligenten Grundpfeilers“. Sie bieten nicht nur das Modell selbst, sondern auch einen „ganzheitlichen“ Service von der untersten Rechenleistung, Datenverarbeitung, Modelltraining und -bereitstellung bis hin zur Anwendungsentwicklung. Dadurch können Innovatoren ihre Energie auf die Bereiche konzentrieren, in denen sie am besten sind - sei es das Verständnis der Benutzerbedürfnisse oder das Verständnis der Mensch-Maschine-Interaktion - und so die Forschung und Entwicklung sowie die Iteration von Produkten beschleunigen.

Im Folgenden finden Sie die Inhalte eines Dialogs zwischen Zou Ping, Direktorin des 36Kr Research Institutes, Huang Bolin, Vizepräsident der Future Education Group (Seewo) von CVTE, Zhang Zhizheng, Mitbegründer von Galaxy Universal, Yan Xin, leitender Algorithmusingenieur für Embodied Intelligence der Xinyan Group und Zheng Haichao, Leiter der Lösungen für das Tongyi Großmodell der Alibaba Cloud Intelligence Group, nach der Bearbeitung durch 36Kr:

01. Wegwahl und Methodologie für die Umsetzung von Edge-Intelligenz

36Kr: Einige Unternehmen entscheiden sich dafür, kleine Modelle am Edge bereitzustellen, andere bieten Benutzern Dienste über die Cloud an. Wie haben Sie Ihre technologische Entwicklungspfade gewählt?

Huang Bolin: Zunächst sollten wir uns auf die Bedürfnisse der Kunden konzentrieren. Seewo ist eine Bildungsmarke und beschäftigt sich mit Bildungsinformatik. Ein repräsentatives Produkt von uns ist der Seewo Learning Machine. Die Bedürfnisse von Kindern unterschiedlicher Altersgruppen sind unterschiedlich. Bei der Entscheidung, ob das Großmodell am Edge oder in der Cloud eingesetzt wird, berücksichtigen wir hauptsächlich, ob es den Bedürfnissen der Kinder in diesem Alter entspricht.

Der von uns gewählte technologische Pfad ist die Kombination von Edge und Cloud. Probleme, die von traditionellen Modellen wie der Bilderkennung gelöst werden können, werden am Edge behandelt, während relativ komplexe und nicht-standardisierte Probleme in die Cloud geleitet werden. Letztendlich dient alles den Bedürfnissen der Kunden.

Zhang Zhizheng: Die Veränderungen, die Großmodelle für den Bereich der Embodied Intelligence bringen, ermöglichen es Robotern, ein intelligentes Gehirn zu haben. Galaxy Universal möchte Roboter aufbauen, die von Großmodellen angetrieben werden.

Die traditionelle Bewegungskontrolle von Robotern basiert auf harter Programmierung, was bedeutet, dass die Bewegungen festgelegt werden müssen und man sich hauptsächlich auf die Wiederholgenauigkeit konzentriert. Mit der Einführung von Großmodellen können wir die Roboterentwicklung auf die Erfolgsrate von Aufgaben ausrichten. Ein intelligentes Gehirn für Roboter hat drei Bedeutungen: Erstens wird die Generalisierungsfähigkeit der Roboter qualitativ verbessert. Zweitens wird nicht nur ein einzelner Aspekt ersetzt, sondern die gesamte Kooperations- und Interaktionsweise wird neu strukturiert. Drittens verbindet das Großmodell die gesamte Schleife von Daten, Modell und Rechenleistung. Wenn wir das Großmodell für Embodied Intelligence in konkrete Szenarien einsetzen, können die Roboter lernen und sich selbst verbessern, um eine umfassende Lösung zu bieten und so Haushalte und verschiedene Branchen zu befähigen und schließlich Produktivität zu schaffen.

Yan Xin: Die Xinyan Group entwickelt hauptsächlich emotionale Begleitroboter, deren Kern die emotionale Intelligenz ist.

Wir haben eine Strategie der Kombination von Cloud, Edge und Endgerät gewählt. Am Edge können die Roboter multimodale und unstrukturierte Daten über Modelle erfassen und müssen Echtzeitfähigkeit, Robustheit und Sicherheit gewährleisten. In der Cloud verwenden wir Modelle mit mehr Parametern, um bessere Planungs- und Entscheidungsfähigkeiten zu bieten.

36Kr: Als eine digitale Plattform, die verschiedene Branchen befähigt, kann Alibaba Cloud einige Methodologien für die Umsetzung von Geschäftslösungen zusammenfassen, um den punktuellen Problemen in verschiedenen Branchen zu begegnen?

Zheng Haichao: Aus einer breiteren Perspektive betrachtet, hängt es letztendlich von der tatsächlichen Umsetzung von Unternehmensszenarien und der gesamten Geschäftsmodell-Schleife ab. Bei der Umsetzung sollten drei Kombinationen berücksichtigt werden:

Erstens die Kombination von Großmodellen und kleinen Modellen. Um eine vollständige Geschäftslösung zu erreichen, müssen möglicherweise kleine Modelle am Edge bereitgestellt werden. Wenn jedoch ein Großmodell erforderlich ist, um bessere Ergebnisse zu erzielen, sollten wir die Cloud nutzen.

Zweitens die Kombination von Cloud und Edge. In Spracheszenarien ist die Latenz besonders wichtig, daher müssen einige Vorverarbeitungsschritte am Edge durchgeführt werden. Auch bei datenschutz- und sicherheitsrelevanten Daten möchten Benutzer diese lieber am Edge verarbeiten lassen.

Drittens die Kombination von generativen Großmodellen und diskriminativen Modellen. Bei der Geschäftsdurchführung müssen nicht immer Modelle eingesetzt werden. Man kann auch Regeln schreiben. Wenn ein einfaches Problem durch eine Regel gelöst werden kann, muss es nicht durch das Großmodell gehen. Denn Großmodelle erhöhen die Zeit- und Kostenaufwendungen, und die Rechenleistung am Edge ist begrenzt. Daher halten wir diese drei Kombinationen für entscheidend bei der tatsächlichen Umsetzung von Geschäftslösungen.

02. Technische Herausforderungen bei der massenhaften Umsetzung von Edge-AI

36Kr: Von der anfänglichen Erkundung bis zur massenhaften Umsetzung hat Galaxy Universal bei der Leichtgewichtigkeit von Modellen, der Anpassung der Rechenleistung und der Optimierung der Inferenz bestimmte technische Engpässe erlebt. Welche Lösungen wurden gefunden?

Zhang Zhizheng: Galaxy Universal möchte die neuesten Großmodelle für Embodied Intelligence in verschiedene Szenarien einführen.

Zum Beispiel legt der industrielle Sektor großen Wert auf Datenschutz sowie Arbeitsrhythmus und Effizienz. Daher muss die neuronale Steuerung am Edge erfolgen. Bei den vielfältigen Szenarien und Anforderungen sollten wir drei Dinge berücksichtigen: Erstens Verhaltensweisen, die mit der Sicherheit zusammenhängen; zweitens das Problem der Latenz; drittens die Privatsphäre der Daten. Daten, die die Privatsphäre der Benutzer betreffen, müssen am Edge verarbeitet werden und nicht in die Cloud hochgeladen werden.

Was dann in die Cloud geleitet werden sollte? Erstens versuchen wir, den Lernprozess so weit wie möglich in die Cloud zu verlagern, da die Rechenleistung in der Cloud stärker und die Lernrate effizienter ist. Zweitens bei Situationen, die weniger an Latenz, aber mehr an Komplexität interessiert sind, wie z.B. das Auflösen eines verwickelten Kabels durch einen Roboter.

36Kr: Die Benutzer haben unterschiedliche Anforderungen an die Intelligenz von Software und Hardware. Wie wurde der Algorithmus des AI-Begleitroboters von Xinyan für die Arbeit in komplexen und unstrukturierten Umgebungen entworfen, und welche Herausforderungen gibt es bei der Modellbereitstellung?

Yan Xin: Das Heimumfeld ist ein sehr komplexes und offenes Umfeld mit unstrukturierten und multimodalen Daten. Die Herausforderung bei der Algorithmusentwicklung besteht darin, diese Daten über multimodale Modelle zu erfassen und emotionale Informationen daraus zu extrahieren.

Dank Alibaba Cloud und dem multimodalen Modell wie Qwen2.5-Omni sowie den reichen multimodalen Daten, die in den letzten zehn Jahren gesammelt wurden, haben wir in dieser Richtung viele Erkundungen unternommen. Dies erfordert die stabile Quantifizierung des Modells.

Ein Roboter muss in Echtzeit, stabil und sicher arbeiten. Wir teilen den gesamten Prozess in drei Teile auf: Wahrnehmung, Planung und Entscheidung. Die Planung und Entscheidung werden von Modellen in der Cloud übernommen, die eine starke Reasoning-Fähigkeit und Agent-Fähigkeit haben müssen. Bei Heimbegleitrobotern müssen die Modelle für die Wahrnehmung am Edge bereitgestellt werden, um Privatsphäre, Sicherheit und Echtzeitfähigkeit zu gewährleisten.

36Kr: Kann Seewo uns ein erfolgreiches Beispiel für die AI-Anwendung mit Cloud-Edge-Kooperation teilen und die Veränderungen der Benutzererfahrung für Lehrer und Schüler beschreiben?

Huang Bolin: Ein typisches Beispiel ist die Bewertung der Qualität eines Unterrichts. Das Klassenzimmer ist ein Szenario, in dem die Personen und die Aufgaben relativ festgelegt sind, aber die Ereignisse sehr komplex sind.

Die Herausforderung für das Großmodell besteht darin, auf diese Situationen zu reagieren. Vor zwei Jahren haben wir mit der Forschung und Entwicklung eines Projekts begonnen. Wir haben die Aufgabe in acht Teile aufgeteilt und diese sukzessive an das Großmodell in der Cloud gesendet. Anschließend haben wir die Ergebnisse zu einem vollständigen Bericht zusammengefügt. Wenn der Bericht an Lehrer und Schüler weitergeleitet wird, muss er zeitnah sein. Wir können einen Bewertungsbericht für einen Unterricht innerhalb von fünf Minuten nach dem Unterrichtsende liefern.

Die Herausforderungen hinter diesem Prozess sind, dass die Bewertung fair sein muss, was auf professionelle Unterrichtsbewertungsmethoden angewiesen ist, und gleichzeitig die Zeitbeschränkung eingehalten werden muss. Dies erfordert die Vorverarbeitung komplexer Aufgaben, d.h. die Verarbeitung während der Aufzeichnung. Wir stellen ein 7B-Modell lokal bereit und kombinieren es mit Tongyi Qianwen für die Intentionenerkennung, um bessere Ergebnisse zu erzielen.

36Kr: Um den nicht-generischen Anforderungen verschiedener Branchen gerecht zu werden, welche standardisierten Werkzeuge oder Lösungen kann Alibaba Cloud anbieten?

Zheng Haichao: Zunächst hat Tongyi, das von Alibaba selbst entwickelte und quelloffene Basis-Großmodell, als erstes die Offenlegung in „allen Größen, allen Modalitäten und vielen Szenarien“ erreicht. Es umfasst verschiedene Modalitäten wie Text, Bild, Video, Sprache und Codierung und bietet in jeder Modalität Modelldienste unterschiedlicher Spezifikationen. Zweitens bieten wir eine vollständige Trainingsumgebung. Die Großmodell-Serviceplattform “Bailian” ermöglicht es den Nutzern, verschiedene Basis-Modelle zu nutzen, eigene Daten hochzuladen und in Kombination mit den Daten der Tongyi-Modellfamilie gemischtes Training durchzuführen, um dann die Modelle bereitzustellen und die Inferenz durchzuführen. Schließlich können wir bei besonderen Anforderungen eine maßgeschneiderte Lösung anbieten. Basierend auf der maßgeschneiderten Werkzeugplattform von Alibaba Cloud helfen wir Ihnen, ein eigenes maßgeschneidertes Modell zu erstellen.

03. Schaffung eines gewinnbringenden Ökosystems durch umfassende AI-Kompetenz

36Kr: Welche Maßnahmen wird Alibaba Cloud in Zukunft ergreifen, um den Anforderungen verschiedener Branchen gerecht zu werden und die Offenlegung von Quellcode und die gemeinsame Entwicklung der Branche voranzutreiben?

Zheng Haichao: Alibaba Cloud wird auf mehreren Ebenen zusammenarbeiten.

Auf der Infrastrukturebene hat Alibaba Cloud Infrastrukturen weltweit aufgebaut, um eine stabile und kostengünstige Rechenleistung für den Prozess des Modelltrainings und der Inferenzservice bereitzustellen. Auf der Ebene der Daten- und Modell-Serviceplattform bietet die KI-Plattform PAI effiziente und kostengünstige technische Unterstützung für die Modelldienste über den gesamten Lebenszyklus von „