Warum wird Edge-AI zur neuen Auseinandersetzungsfront für große Unternehmen?
Im Verlauf der Entwicklung der Künstlichen Intelligenz (KI) war die Cloud-KI in der frühen Phase die führende Kraft in der Branche, dank ihrer starken Rechenleistung und der Fähigkeit zur zentralisierten Datenverarbeitung. Mit der ständigen Erweiterung der Anwendungsgebiete, insbesondere in Bereichen wie dem Internet der Dinge (IoT), autonomem Fahren und industrieller Steuerung, werden jedoch die Grenzen der Cloud-KI immer deutlicher. Laut einer Studie der International Data Corporation (IDC) werden die globalen Ausgaben für Edge-Computing-Lösungen im Jahr 2025 fast 261 Milliarden US-Dollar betragen, mit einer geschätzten durchschnittlichen jährlichen Wachstumsrate (Compound Annual Growth Rate, CAGR) von 13,8 %. Bis 2028 sollen sie auf 380 Milliarden US-Dollar steigen. Der Einzelhandel und der Dienstleistungssektor werden den größten Anteil an den Investitionen in Edge-Lösungen haben, mit fast 28 % der globalen Gesamtausgaben. Diese Zahlen zeigen deutlich, dass das Schwergewicht der Branche von der Cloud zum Edge verschoben wird.
Es besteht immer größere Sorge, dass die Künstliche Intelligenz in die Blasenzone rutscht. Eine Studie namens "Die Kluft der Generativen KI: Der Zustand der Geschäftlichen KI im Jahr 2025", veröffentlicht von dem NANDA-Projekt des Massachusetts Institute of Technology (MIT), hat festgestellt, dass 95 % der Unternehmen nach der Entwicklung von generativen KI-Tools kaum eine Produktivitätssteigerung erzielt haben. Selbst Sam Altman, der Chef von OpenAI, hat zugegeben, dass die Anleger möglicherweise übermäßig aufgeregt über die KI seien und den gegenwärtigen Markt mit einer Blase vergleiche.
Dennoch sind die Branchenexperten der Meinung, dass diese Kritik hauptsächlich auf den Cloud-basierten KI-Markt und die Softwarealgorithmen abzielt.
01
Warum brauchen wir Edge-KI-Generierung?
Die derzeitigen führenden großen Sprachmodelle, von OpenAIs GPT, Googles Gemini, Anthropics Claude bis hin zum beliebten chinesischen DeepSeek, verlassen sich fast alle auf die KI-Cloud-Computing, um Generierungsaufgaben zu erledigen. Dieses Modell, das auf entfernten Servern basiert, kann dank seiner starken Rechenleistung problemlos komplexe Anforderungen wie das Training von großen Modellen und die Synthese von hochauflösenden Bildern bewältigen und hat eine sehr hohe Skalierbarkeit – von den alltäglichen Fragen der Privatnutzer bis hin zur Massenbereitstellung für Unternehmen kann es flexibel angepasst werden. Für die meisten Nutzer ist diese Art von Erfahrung bereits ausreichend.
Aber in Unternehmensanwendungen oder komplexeren Szenarien werden die Schwächen des Cloud-Modells immer deutlicher: Erstens ist die Latenz relativ hoch, und die Reaktionsgeschwindigkeit bei komplexen Aufgaben kann leicht durch Netzwerkschwankungen beeinträchtigt werden. Zweitens ist es stark vom Netzwerk abhängig, und ohne Netzwerkverbindung kann es nicht verwendet werden. Am wichtigsten ist das Risiko der Datenschutzverletzung – eine große Menge an Originaldaten muss in die Cloud hochgeladen werden, was nicht nur die Bandbreitenkosten erhöht, sondern auch das Risiko der Datenschutzverletzung aufgrund von Schwachstellen bei der Übertragung oder Speicherung birgt. Dies ist besonders problematisch für sensible Bereiche wie die Medizin und die Finanzbranche.
Deshalb werden die Vorteile der Edge-generativen KI immer deutlicher. Sie bringt die Generierungsfähigkeit direkt auf lokale Geräte – es kann unser Smartphone, eine Überwachungskamera, ein autonomes Fahrzeug oder eine Industriemaschine sein. Die Datenverarbeitung wird vollständig lokal durchgeführt, und sensible Informationen müssen nicht das Gerät verlassen, was von Grund auf den Datenschutz gewährleistet. Gleichzeitig ist die geringe Latenz der Edge-KI wie ein "Retter für Echtzeitszenarien": Beim autonomen Fahren ist eine millisekundengenaue Straßensituationseinschätzung erforderlich, und die industrielle Automatisierung hängt von sofortigen Gerätefehlerwarnungen ab. In diesen Szenarien, die eine sehr hohe Reaktionsgeschwindigkeit erfordern, kann die Edge-KI präzise angepasst werden. Noch wichtiger ist, dass es keine häufige Datenübertragung erfordert, was die Bandbreitenanforderungen erheblich reduziert. Selbst in abgelegenen Gebieten ohne Netzwerk oder in Industriehallen mit schwachem Signal kann es unabhängig funktionieren, und seine Stabilität und Zuverlässigkeit sind weitaus höher als beim Cloud-Modell.
Der technische Ansatz des Edge-Intelligentsen lässt sich bis in die 1990er Jahre zurückverfolgen, als es in Form von Content Delivery Networks (CDN) aufkam. Ursprünglich sollte es über Server am Netzwerkrand die Netzwerkdienste und die Videoinhaltsverteilung für die Nutzer vor Ort ermöglichen. Das Hauptziel war es, die Belastung des zentralen Servers zu reduzieren und die Effizienz der Inhaltsübertragung und -zugriffs zu verbessern.
Mit dem explosionsartigen Wachstum der Internet der Dinge (IoT)-Geräte und der Verbreitung der 4G- und 5G-Mobilfunktechnologien hat die globale Datenproduktion exponentiell zugenommen, und wir sind allmählich in die Zettabyte (ZB)-Ära eingetreten. In diesem Zusammenhang haben die traditionellen Cloud-Computing-Architekturen allmählich ihre Schwächen gezeigt: Die Daten müssen vollständig in die Cloud übertragen werden, was nicht nur hohe Bandbreitenkosten verursacht, sondern auch aufgrund der Übertragungsdistanz zu einer hohen Latenz führt. Gleichzeitig birgt die Datenübertragung über das Netzwerk auch das Risiko der Datenschutzverletzung, und es ist schwer, den Anforderungen von Szenarien mit hoher Echtzeit- und Sicherheitsanforderung gerecht zu werden.
Im 21. Jahrhundert wurde das Konzept des Edge-Computings offiziell eingeführt, um die Probleme des Cloud-Computings zu lösen. Der Kerngedanke ist, die Datenverarbeitungsschritte von der Cloud auf die Edge-Knoten in der Nähe der Datenquelle zu verlagern. Indem die Daten vor Ort vorselektiert, verarbeitet und weitergeleitet werden, kann die Menge an Daten, die in die Cloud hochgeladen werden müssen, erheblich reduziert werden, was die Bandbreitenbelastung und die Latenz verringert. Aber in dieser Phase konzentrierte sich das Edge-Computing hauptsächlich auf die Optimierung des Datenverarbeitungsprozesses und war noch nicht mit der Künstlichen Intelligenz (KI)technologie kombiniert, und es gab keine Bereitstellung und Anwendung von KI-Algorithmen.
Nach 2020, mit der Reife der KI-Technologie (insbesondere der leichten Modelle und der energieeffizienten Rechentechnologie), begann das Edge-Computing und die KI, sich tief zu integrieren, und "Edge-Intelligenz" als eine unabhängige integrierte Technologie begann offiziell aufzusteigen. Sein Kernmerkmal ist die Bereitstellung von KI-Algorithmen (einschließlich der Inferenz- und Trainingsschritte) auf Edge-Geräten (wie IoT-Endgeräten und Edge-Servern) in der Nähe der Datenquelle. Somit kann sowohl die Echtzeitverarbeitung der Daten und die Entscheidungsfindung mit geringer Latenz erreicht werden, als auch die Originaldaten in die Cloud hochgeladen werden, was von Grund auf den Datenschutz gewährleistet.
Wenn man sich die Entwicklung der Edge-Intelligenz anschaut, kann man sie eindeutig in drei Kernphasen einteilen: In der ersten Phase stand die "Edge-Inferenz" im Mittelpunkt, und das Modelltraining wurde immer noch in der Cloud durchgeführt. Die trainierten Modelle wurden dann an die Edge-Geräte geschickt, um Inferenzaufgaben auszuführen. In der zweiten Phase kamen wir in die "Edge-Trainingsphase". Mit Hilfe von automatisierten Entwicklungstools wurde der gesamte Prozess des Modelltrainings, der Iteration und der Bereitstellung auf den Edge verlagert, was die Abhängigkeit von Cloud-Ressourcen verringerte. Die dritte Phase und die zukünftige Entwicklungstrends ist die "Autonome Maschinelles Lernen". Das Ziel ist, dass die Edge-Geräte die Fähigkeit haben, sich selbst zu erkennen und sich selbst anzupassen, und dass sie die Modelloptimierung und die Fähigkeitsverbesserung ohne menschliche Intervention durchführen können.
Natürlich bedeutet dies nicht, dass die Cloud-KI ersetzt wird. Bei der Bearbeitung von extrem großen Modellen und komplexen Aufgaben, die die Zusammenarbeit zwischen verschiedenen Geräten erfordern, ist die starke Rechenleistung der Cloud immer noch unverzichtbar. Die zukünftige Tendenz wird eher eine Ergänzung zwischen "Cloud und Edge" sein: Die Cloud ist für das Training und die Optimierung der unteren Modelle zuständig, und der Edge ist für die Echtzeitbereitstellung und die Datenverarbeitung in lokalen Szenarien zuständig. Zusammen können sie die Rechenleistung der Cloud nutzen und gleichzeitig den Datenschutz und die Echtzeitfähigkeit des Edge berücksichtigen, um schließlich die KI-Technologie sicherer und effizienter in verschiedene Branchen zu bringen.
Datenquelle: precedenceresearch, Tabellenstellung von "Semiconductor Industry Insights"
Marktforschungsdaten von Market zeigen, dass der globale Markt für Edge-Künstliche Intelligenz bis 2032 auf über 140 Milliarden US-Dollar anwachsen wird, was im Vergleich zu den 19,1 Milliarden US-Dollar im Jahr 2023 eine deutliche Zunahme darstellt. Daten von Precedence Research zeigen, dass der Markt für Edge-Computing bis 2032 auf 3,61 Billionen US-Dollar anwachsen könnte (CAGR 30,4 %). Diese Zahlen deuten auf ein breites Entwicklungspotential der Edge-KI hin und erklären, warum die großen Unternehmen immer mehr auf diesen neuen Marktsegment setzen.
02
Die großen Unternehmen rücken in Position, um den Vorsprung zu erlangen
Im Bereich der Edge-KI-Chips besteht ein heftiger Wettbewerb zwischen den großen Unternehmen. Der Chipbereich ist die zentrale Hardwarebasis für die Entwicklung der Edge-KI. In den letzten zwei Jahren hat sich ein Trend zur Innovation der Rechenleistung und der Architektur entwickelt.
Apple hat sich aktiv in die Entwicklung eigener Edge-KI-Chips für die iPhone-Serie eingebracht. Nehmen wir die neueste iPhone 16-Serie als Beispiel. Der darin integrierte A18-Chip wurde speziell für die KI-Funktionen optimiert. Der A18-Chip nutzt den zweiten Generation 3-Nanometer-Prozess und verfügt über einen 16-Kern-Neuralen Netzwerk-Engine, der bis zu 35 Billionen Operationen pro Sekunde ausführen kann. Dank dieser starken Rechenleistung kann die Gesichtserkennung des Face ID in Sekundenschnelle durchgeführt werden, und die Generierung von Animojis ist ebenfalls reibungslos. Die Reaktionszeit ist auf die Millisekunden-Ebene gekommen. Gleichzeitig brauchen die Daten dank der lokalen Verarbeitungsfähigkeit des Chips nicht in die Cloud hochgeladen zu werden, was von Grund auf das Risiko der Datenschutzverletzung bei der Cloud-Übertragung vermeidet und den Datenschutz der Nutzer gewährleistet.
NVIDIA, ein führender Spieler in der Grafikverarbeitung und der KI-Computing-Branche, hat ebenfalls beeindruckende Ergebnisse bei der Einrichtung des Edge-KI-Chip-Ekosystems erzielt. Seine Jetson-Serie von Edge-KI-Chips wurde speziell für Edge-Geräte wie Roboter, Drohnen und intelligente Kameras entwickelt. Nehmen wir den Jetson Xavier NX als Beispiel. Dieser Chip integriert 512 NVIDIA CUDA-Kerne und 64 Tensor-Kerne und hat eine Rechenleistung von bis zu 21 TOPS (Trillionen Operationen pro Sekunde), benötigt aber nur 15 Watt Leistung. Er kann Roboter in komplexen und sich ständig ändernden Umgebungen starke visuelle Erkennungs- und Entscheidungsfindungsfähigkeiten bieten. In der Logistik und Lagerhaltung kann ein Roboter mit dem Jetson Xavier NX-Chip schnell die Positionen von Waren und Regalen erkennen, den besten Pfad planen und die Waren effizient transportieren, was die Effizienz der Logistikbetriebe erheblich verbessert.
Chinesische Unternehmen haben ebenfalls beeindruckende Ergebnisse im Bereich der Edge-KI-Chips erzielt. Die DeepEdge 10-Serie, die von CloudWalk in 2022 entwickelt wurde, wurde speziell für große Edge-Modelle entwickelt. Die 2024 aktualisierte DeepEdge200 nutzt die D2D Chiplet-Technologie und ist mit der IPU-X6000-Beschleunigungskarte ausgestattet. Sie kann an fast 10 führende große Modelle wie CloudWalks TianShu und Alibaba Clouds Tongyi Qianwen angepasst werden. In intelligenten Sicherheitskameras kann sie das Auftreten von anormalen Verhaltensweisen in Echtzeit erkennen, und die Reaktionszeit für die Warnung kann auf weniger als 0,5 Sekunden reduziert werden.
Hauptprodukte der chinesischen KI-Rechenleistungschipunternehmen. Quelle: Minsheng Securities
Am Abend des 26. August hat CloudWalk seine Halbjahresbericht für 2025 veröffentlicht. Der Bericht zeigt, dass das Unternehmen im ersten Halbjahr 2025 einen Umsatz von 646 Millionen Yuan erzielt hat, was im Vergleich zum Vorjahreszeitraum um 123,10 % gestiegen ist. Das konsolidierte Nettoergebnis betrug -206 Millionen Yuan, und das Verlust wurde um 104 Millionen Yuan im Vergleich zum Vorjahreszeitraum verringert. Das Ergebnis nach Abzug der außerordentlichen Posten betrug -235 Millionen Yuan, und das Verlust wurde um 110 Millionen Yuan im Vergleich zum Vorjahreszeitraum verringert. Bezüglich der Veränderungen des Betriebsergebnisses hat das Unternehmen erklärt, dass der Anstieg des Umsatzes im Vergleich zum Vorjahreszeitraum hauptsächlich auf die Zunahme des Umsatzes aus den Verbrauchergüter- und Unternehmensszenarien zurückzuführen ist. Die Verringerung des Verlusts ist hauptsächlich auf den gleichzeitigen Anstieg des Umsatzes und der Gewinnspanne zurückzuführen.