StartseiteArtikel

GPU in Basisstationen? Die echten Kontroversen um AI-RAN

半导体产业纵横2026-03-09 10:25
Wenn KI in die unterste Ebene der drahtlosen Kommunikation vordringt, brauchen Basisstationen wirklich GPU?

Im vergangenen Jahr war es wahrscheinlich kaum möglich, wenn man sich mit den Neuigkeiten der Telekommunikationsbranche befasst hat, dem Begriff „AI - RAN“ zu entkommen. Die von NVIDIA und SoftBank gegründete AI - RAN - Allianz, die Labortests von T - Mobile in Seattle und die AI - Telefonie - Demonstration von Indosat in Indonesien – eine Reihe von Aktivitäten scheint ein Signal zu senden: Grafikkarten (GPU) werden in großem Maßstab in Basisstationen eingesetzt, und die künstliche Intelligenz (KI) rückt von der „oberen Netzebene“ in die „drahtlose untere Ebene“ hinunter.

Wenn man aber die Gelegenheit hat, mit Freunden aus dem Betriebssektor zu plaudern, wird man feststellen, dass ihre Haltung weit weniger aufgeregt ist als auf der Bühne einer Pressekonferenz. Es gibt zwar Aufregung, aber es dominiert eher Vorsicht und Wartehaltung, ja sogar eine kaum wahrnehmbare Skepsis: Braucht man wirklich eine Grafikkarte in der Basisstation? Wie lässt sich die Rechnung überhaupt machen? Ist AI - RAN eine echte technologische Revolution oder nur eine weitere von Chipherstellern initiierte „Rennen“?

„Intelligenz“ und „Unintelligenz“ in der Basisstation

Um zu verstehen, was AI - RAN eigentlich erreichen will, muss man zunächst auf das alte Problem des drahtlosen Zugangsnetzes (RAN) zurückkommen.

Es ist in der Telekommunikationsbranche ein stillschweigendes Geheimnis, dass im gesamten Mobilfunknetz das drahtlose Zugangsnetz (RAN) der „unintelligenteste“ Teil ist. Das Kernnetz ist bereits virtualisiert und in die Cloud verlagert, und verschiedene Open - Source - Plattformen und allgemeine Server laufen reibungslos. Aber wenn man zur Ebene der Basisstation kommt, ändert sich die Situation völlig – es gibt spezielle Chips, geschlossene Schnittstellen und maßgeschneiderte Hardware, wie eine schwarze Kiste, in die Niemand von außen kommt und aus der keine Daten herauskommen.

Dies klingt wie ein technisches Problem, aber es ist letztendlich ein wirtschaftliches Problem. Die Anzahl der installierten Basisstationen ist immens. Ein Mobilfunkanbieter mittlerer Größe kann Hunderttausende von Stationen besitzen. Bei dieser Größenordnung wird jede geringfügige Kostenänderung zu einer erstaunlichen Summe aufgebauscht. Spezielle Chips sind zwar nicht sehr flexibel, aber ihre Stromaufnahme, Kosten und Stabilität wurden über Jahrzehnte hinweg auf das Optimum hin optimiert und stellen die vom Anbieter akzeptable „beste Lösung“ dar.

Aber damit kommen auch die Probleme. Wenn die KI in jedes Eck des Netzes eindringt und die Anbieter durch Intelligenzoptimierung die Abdeckung verbessern, die Kapazität erhöhen und den Energieverbrauch senken möchten, wird das RAN zum schwierigsten Teil. Man kann in das Kernnetz beliebig KI - Server installieren und dem Betriebszentrum eine Reihe von Grafikkarten zur Netzoptimierung geben, aber wenn man an die Tür der Basisstation kommt, endet der Weg.

Das Ziel von AI - RAN ist es, diese letzte Meile zu überbrücken. Es muss jedoch klargestellt werden, dass die Beziehung zwischen KI und RAN eigentlich zweierlei ist. Die Branche definiert diese Beziehung üblicherweise mit zwei Begriffen: Der eine ist „AI for RAN“, d. h. die KI wird eingesetzt, um die Leistung des drahtlosen Zugangsnetzes zu optimieren – Kanalabschätzung, Strahlmanagement, Lastausgleich, all dies sind typische Szenarien, in denen die KI das Netz stärkt; der andere ist „RAN for AI“, d. h. die Basisstation selbst wird zum Anbieter von KI - Rechenleistung, und die überall verteilten Stationen werden zur Infrastruktur für verteilte Inferenz. Die Logik von NVIDIA ist einfach: Anstatt die KI außerhalb der Basisstation herumlaufen zu lassen, sollte man sie einfach hineinholen und die Basisstation selbst intelligent machen.

Klingt schön. Aber braucht die Basisstation wirklich so intelligent zu sein?

Wer bezahlt, wenn Grafikkarten in Basisstationen eingesetzt werden?

Hier muss man eine Rechnung machen.

Schauen wir uns zunächst die Kosten an. Eine für Basisstationen geeignete Grafikkarte kostet nicht wenig. Auch der Energieverbrauch ist nicht zu verachten. Wenn man sie in Hunderttausenden von Basisstationen installieren möchte, würde dies zu einer astronomischen Kapitalausgabe führen. Und die Anbieter haben es derzeit nicht gut. Der Datenverkehr wächst, aber die Einnahmen bleiben stagniert, was in den letzten zehn Jahren ein globales Problem der Telekommunikationsbranche war. Vor diesem Hintergrund ist es vorstellbar, wie schwierig es ist, die Anbieter dazu zu bringen, für die Aufrüstung jeder Basisstation mit einer Grafikkarte Geld auszugeben.

Alok Shah, Vizepräsident für Strategie und Marketing der Netzwerkabteilung von Samsung Electronics America, sagte: „Die Branche evaluiert vorsichtig das Gesamtkostenmodell und die Geschäftsmöglichkeiten im Zusammenhang mit der Einführung von Grafikkarten in Basisstationen. Bislang stehen die Umstellung auf GPU - Rechenleistung auf Stationsebene sowohl bei den Kapitalausgaben als auch bei den Betriebskosten vor Herausforderungen, aber die Innovation in diesem Bereich ist lebhaft. Wir könnten feststellen, dass es in den nächsten Jahren einige Stationen geben wird, bei denen die Installation aus wirtschaftlicher Sicht sinnvoll ist.“ Mit anderen Worten, die Rechnung ist noch nicht klar, und niemand wagt es, leichtfertig eine Entscheidung zu treffen.

Schauen wir uns nun die Notwendigkeit an. Braucht die Basisstation wirklich eine Grafikkarte? Oder reicht die vorhandene CPU aus? Dies ist eigentlich ein übersehenes Problem. Die Leistung der neuen Generation von x86 - CPUs hat sich bereits erheblich verbessert. Viele KI - Inferenzaufgaben, insbesondere leichte Aufgaben mit geringen Latenzanforderungen, können von der CPU problemlos bewältigt werden. Wenn die CPU das Problem lösen kann, warum sollte man dann zusätzliche Kosten für eine Grafikkarte aufwenden?

Ein Experte eines chinesischen Mobilfunkanbieters sagte noch direkter: Wenn man die Rechenleistung unbedingt in die Basisstation bringen muss und es unbedingt eine Grafikkarte sein muss, bin ich skeptisch. Die Kosten sind zu hoch, und die Anbieter können sie einfach nicht akzeptieren. Darüber hinaus wird die flexible Verteilung der Rechenleistung eingeschränkt, wenn man die Rechenleistung in der Basisstation fixiert – an den Edge - Knoten, in den Sammelräumen und in der Zentralcloud sollte die Rechenleistung ein dynamisch verteilbarer Ressourcenpool sein, anstatt in jeder Station festgelegt zu sein. Aber es gibt auch andere Meinungen. Laut Demonstrationsdaten kann man, wenn man die inaktive Rechenleistung einer einzelnen Station zu 70 % des Marktpraises für Cloudrechnen vermietet, innerhalb von fünf Jahren 30 % der Baukosten der Basisstation zurückverdienen.

Hinter diesen Worten verbirgt sich eine tiefere Differenz: Wie sollte AI - RAN eigentlich implementiert werden, als „Gesamtaufrüstung“ oder als „bedarfsorientierte Einführung“? NVIDIA, als Chiphersteller, möchte natürlich, dass die Grafikkarten so weit wie möglich verbreitet werden. Aber die Anbieter müssen bedenken, in welchen Szenarien wirklich die KI - Fähigkeiten auf Basisstationsebene erforderlich sind.

Welche Szenarien erfordern unbedingt KI?

Wenn die KI in der 5G - Ära noch als ein „Pluspunkt“ galt, könnte sich die Situation in der 6G - Ära ändern. Die Telekommunikationsbranche ist sich einig, dass das 6G - Netz vor einer grundlegenden Herausforderung stehen wird: Die Komplexität des Netzes wird einen Schwellenwert erreichen, der „über die menschliche Ebene“ hinausgeht, und das menschliche Gehirn kann es nicht mehr in Echtzeit verwalten. Zu diesem Zeitpunkt wird die KI nicht mehr eine Option, sondern eine Notwendigkeit sein.

Dies ist keine Schreckgespenstergeschichte. In der 5G - Ära haben die Basisstationen bereits Massiv - MIMO - Antennen, und die Parameterkonfiguration der Strahlformung ist so komplex geworden, dass Algorithmen erforderlich sind. In der 6G - Ära werden die Frequenzbänder höher, die Anzahl der Antennen größer und die Geschäftsprozesse komplexer. Die Verwaltung per manuellen Skripten und voreingestellten Strategien ist fast unmöglich. Mit anderen Worten, das zukünftige Netz muss „selbstintelligent“ sein – es muss sich selbst wahrnehmen, Entscheidungen treffen und sich selbst optimieren.

Damit wird die Frage umgedreht: Es geht nicht mehr darum, „warum man KI in die Basisstation einsetzen sollte“, sondern „ob eine Basisstation ohne KI überhaupt funktionieren kann“.

Im Hinblick auf die Szenarien sind einige Richtungen bereits klar.

Eine ist die Kanalabschätzung. Drahtlose Signale werden beim Übertragen in der Luft von Störungen, Schwächungen und Abschattungen beeinflusst. Die Basisstation muss den Kanalzustand in Echtzeit schätzen, um zu entscheiden, welche Parameter für die Datenübertragung verwendet werden sollen. Die traditionellen Algorithmen haben ihre Grenzen, während die KI durch das Lernen von historischen Daten die Kanaländerungen genauer vorhersagen kann. Daten einer von Fujitsu gegründeten Gruppe zeigen: Durch die Verbesserung der Kanalabschätzung mit KI kann die Leistung der aufwärts gerichteten Kette um 20 % gesteigert werden, in einigen Szenarien sogar um 50 %.

Das andere ist das Strahlmanagement. Massiv - MIMO - Basisstationen können mehrere schmale Strahlen erzeugen, um Benutzer in verschiedenen Richtungen abzudecken. Da die Benutzer sich bewegen, müssen die Strahlen ihnen folgen. Wenn die Strahlumschaltung nicht rechtzeitig erfolgt, tritt ein Verbindungsverlust auf. Die KI kann die Bewegungsbahn der Benutzer vorhersagen und die Strahlen im Voraus umschalten, um ein reibungsloserer Benutzererlebnis zu gewährleisten.

Es gibt auch die Frequenzbandschharing. Die traditionelle Methode besteht darin, dass das System, wenn ein Frequenzband gestört wird, das gesamte Frequenzband abschalten muss. Aber die KI kann präziser arbeiten – sie kann die Störquelle identifizieren und nur die betroffenen Frequenzen blockieren, während der Rest weiterhin genutzt werden kann. Eine von MITRE in 2025 gezeigte Anwendung macht genau das.

Das Gemeinsame bei diesen Szenarien ist , dass sie eine Echtzeitanwort, lokale Entscheidungen erfordern und nicht alle Daten an das Zentrum zurückgeschickt werden können. Dies ist genau der Sinn der KI auf Basisstationsebene.

Die Basisstation als „Nebenjobnehmerin“ nachts

Wenn „AI for RAN“ dazu dient, das Netz reibungsloser laufen zu lassen, dann erforscht „RAN for AI“ eine andere Möglichkeit: Kann die Basisstation nicht nur eine kostenintensive Infrastruktur, sondern auch ein gewinnbringendes Vermögen werden?

SoftBank und Nokia haben kürzlich ein sehr interessantes Experiment durchgeführt. Sie haben in Japan eine AI - RAN - Plattform auf Basis von NVIDIA - Grafikkarten aufgebaut. Tagsüber wird die Rechenleistung der Basisstation vorrangig für die 5G - Kommunikation eingesetzt – um die Sprach-, Video - und Datenanfragen der Benutzer zu verarbeiten. Nachts, wenn der Netzverkehr stark zurückgeht, wird die bislang inaktive Rechenleistung der Grafikkarten nicht vergeudet, sondern automatisch über den AITRAS - Orchestrator von SoftBank in den Modus eines „Rechenleistungssuppliers“ umgeschaltet, um KI - Inferenzaufgaben für dritte Kunden auszuführen.

Mit anderen Worten, die gleiche Basisstation ist tagsüber eine Kommunikationsbasisstation und wird nachts zu einem Edge - KI - Server. Pallavi Mahajan, Leiterin für Technologie und KI bei Nokia, sagte dazu: „Mit dem Beschleunigen des globalen Bedarfs an KI - Verarbeitung zeigt dieses Projekt, wie man die verteilten Netzwerkressourcen nutzen kann, um skalierbare, effiziente und nachhaltige KI - Dienste bereitzustellen.“

Ryuji Wakikawa, Vizepräsident des SoftBank Advanced Technology Research Institute, sagte noch direkter: „In AI - RAN ist es sehr wichtig, den Wert der Rechenressourcen zu maximieren. Wir haben den AITRAS - Orchestrator verbessert, damit er die Ressourcen für externe KI - Workloads zuweisen kann und diese Ressourcen als neue Einnahmequelle nutzen kann.“

Dieses Modell der „Nebenjob“ der Basisstation nachts berührt eine tiefere Veränderung: Die Basisstation entwickelt sich von einem reinen „Kostenzentrum“ zu einem möglichen „Gewinnzentrum“. Natürlich ist dies noch nur ein Experiment. Das Kundenprofil ist noch unklar – soll es an Internetunternehmen für Edge - Inferenz verkauft werden oder an Industrieunternehmen für maschinelles Sehen? Das Geschäftsmodell ist noch in der Erprobung. Aber es eröffnet zumindest einen Raum für die Vorstellung: Wenn alle Basisstationen einer Stadt nachts ihre Rechenleistung zur Verfügung stellen könnten, würde dies ein riesiges verteiltes Rechennetz bilden.

Zwei Beine gehen: Die langfristige Koexistenz von GPU und CPU

Zurück zur ursprünglichen Frage: Braucht man wirklich Grafikkarten in den Basisstationen?

Die wahrscheinlichste Antwort ist: Teils ja, teils nein. Genau wie die heutigen Netzwerkequipment, manche verwenden spezielle Chips, manche allgemeine CPUs und manche FPGAs, je nach Bedarf. Die zukünftigen Basisstationen werden auch keine einheitliche Form haben, sondern je nach Szenario und Kosten die Rechenarchitektur flexibel auswählen.

Für städtische Hotspots und Gebiete mit hohem Datenverkehr brauchen die Basisstationen möglicherweise wirklich Grafikkarten, um komplexe KI - Aufgaben zu unterstützen. Für abgelegene Gebiete und Stationen mit geringer Last reicht die CPU aus, und es ist nicht notwendig, zusätzliche Kosten aufzuwenden. Es besteht auch die Möglichkeit, dass die Grafikkarten nicht in jeder Basisstation installiert werden, sondern an den Edge - Knoten, um mehrere Basisstationen in einem Gebiet zu bedienen, um sowohl die Rechenleistungssorgung als auch die Kostenkontrolle zu gewährleisten.

NVIDIA selbst hat dies erkannt. Einer der Hauptvorteile seiner AI Aerial - Plattform ist die „Ressourcennutzung“ – die gleiche Grafikkarte kann dynamisch für RAN - Aufgaben und KI - Aufgaben zugewiesen werden, arbeitet bei hoher Auslastung an der Kommunikation und bei geringer Auslastung an der Inferenz, um die Nutzungsrate zu erhöhen und die Kosten zu senken. Dies ist eigentlich eine Reaktion auf die Kostenbesorgnisse der Anbieter: Man muss nicht speziell für die KI eine Grafikkarte kaufen, sondern kann die gleiche Grafikkarte für RAN und KI nutzen.

Das Experiment von SoftBank in Japan folgt genau diesem Gedanken. Sie haben ein System entwickelt, das gleichzeitig 5G und dritte KI - Anwendungen ausführt, was beweist, dass beide nebeneinander existieren können und sich nicht stören. Für die Anbieter bietet dies eine neue Möglichkeit: Die Basisstation wird nicht nur ein Kostenzentrum, sondern kann auch zu einem Ausgangspunkt für Rechenleistungsservices werden und neue Einnahmequellen schaffen.

Natürlich ist dies noch nur ein Experiment. Es ist noch ein langer Weg bis zur massenhaften kommerziellen Nutzung. Wie die Standards festgelegt werden, wie die Schnittstellen vereinheitlicht werden und wie das Geschäftsmodell gestaltet wird, sind noch ungelöste Probleme. Die Antwort von Branchenmitgliedern lautet: „Das Kundenprofil ist noch unklar. Soll es an Internetunternehmen für Edge - Inferenz verkauft werden oder an Industrieunternehmen für maschinelles