StartseiteArtikel

Der globale Wettlauf im Weltraum-Rechenleistung: Drei Wege, ein Fundament

麟阁创投2026-01-05 19:00
Jeden Satelliten zu einem intelligenten Knoten zu machen, ist der erste Grundstein für die Skalierung der Rechenleistung im Weltraum.

 

Kürzlich hat Yiwei Aerospace (Beijing) Technology Co., Ltd. (im Folgenden als "Yiwei Aerospace" bezeichnet) erfolgreich eine Angel-Runde mit einer Finanzierung im Millionenbereich abgeschlossen. Die Investoren dieser Runde umfassen Zifeng Capital und Tsinghua Holdings Jixin, und der alte Aktionär Lingge Venture Capital hat seine Investition fortgesetzt. Die Mittel dieser Runde werden hauptsächlich für die Forschung, Entwicklung und Iteration der Kernprodukte sowie die technische Validierung verwendet. 

Als der erste institutionelle Investor von Yiwei Aerospace (Yiwei Aerospace hat eine Seed-Runde mit einer Finanzierung im Millionenbereich abgeschlossen, und Lingge Venture Capital war der alleinige Investor), beobachtet Lingge Venture Capital weiterhin die Richtung der Weltraum-Rechenleistung. Basierend auf unserer Nachforschung und Analyse der Branche sowie auf intensiven Gesprächen mit Dr. Xing Ruolin, Gründer und CEO von Yiwei Aerospace, haben wir diesen Beobachtungsartikel verfasst. 

Ein weltweiter Wettlauf, der sich gerade entfaltet

Im Jahr 2025 rückt die Weltraum-Rechenleistung weltweit schnell in die Phase der technischen Validierung.

Im November hat Starcloud den Testsatelliten Starcloud-1 mit einem NVIDIA H100 GPU in die Erdumlaufbahn geschossen. Dies kann als der repräsentative Meilenstein der erstmals öffentlich bekannt gegebenen "Demonstration des Training von Sprachmodellen mit Rechenzentrums-GPUs im Weltraum" angesehen werden. Im gleichen Monat hat Google offiziell seinen " Project Suncatcher " angekündigt, bei dem vorgeschlagen wird, ein Rechenleistungskonstellation im Weltraum mit 81 Satelliten, die mit TPU ausgestattet sind, aufzubauen. Ein Prototyp soll 2027 validiert werden. In der gleichen Zeit hat Elon Musk auf X einen Technikpfad zur Umwandlung der Weltraum-Rechenleistung auf der Grundlage des Starlink V3-Satelliten vorgeschlagen. Mit der zunehmenden Diskussion über SpaceX hat dies die Aufmerksamkeit der Öffentlichkeit für den "Pfad der Erweiterung der Weltraum-Rechenleistung durch Kommunikationskonstellationen" weiter erhöht. 

In China hat das Zhejiang Lab im Mai die erste Phase der "Three-Body Computing Constellation" mit 12 Satelliten erfolgreich ins Weltall geschickt und offenbart, dass die interkonnektierte Rechenleistung im Weltraum 5 POPS erreicht. Im gleichen Monat sind die ersten Satelliten der zweiten Phase der "Tianyuan Constellation" der Peking University of Posts and Telecommunications erfolgreich in die Umlaufbahn gelangt. Der Weltraumserver v1, die hyperspektrale Kamera und die intersatellitärer Laserkommunikationsträger mit einer Übertragungsrate von über 100 Gbps, die auf den Satellitenplattformen BUPT-2 und BUPT-3 montiert sind, haben die In-Orbit-Validierung erfolgreich abgeschlossen und erste Ergebnisse erzielt. Der integrale Prozess von "Wahrnehmung - Übertragung - Berechnung" ist nun möglich. Die zweite Phase der Constellation plant die Installation von insgesamt 24 Satelliten und die Durchführung von In-Orbit-Technologievalidierungen und Anwendungsforschung in den Bereichen Weltraumrechnung, 6G-Netzwerke und intelligente Fernerkundung. 

Am 17. Mai 2025 wurden die Satelliten "BUPT-2" und "BUPT-3" erfolgreich ins Weltall gestartet 

Die zugrunde liegende Logik der Nachfrage nach Weltraum-Rechenleistung basiert auf einem Gesetz, das bereits in der Zeit des Internets bewiesen wurde: Das Wachstum der Datenmenge ist immer schneller als die Übertragungsfähigkeit. In einem Lehrbuch für Computernetzwerke findet sich ein berühmtes Zitat: "Never underestimate the bandwidth of a station wagon full of tapes hurtling down the highway" (Unterschätzen Sie niemals die Bandbreite eines Lieferwagens voller Magnetbänder, der auf der Autobahn herunterbraust). Es offenbart eine kontraintuitive wirtschaftliche Tatsache: Wenn die Datenmenge eine kritische Größe überschreitet, ist die Kosteneffizienz des physischen Transports höher als die der Netzwerkübertragung. Der Leiter von AWS hat einmal ein Beispiel gegeben: Die Übertragung von 1 EB Daten über eine 10-Gbps-Sonderleitung würde etwa 26 Jahre dauern, während 10 Snowmobile-Fahrzeuge dies in nur sechs Monaten schaffen könnten.

Im Weltraum wird dieser Widerspruch auf die Spitze getrieben. Die Rate, mit der Satelliten Daten generieren, übersteigt bei weitem die Übertragungsfähigkeit: Die Übertragungsrate der Datenübertragung von hochauflösenden Fernerkundungsmissionen hat bereits das Gbps-Niveau erreicht, und die Datenmenge kann täglich mehrere TB oder sogar mehr betragen. Gleichzeitig ist die Satelliten-Erde-Verbindung aufgrund von Leistungseinschränkungen, Frequenzbandbeschränkungen und der begrenzten Zeitfenster der Bodenstationen nicht linear skalierbar. Wenn die Anzahl der Satelliten in einer Constellation von einigen Dutzend auf Tausende oder sogar Zehntausende steigt, wird die Kluft zwischen der Datenproduktion und der Übertragungsfähigkeit immer größer. Die einzige Lösung besteht darin, die Berechnung näher an die Orbitknoten zu verlagern und die Daten direkt vor Ort zu verarbeiten.

Dieser Kommunikationsengpass treibt auf zwei Ebenen die Nachfrage nach Weltraum-Rechenleistung an.

Die erste Ebene ist die interne Nachfrage der Constellationsbetreiber (Computing for Space). Wenn sich das Satellitennetzwerk von einem einfachen Transfersystem zu einem mobilen verteilten Netzwerk entwickelt - die Topologie ändert sich alle 90 Minuten und die Verbindungen werden im Sekundenrhythmus umgeschaltet - sind Fähigkeiten wie Routing, Ressourcenverwaltung und Fehlerselbstheilung unerlässlich, damit es so stabil wie ein Erdnetzwerk funktioniert.

Wenn die Steuerungsebene weiterhin vollständig auf der Erde verbleibt, muss jede Routingentscheidung und jeder Verbindungswechsel zwischen Satellit und Erde hin und her übertragen werden - die Kommunikationsverzögerung beträgt bereits mehrere Millisekunden bis Sekunden. Noch gravierender ist, dass, wenn die Größe der Constellation einen kritischen Punkt überschreitet, die Hauptkosten des Systems von der Launch- und Herstellungsphase zur Betriebsphase verschieben. Die Anzahl der Satelliten in SpaceXs Starlink-Constellation nähert sich bereits fast 10.000 an. Wenn jeder Anomaliezustand jedes Satelliten an die Erde zurückübertragen und manuell ausgewertet werden muss, würde die Größe des Betriebsteams unverhältnismäßig groß werden.

Die Verlagerung der Rechenleistung in die Orbitknoten und die Upgrades der Satelliten von passiven Relais zu Netzwerkknoten mit eigenständiger Entscheidungsfähigkeit ist die unvermeidliche Wahl, um diese systemische Einschränkung zu überwinden: Die Zustandsüberwachung, Routingentscheidungen und Fehlersdiagnose werden zunächst im Weltraum durchgeführt, und nur die komprimierten Daten und die wichtigsten Entscheidungen werden an die Erde übertragen. Dadurch wird die Rückübertragung zwischen Satellit und Erde von einem Engpass, der das System behindert, zu einer kontrollierbaren Ressource. Dieser Trend wird voraussichtlich mit der Entwicklung des 6G-Systems beschleunigt. Wenn Satelliten allmählich zu integrierten Teilen des Mobilfunknetzes werden, werden mehr Protokollverarbeitungs-, Edge-Computing- und intelligente Scheduling-Fähigkeiten unweigerlich in den Weltraum verlagert.

Die zweite Ebene ist die Erweiterung der terrestrischen Anwendungen in den Weltraum (Space for Computing). Parallel zur internen Nachfrage der Constellationsbetreiber wird die Nachfrage nach Weltraum-Rechenleistung auch von externen Anwendungen getrieben. Die treibende Kraft ist ebenfalls der Kommunikationsengpass, aber die Anwendungslogik ist unterschiedlich:

Erstens, die Migration des Mobilfunknetzes in den Weltraum. Das terrestrische Mobilfunknetzwerk nähert sich bereits der theoretischen Grenze des Shannon-Theorems. In städtischen Kerngebieten erreicht die Dichte der Basisstationen bereits mehrere Dutzend pro Quadratkilometer, und die Marginalertragsrate der weiteren Verstärkung nimmt rapide ab. Dennoch haben noch fast 3 Milliarden Menschen auf der Welt keinen Zugang zum Mobilfunknetz. Das Weltraumnetzwerk ist die natürliche Erweiterung des terrestrischen Mobilfunknetzes: Niedrigorbitale Satelliten können die Erde mit einer Umlaufbahnhöhe von 500 - 1.200 km vollständig abdecken, und die Abdeckung eines einzelnen Satelliten kann einen Durchmesser von Tausenden von Kilometern erreichen.

Aber diese Erweiterung ist nicht einfach "das Verschieben der Basisstationen in den Weltraum". Wenn Satelliten zu integrierten Teilen des Mobilfunknetzes werden, würde die Rückübertragung aller Signalisierungsverarbeitungs-, Sitzungsverwaltung- und Edge-Computing-Anforderungen von den Massenendgeräten an das zentrale Netzwerk auf der Erde den Kommunikationsengpass zwischen Satellit und Erde noch verschärfen. Das "Raum-Erde-Integrationssystem", das in den 6G-Standards erforscht wird, erfordert im Wesentlichen die Verlagerung eines Teils der Netzwerkfunktionen auf die Satellitenknoten, damit das Weltraumnetzwerk die gleiche Verarbeitungsfähigkeit wie das terrestrische 5G-Netzwerk hat.

Zweitens, die Penetration von KI in die physische Welt. Schiffe auf hoher See, Bergbaugeräte, landwirtschaftliche Drohnen und Notfallrettungssysteme - die KI-Anwendungen in diesen Szenarien bewegen sich mit den Vermögenswerten. Die Arbeitsbereiche befinden sich außerhalb der Reichweite des terrestrischen Netzwerks. Wenn die Fernerkundungsbilder und IoT-Sensordaten vollständig an die Cloud auf der Erde übertragen und dort verarbeitet werden, können die Bandbreitenkosten pro MB mehrere Dutzend Cent oder sogar mehrere Dollar betragen, und die Reaktionszeit kann aufgrund der Hin- und Rückübertragung zwischen Satellit und Erde sowie der Cloud-Inferenz mehrere Sekunden oder sogar mehrere Zehnsekunden betragen. Die typische Lösung besteht darin, die Wahrnehmung und Inferenz im Weltraum durchzuführen: Die Rohdaten der Fernerkundungsbilder im TB-Bereich werden in Zielmarkierungen im MB-Bereich komprimiert, oder die SAR-Bilder werden im Weltraum interpretiert, um Ziele in Echtzeit zu verfolgen. Nur die Entscheidungen werden anstatt der Rohdaten an die Erde übertragen.

Drittens, die langfristige Erforschung von Energie- und Datensouveränität. Die Energiebeschränkungen und der Druck der Datensouveränität in einigen Märkten treiben die Erforschung der Möglichkeit an, die Rechenleistungsinfrastruktur in den Weltraum zu verlagern. Das Weltraumumfeld bietet nahezu unbegrenzte Solarenergie und natürliche passive Kühlung. Obwohl die aktuellen Launchkosten noch sehr hoch sind, wird die Migration von KI-Inferenz- und sogar Trainingsaufgaben in den Weltraum in den nächsten 10 - 15 Jahren allmählich wirtschaftlich vertretbar werden. Dies ist eine Vision für die Zukunft, aber die Erforschung der technischen Pfade ist bereits im Gange.

Die obigen treibenden Kräfte haben drei Haupttechnikpfade für die Weltraum-Rechenleistung hervorgebracht. 

Der erste Pfad ist der Weltraum-Rechenzentrumspfad, repräsentiert durch das amerikanische Startup Starcloud und das von Horizon Europe geförderte ASCEND-Projekt in Europa. Die Idee besteht darin, eine GW-Skalen-Infrastruktur für Weltraum-Rechenleistung im Weltraum aufzubauen. Starcloud (früher Lumen Orbit) hat das langfristige Ziel, ein Weltraum-Rechenzentrum mit einer Leistung von 5 GW aufzubauen und hat die Unterstützung von Institutionen wie Y Combinator und NFX erhalten. Als Mitglied des NVIDIA Inception-Ekosystems wird die Weltraum-Rechenleistung validiert. Das ASCEND-Projekt wird von Thales Alenia Space geleitet und führt eine Machbarkeitsstudie durch. Es wird ein modularer Weltraum-Rechenzentrumskonzept für eine Sonnen-Synchrone Umlaufbahn auf einer Höhe von etwa 1.400 km vorgeschlagen, mit dem Ziel, bis 2050 eine Skalierung auf 1 GW zu erreichen. Dieser Artikel ist der Meinung, dass der Vorteil dieses Pfades in der großen Rechenleistung und der effizienten Energieausnutzung liegt, da die Solarenergie und die Kühlungsmöglichkeiten im Weltraum optimal genutzt werden können. Allerdings müssen auch Herausforderungen wie die hohe technische Schwierigkeit der Weltraumkonstruktion, die großen Investitionen und die lange Kommerzialisierungszeit in Kauf genommen werden. 

Der zweite Pfad ist der verteilte Constellationspfad, repräsentiert durch Googles "Project Suncatcher". Im Gegensatz zu einem zentralisierten Rechenzentrum verteilt dieser Pfad die Rechenleistung auf die Satelliten in einer Constellation und koordiniert die Berechnung über intersatellitärer Laserverbindungen. Google plant, 81 TPU-Satelliten in einer Dämmerungsumlaufbahn zu platzieren. Der Prototyp soll 2027 gestartet werden, und die intersatellitärer optische Verbindung hat bereits in Laborversuchen eine Übertragungsrate von 1,6 Tbps erreicht. Dieser Artikel ist der Meinung, dass der Vorteil dieses Pfades in der hohen Flexibilität und Skalierbarkeit liegt, aber es gibt auch große technische Herausforderungen bei der intersatellitärer Kommunikation, der Orbitkontrolle und der Energiemanagement. 

Der dritte Pfad ist der Erweiterungspfad der Kommunikationskonstellation, repräsentiert durch SpaceX. Die Idee besteht darin, die Rechenleistung auf die bestehende Netzwerkfähigkeit der Constellation zu addieren, damit die Satelliten von einfachen Kommunikationsrelais zu Netzwerkknoten mit Edge-Verarbeitungsfähigkeit evolvieren. Auf der offiziellen Website von Starlink wird angegeben, dass die dritten Generation Satelliten ab dem ersten Halbjahr 2026 gestartet werden sollen. Die Entwurfsrate der Einzelsatellitenübertragung beträgt über 1 Tbps, was eine mehr als zehnfache Steigerung gegenüber der zweiten Generation darstellt. Dieser Artikel ist der Meinung, dass der Vorteil dieses Pfades in der Praktikabilität liegt. Basierend auf der bestehenden Satellitennetzinfrastruktur ist es nicht erforderlich, auf die Reife der Weltraumkonstruktionstechnologie zu warten. Durch eine effiziente Software- und Hardware-Entwicklung kann die Edge-Intelligenz unter den begrenzten Energie- und Kühlbedingungen erreicht werden, was mit Teslas Konzept der Fahrzeugrechnung übereinstimmt. Gleichzeitig hat Elon Musk im November die Ansicht geäußert, dass "in 4 - 5 Jahren könnten Solar-KI-Satelliten die kostengünstigste Art der KI-Berechnung werden". Dies hat die Öffentlichkeit zu weiteren Diskussionen über die zukünftige Rechenleistungskapazität dieses Pfades ang