Die zweite Hälfte des Gigakonstellations-Szenarios: Der Wettlauf um die Basis von "Laser-Interkonnektivität" bis hin zur "Rechenleistungsscheduling"
Reorganisation des Weltraum - Rechennetzwerks: Die Wirtschaftlichkeitsrechnung von Interstellaren Routing, Rechenleistungstiden und der Arbeitsteilung zwischen Weltraum und Erde.
Bei der "2026 Weltraum - Rechenleistung - Industrie - Konferenz", die am 3. April stattfand, wies der Akademiker der chinesischen Akademie der Wissenschaften, Lu Jianhua, auf die zentralen Risiken heutiger riesiger Satellitenkonstellationen hin. Er stellte fest:
Wenn man weiterhin das Denken des mechanischen Stapels beibehält und das System nur durch eine Massenausstrahlung aufbaut, ohne die Probleme der Trennung von Cloud und Netzwerk sowie die Schwierigkeiten bei der sofortigen Verfügbarkeit von Rechenleistung zu lösen, wird die riesige Anzahl von Satelliten in der Umlaufbahn schließlich zu einem versunkenen Vermögenswert werden, für das niemand bezahlen will.
In den letzten Jahren war man aufgrund der Engpässe in den Weltraum - Erd - Verbindungen gezwungen, dass die Satelliten nur einzeln arbeiten und Entscheidungen unabhängig senden konnten. Die Nachteile dieses Modells auf der kommerziellen Seite sind bereits offensichtlich.
Nehmen wir die aktuelle Fernerkundungskonstellation als Beispiel: Up to 90 % der Satelliten drehen in der Umlaufbahn leer mit, was zu einer extremen Fehlzuordnung von Rechenleistung führt. Gleichzeitig, wenn Szenarien wie die Nahluftwirtschaft und die weite Meeresservice - Bereiche dringend nach Rechenleistung suchen, stößt das System aufgrund des Mangels an globaler Koordination auf Engpässe bei der Reaktion.
Die plötzliche Veränderung der physischen Grundlage treibt die Einstiegsbarrieren für die Branche zwangsläufig in die Höhe. Mit der Standardausstattung von Interstellaren Laserkommunikationsverbindungen (ISL) bei Starlink V2 und der chinesischen "Qianfan - Konstellation" werden Tausende von Satelliten in niedriger Umlaufbahn physisch zu einem ultraschnellen Rückgratnetz verbunden.
Die Inseln sind vollständig gebrochen, und der Hauptschlachtfeld der Rechenleistung verschiebt sich folglich.
Wie das zentrale Signal der Konferenz vermittelt hat, hat die Wettbewerbsherausforderung der Branche die lokale Perspektive des Vergleichs der Leistung einzelner Satelliten verlassen und sich vollständig in die Tiefe des Aufbaus eines "integralen Weltraum - Erde - Rechennetzwerks" gestürzt. Die Essenz riesiger Satellitenkonstellationen wird neu strukturiert zu einem verteilten Rechenzentrum, das mit der ersten kosmischen Geschwindigkeit um die Erde fliegt.
In diesem neuen Rechennetz außerhalb der Erdoberfläche wird derjenige, der zuerst die physischen Barrieren bricht und ein System für schnelles Netzwerken und die Überstellung von Rechenleistung zwischen Satelliten aufbaut, sodass die Weltraum - Rechenleistung wie Strom und Wasser auf der Erde mit minimalen Kosten nach Bedarf zur Verfügung gestellt werden kann, die kommerzielle Schutzmauer für die zweite Hälfte der Konstellationen in niedriger Umlaufbahn sichern.
Die Rückschläge des überschüssigen Transportsvermögens
Es gibt in der kommerziellen Weltraumfahrtbranche eine weit verbreitete Illusion, dass die physischen Engpässe des Weltraum - Rechenleistungnetzwerks vollständig beseitigt werden, sobald die Interstellaren Laserverbindungen (ISL) vollständig etabliert sind.
Tatsächlich ist, wenn die Übertragungsbandbreite einer einzelnen Wellenlänge der Laserkommunikationsterminals problemlos auf 10 Gbps oder sogar in Zukunft auf 100 Gbps steigt, die einfache "Punkt - zu - Punkt - Übertragung" nicht mehr die absolute Schwachstelle des Systems.
Zwei unsichtbare "Fasern" im Himmel sind zwar verbunden, aber dies führt direkt zu einem noch tödlicheren technischen Problem ans Licht - der "Stau an den Knotenpunkten", der durch das überschüssige Transportsvermögen verursacht wird.
Eine riesige Menge an Daten strömt mit Lichtgeschwindigkeit in die Satelliten ein. Die nächste Frage lautet: Wer verteilt sie? Die echte Engstelle des Systems hat sich auf den Durchsatz der Netzwerk - Austauschchips und der Routing - Protokolle innerhalb der Satelliten verschoben.
In Rechenzentren auf der Erde ist die Realisierung von Tbps - Routing bereits eine etablierte moderne Industrie, wie z. B. die Gestellgeräte von Cisco und Huawei.
Aber im Weltraum gibt es keine Luftkonvektion. Die Abwärme, die von einem Hochleistungs - Austauschchip mit einem Verbrauch von einigen hundert Watt erzeugt wird, kann nur äußerst langsam über Wärmerohre und Strahlungsplatten abgeleitet werden, und es besteht ständig die Gefahr eines thermischen Ausfalls.
Zusätzlich sind diese komplexen Logikchips mit einer extrem hohen Transistordichte äußerst empfindlich gegenüber der Einzelteilchenumkehr (SEU), die durch die Strahlung von hochenergetischen Teilchen verursacht wird. Um einen "Weltraum - Router" im Tbps - Bereich herzustellen und ihn stabil laufen zu lassen, unter strengen Gewichts - und Energieverbrauchsbeschränkungen, ist die technische Komplexität und die Gesamtkosten sogar höher als die Herstellung eines Laserkommunikationsterminals selbst.
Die Kollision mit den physikalischen Grenzen spiegelt sich auf der kommerziellen Ebene in einer riesigen Lücke in der Lieferkette wider.
Die gegenwärtige Weltraumfahrtindustrie ist darauf bedacht, sich aus dem traditionellen Rahmen der Kommunikationslasten zu befreien und überall nach Hardwarelösungen zu suchen, die in der extremen Weltraumumgebung hohen Routing - Durchsatz standhalten können. Der Kampf um die zukünftigen Konstellationen in niedriger Umlaufbahn ist nicht nur ein Wettlauf um die Raketenkapazität, sondern auch ein Wettlauf um die Produktionskapazität der Netzwerk - Austauschknoten.
Derjenige, der zuerst der "Cisco" oder "Huawei" des Weltraums wird und in industriellem Maßstab energieeffiziente und hochdurchsatzfähige satellitengestützte Austauscheinrichtungen liefern kann, wird in dieser Phase der Rekonstruktion des Rechennetzwerks die reichsten Dividenden aus der untersten Hardwareebene einfahren.
Das ungleiche Verteilungsproblem der Rechenleistung
Die direkte Folge dieser Verschiebung der Engstelle ist das "ungleichmäßige Verteilungsproblem der Rechenleistung" bei der praktischen Betrieb von riesigen Satellitenkonstellationen.
In der physischen Realität der Erdnahen Umlaufbahn hat die Rechenlast der Satelliten eine starke Gezeitenwirkung.
Nehmen wir einen Satelliten (Satellit A), der gerade über den bevölkerungs - und industrieschwer besiedelten östlichen Teil Chinas fliegt, als Beispiel. Die Anzahl der momentan angeschlossenen Endgeräte steigt sprunghaft an, und es können möglicherweise auch Rechenintensive Aufgaben wie Hochauflösungsbildgebung hinzukommen, was dazu führt, dass die CPU auf dem Satelliten sofort an ihre Kapazität stößt und sogar die Gefahr einer Überhitzung besteht.
Im Vergleich dazu befindet sich ein anderer Satellit (Satellit B), der über der weiten Fläche des Pazifiks fliegt und über die Interstellare Laserverbindung mit Satellit A verbunden ist, in einer Situation, in der er über ausreichende Sonnenenergie verfügt, aber fast keine Datenverarbeitungslast hat.
Die wirtschaftlichen versunkenen Kosten, die durch die ungenutzte Rechenleistung verursacht werden, sind eine Last, die kommerzielle Satellitenkonstellationen kaum tragen können.
Die gegenwärtige technische Lösung zielt auf die Übertragung der Rechenleistung zwischen Satelliten (Task Offloading). Die zentrale Logik besteht darin, ob Satellit A in Millisekunden entscheiden kann, seine übermäßige Rechenlast über die Hochdurchsatz - Laserverbindung an den inaktiven Satelliten B zu "übertragen", und nach der Verarbeitung das Ergebnis zurückzusenden oder direkt an die Erdstation zu senden.
Die Herstellung der Hardwareverbindung bietet nur die Grundvoraussetzung. Die echte Barriere für die Übertragung der Rechenleistung liegt in der Entwicklung eines verteilten Weltraum - Scheduling - Algorithmus, der in Echtzeit das gesamte Netzwerk koordinieren kann.
Dieses Scheduling - System muss unter mehrdimensionalen physikalischen Beschränkungen eine schnelle Optimierung vornehmen. Es muss in Echtzeit die aktuelle Ladung (ob es intensive Rechenaufgaben unterstützen kann), die Wärmekontrollreserve (ob es die Hitzeentwicklung der Chips aushalten kann) und die dynamische Stabilität der Laserverbindungen an tausenden von Knotenpunkten in der Konstellation erfassen.
Unter dieser Logik wird die Fähigkeit des Betriebssystems (OS) der Konstellation zum Wettbewerbsschwerpunkt.
Die Entwicklung einer untersten Architektur, die die Rechenressourcen dynamisch und reibungslos auf der Grundlage von Echtzeitumgebungsparametern verteilen kann, wird direkt die Gesamtausnutzung der Rechenleistung von riesigen Satellitenkonstellationen bestimmen. Dies bildet die stärkste kommerzielle Schutzmauer für zukünftige Rechenleistungnetzwerke.
Die falsche These von der vollständigen Übertragung der Rechenleistung in den Weltraum
Obwohl der Interstellare Scheduling - Algorithmus die Weltraum - Rechenleistungskapazität möglichst effizient nutzen kann, ist die blindhäßige Propagierung der Idee, "die gesamte Rechenleistung in den Weltraum zu übertragen", völlig im Widerspruch zu den grundlegenden physikalischen Prinzipien und kommerziellen Regeln.
Die Weltraumumgebung hat eine doppelte Beschränkung auf die Rechenleistungshardware: Erstens ist es die Energieobergrenze. Unter der doppelten Beschränkung der Raketenkapazität und der Satellitengröße ist die Stromerzeugungsleistung der Solarmodule von Satelliten im Bereich von einigen hundert Kilogramm streng festgelegt.
Zweitens ist es die Wärmeableitung. In der luftleeren Weltraumumgebung ohne Luftkonvektion kann die Abwärme, die von hochverbrauchenden Rechenchips erzeugt wird, nicht in der Zeit abgeleitet werden, was direkt zu einem thermischen Ausfall des gesamten Satelliten führt.
Unter diesen strengen physikalischen Beschränkungen ist es derzeit völlig utopisch, riesige Modelle mit Milliarden von Parametern in der Erdnahen Umlaufbahn für die Tieftraining (Training) zu implementieren.
Die Übertragung der Rechenleistung in den Weltraum ist eine Notwendigkeit, aber ein rücksichtsloser Rausch ohne Berücksichtigung des Energieverbrauchs - Verhältnisses ist sicherlich eine wirtschaftliche Rechnung, die nicht aufgeht.
Der Schlüssel zur Lösung des Problems liegt darin, die Grenzen zwischen der Weltraum - und der Erd - Rechenleistung aus der Perspektive der Ingenieurökonomie neu zu definieren und ein praktisches "integriertes Weltraum - Erde - Cloud - Netzwerk" aufzubauen. Dies erfordert, dass die Branche das punktuelle Denken aufgibt und eine klare "Arbeitsteilung zwischen Weltraum und Erde" neu definiert:
Im Weltraum (Satellitennetz - Knotenpunkte) liegt der Fokus auf "Agilität und geringer Latenz".
Die Satelliten, die sich hundert Kilometer von der Erde entfernt befinden, sollten aufgrund ihrer physikalischen Lage den schweren Rechenlasten entledigen und sich auf die "Vorabaufgaben" konzentrieren.
Konkret bedeutet dies die Vorverarbeitung der Rohdaten, die von einer riesigen Anzahl von Sensoren erzeugt werden, die Extraktion der Merkmale der Kerninformationen und die Ausführung von "Echtzeit - Inferenz" mit leichten AI - Modellen. Die Kernkennzahlen der Weltraum - Rechenleistung sind immer die Reaktionsgeschwindigkeit und die Rechenleistung pro Watt (TOPS/W).
Auf der Erde (Intelligente Rechenzentren) übernehmen die "schweren Waffen und die globale Koordination".
Die Erdstationen verfügen über eine unbegrenzte Stromversorgung und ein etabliertes Flüssigkeitskühlungssystem und sollten die aufwändigen Aufgaben übernehmen, die im Weltraum nicht berechnet oder gespeichert werden können.
Dies umfasst die "langfristige Speicherung" einer riesigen Menge an historischen Daten, das "Tieftraining" komplexer großer Modelle sowie die Routing - Verwaltung und die Netzwerkverteilung der Konstellation aus einer globalen Perspektive.
Wenn man die niedrigdimensionale Perspektive des Vergleichs der Parameter einzelner Satelliten hinter sich lässt, hat sich die Wettbewerbslogik in der zweiten Hälfte der Konstellationen in niedriger Umlaufbahn grundlegend verändert. Die echte Endprüfung liegt in der Fähigkeit, das Systemengineering zusammenzufügen.
Die zukünftigen Spitzenakteure, die den Markt dominieren können, werden diejenigen sein, die die physische Kluft zwischen Weltraum und Erde überwinden können und die Tausende von GPU - Intelligenten Rechenclustern auf der Erde mit den Tausenden von dynamischen satellitengestützten Knotenpunkten im Weltraum über Hochgeschwindigkeitsverbindungen zu einem nahtlosen "Rechennetz" verbinden können.
Dies ist der echte Eintrittskartenpreis für den Sieg im Kampf um die Basis der Weltraum - Rechenleistung und den Zugang zu den nächsten Generationen der Weltrauminfrastruktur.
Dieser Artikel stammt aus dem WeChat - Account "Xingdong Wuji", Autor: Unilym, veröffentlicht von 36Kr mit Genehmigung.