StartseiteArtikel

Neue Erzählung: Weltraum-Rechenleistung

锦缎2025-12-16 08:32
Das ultimative Paradies der Rechenleistung?

Der Wall Street Journal berichtete am 5. Dezember, dass SpaceX kurzzeitig eine neue Aktienemission starten wird und sein Unternehmenswert auf erstaunliche 800 Milliarden US-Dollar steigen könnte. Dies würde bedeuten, dass der Unternehmenswert des Unternehmens in nur fünf Monaten verdoppelt würde.

Als Reaktion auf diese Marktgerüchte blieb Elon Musk strategisch vage. Er leugnete, dass das Unternehmen 800 Milliarden US-Dollar Kapital aufnehmen würde, betonte aber gleichzeitig die kontinuierliche positive Cashflow-Situation von SpaceX sowie die zweimal jährliche Aktienrückkaufpolitik, um dem Markt ein positives Signal über die finanzielle Gesundheit des Unternehmens zu senden.

Bei der Erörterung der zentralen Treiber für den Unternehmenswert verband Musk diesen direkt mit den Fortschritten von Space-Xs beiden Eckprojekten: Starship und Starlink. Er betonte insbesondere, dass der erfolgreiche Erwerb des Funkfrequenzrechts für die globale Satelliten-zu-Handy-Kommunikation (D2D) der Schlüssel für den Zugang zu einem Potenzialmarkt im Billionenbereich sei.

Diese Unternehmenswertprognose hat die Kapitalmärkte erschüttert. Wenn diese Prognose erfüllt werden würde, würde SpaceX nicht nur OpenAI übertreffen und an die Spitze der weltweit größten "Unicorns" aufsteigen, sondern auch ein Volumen erreichen, das vergleichbar mit einem Technologie-Souveränitätsfonds wäre. Selbst im Vergleich zu den Unternehmen der S&P 500-Index-Komponenten würde der Unternehmenswert von SpaceX auf den 13. Platz springen. Sein Marktwert würde sogar die Summe der sechs größten US-amerikanischen Verteidigungsunternehmen wie Lockheed Martin und Raytheon übersteigen, was die Stellung des kommerziellen Weltraumbereichs als eine strategische Branche auf nationaler Ebene im Blickfeld der Kapitalgeber unterstreicht.

Was noch eingehender analysiert werden muss, ist, dass in dieser Unternehmenswertgeschichte ein grandioses Konzept jenseits des traditionellen Satelliteninternets deutlich sichtbar wird:

Orbitale Berechnung, oder "Weltraumrechenleistung".

01 Musks neues Streben

Musk gab bekannt, dass SpaceX vorhat, in den Bereich der orbitalen Rechenzentren vorzudringen. Der Grund hierfür liegt in einem immer gravierender werdenden Engpass auf der Erde: Es wird immer schwieriger, billige, nachhaltige und riesige Mengen an Strom für die Ausführung von großen KI-Modellen zu finden. Daher wird der Weltraum zum neuen Versprechensland.

In Musks Vorstellung könnte die direkte Installation von massiven KI-Berechnungseinheiten im Weltraum in den nächsten drei bis vier Jahren "die schnellste und praktikabelste Möglichkeit zur Erweiterung der Rechenleistung" sein.

Er gab eine beeindruckende quantitative Prognose ab: Wenn SpaceX jedes Jahr eine Nutzlast im Millionen-Tonnen-Bereich in die Erdumlaufbahn bringen könnte und jeder Satellit über etwa 100 Kilowatt spezifischer KI-Rechenleistung verfügen würde, würde die jährlich neu hinzugekommene Rechenleistung 100 Gigawatt (GW) betragen - das ist mehrere Male die gesamte Rechenleistung von Hunderten von Superrechenzentren auf der Erde.

Obwohl dieses Zukunftsszenario viele technische Details auslässt, sind die theoretischen Vorteile äußerst attraktiv: Orbitale Rechenzentren erfordern fast keine menschliche Wartung; die Energie stammt aus dem unerschöpflich vorhandenen und gleichmäßigen Weltraumsolarstrom; die Wärmeabfuhr kann dank der fast absoluten Null-Temperatur des Weltraumhintergrunds über passive Wärmestrahlung effizient erfolgen, wodurch etwa 40 % des Kühlenergieverbrauchs von Rechenzentren auf der Erde eingespart werden können.

Darüber hinaus können diese Rechenleistung tragenden Satelliten über intersatellitärer Laserverbindungen ein intelligentes Netzwerk bilden, ein verteiltes und dynamisch steuerbares "Orbitales KI-Cloud"-System schaffen und nahtlos mit dem bestehenden Starlink-Kommunikationsnetz integriert werden, um eine raum- und luftgestützte Infrastruktur für Berechnung und Kommunikation aufzubauen.

02 Das ultimative Paradies für Rechenleistung?

Der Weltraum bietet eine physikalische Umgebung, die auf der Erde schwer zu reproduzieren ist. Die Hintergrundtemperatur beträgt etwa minus 270 Grad Celsius, was nahe an der absoluten Null liegt. Dies ermöglicht es, dass die Abwärme von Elektronikgeräten direkt und effizient über Wärmestrahlung in den Weltraum abgegeben werden kann.

Im Gegensatz dazu sind Rechenzentren auf der Erde auf umfangreiche Klimaanlagen, Kälteaggregate und Lüftersysteme angewiesen, um zu kühlen. Der damit verbundene Energieverbrauch macht in der Regel 30 bis 40 % des gesamten Energieverbrauchs aus. Im Weltraum hingegen ist der zusätzliche Energieverbrauch bei passiver Strahlungskühlung nahezu Null. Einige Analysen (wie die von StarCloud) weisen darauf hin, dass die Gesamtenergiekosten von Weltraumrechenzentren auf ein Zehntel der Kosten von Rechenzentren auf der Erde sinken könnten.

Die Wärmeabfuhr im Weltraum ist jedoch nicht kostenlos. Um die von Rechenchips wie GPUs erzeugte Wärme effizient in Form von Infrarotstrahlung abzuführen, müssen riesige Strahlungskühlkörper installiert werden. Ein gigantisches orbitales Rechenzentrum mit einer Rechenleistung im ExaFLOP-Bereich könnte einige Quadratkilometer an Kühlfläche benötigen. Dies stellt sicherlich eine epische Herausforderung für das Design der Satellitenstruktur, die Materialtechnologie und die Orbitaleinbringung dar.

Trotz dieser Faktoren ist der inhärente Vorteil des Weltraums bei der Wärmeabfuhr dennoch immens.

Ein noch größerer Energievorteil kommt von der Sonne. In der Erdumlaufbahn beträgt die Solardichte konstant etwa 1.361 Watt pro Quadratmeter und ist nicht von atmosphärischer Abschwächung, Tag-Nacht-Wechsel (durch Orbit-Design kann fast ständige Sonneneinstrahlung erreicht werden) und Wetterbedingungen abhängig. Im Vergleich dazu beträgt die durchschnittliche jährliche effektive Sonneneinstrahlung selbst in den sonnigsten Wüstenregionen auf der Erde nur etwa ein Fünftel der im Weltraum.

Von der Anwendungslogik her bedeutet die Installation von Rechenleistung in einer Satellitenkonstellation um die Erde die Schaffung einer weltumspannenden, schlanken Edge-Computing-"Raumplattform".

Da die Satelliten ständig in Bewegung sind, können Benutzer an jedem Ort der Welt (einschließlich Ozeanen, Polargebieten und anderen traditionellen Netzwerkblindflecken) in kurzer Zeit auf nahegelegene Rechenleistungszugangspunkte zugreifen. Dies bedeutet, dass Daten nicht mehr über Tausende von Kilometern an Erd-Kabeln hin- und hergesendet werden müssen. Die Latenzzeit von Ende zu Ende könnte um eine Größenordnung gesenkt werden, was nicht nur "Signalausfälle" vollständig beseitigen würde, sondern auch neue Möglichkeiten für Anwendungen eröffnen würde, die empfindlich auf Latenzzeiten reagieren, wie Autonomes Fahren, Ferneingriffe, immersive Metaverse-Anwendungen und Hochfrequenz-Finanztransaktionen.

Zurzeit hat SpaceX dank seiner wiederverwendbaren Raketentechnologie die globale Führung bei der Satelliten-Einbringung in die Umlaufbahn fest in der Hand, wobei sein Anteil am Gesamtstartgewicht etwa 90 % beträgt. Mit der zunehmenden Reife der Startkapazität von Wettbewerbern wie Blue Origin (New Glenn) und Rocket Lab (Electron/Neutron) sowie dem raschen Wachstum des chinesischen kommerziellen Weltraumbereichs tritt der globale Startmarkt in eine neue Wachstumsphase ein. Der Skaleneffekt dürfte die Kosten pro Kilogramm Nutzlast für die Einbringung in die Umlaufbahn weiter senken und somit die wirtschaftlichen Hindernisse für die Installation von größeren Rechenleistungssatellitenclustern beseitigen.

03 Der schwierige Weg zu einem glänzenden Traum

Aber um diesen Traum in die Realität umzusetzen, muss der Weltraumrechenleistung eine Vielzahl von schwerwiegenden Herausforderungen von der Technologie bis zur Governance bewältigen.

Die technische Machbarkeit ist die erste Hürde:

Das Problem der Strahlungshärtung: Der Weltraum ist voller hochenergetischer kosmischer Strahlung und geladener Teilchen, die ungeschützte integrierte Schaltkreise beschädigen können, wie Bitflips, Latch-Ups und sogar dauerhafte Schäden verursachen. Die Verwendung von speziellen strahlungsharten (Rad-Hard) Chips kann zwar das Zuverlässigkeitsproblem lösen, aber die Herstellungsprozesse sind in der Regel mehrere Generationen hinter den Chips für den Verbraucherbereich zurück, was hohe Kosten und Leistungseinbußen mit sich bringt. Das Finden eines Gleichgewichts zwischen kommerziell verfügbaren Hochleistungsrechnerhardware (wie dem NVIDIA H100) und der notwendigen Strahlungsschutzmaßnahmen ist das zentrale technische Problem.

Die Wartung und Zuverlässigkeit im Orbit: Wenn ein Satellit ausfällt, ist es derzeit fast unmöglich, ihn manuell zu reparieren. Dies erfordert eine sehr hohe Systemzuverlässigkeit oder ein modularer Design, der den Austausch von Komponenten ermöglicht. Nach der Masseneinbringung von Satelliten in die Umlaufbahn ist es auch eine große Herausforderung, das Ende der Lebensdauer der Satelliten zu verwalten und die Entstehung von Weltraumschrott zu vermeiden.

Die Energie- und Wärmemanagement-Skalierung: Wie bereits erwähnt, bedeutet eine Rechenleistung im Gigawatt-Bereich auch einen Energieverbrauch und Abwärme im Gigawatt-Bereich. Das Design von leichten, effizienten und gigantisch ausdehnbaren Solarmodulen und Strahlungskühlern ist ein komplexes Systemprojekt, das Materialwissenschaft, Strukturmechanik und Bahnmechanik umfasst.

Die Netzwerkverbindung und Latenz: Obwohl die intersatellitärer Laserverbindungen eine hohe Bandbreite bieten können, müssen die dynamische Netzwerkbildung, die Routenoptimierung und die Stabilität der Kommunikation zwischen Satelliten und Erde, insbesondere unter widrigen Weltraumwetterbedingungen, noch umfangreich getestet werden.

Regulierung und Governance sind ein weiteres schwieriges Gebiet:

Der Wettlauf um die Funkfrequenzen: Sowohl die Kommunikation zwischen Satelliten und Bodenbenutzern (D2D) als auch die Kommunikation zwischen Satelliten erfordern die Nutzung von knappen Funkfrequenzen. Das Koordinierungsverfahren der Internationalen Fernmeldeunion (ITU) ist langwierig, und die Regulierungsrichtlinien der einzelnen Länder variieren. Insbesondere die Kompatibilität und Störungsbehebung der Funkfrequenzen mit den bestehenden 5G/6G-Netzen auf der Erde werden ein langwieriges Machtspiel sein.

Die Orbitale und Weltraum-Sicherheit: Der Weltraum in der Erdumlaufbahn ist begrenzt. Mit der Hinzunahme von Tausenden von Rechenleistungssatelliten steigt das Kollisionsrisiko dramatisch, was anspruchsvolle Anforderungen an das Weltraumverkehrsmanagement (STM) stellt. Die internationalen Regeln für "wer hat das Recht zur Einbringung, wie können Kollisionen vermieden werden und wie wird die Verantwortung festgelegt" fehlen noch.

Die Datenhoheit und -sicherheit: Wenn Daten in einer grenzüberschreitenden "Weltraum-Cloud" gespeichert und verarbeitet werden, werden Fragen wie die Zuständigkeit der Gerichtsbarkeit, den Schutz der Datenschutzrechte (wie die GDPR) und die Regulierung des grenzüberschreitenden Datenflusses im Zusammenhang mit der nationalen Sicherheit zu schwierigen internationalen politischen und rechtlichen Themen.

04 Der Wettlauf beginnt, die Ökosystem entsteht

Trotz der enormen Herausforderungen haben Kapitalgeber und Technologie-Riesen bereits reagiert. Institutionen wie Morgan Stanley haben in ihren Forschungsberichten bereits die Hauptakteure in diesem aufstrebenden Bereich identifiziert, und ein anfängliches Ökosystem rund um die "Weltraumrechenleistung" entsteht.

Die Pioniere der Startup-Welt:

Starcloud ist der direkteste potenzielle Wettbewerber von SpaceX. Das Unternehmen erhielt 2024 über 20 Millionen US-Dollar in der Seed-Runde und startete im November dieses Jahres den Technologie-Testsatelliten "Starcloud-1". Der Satellit ist mit einem NVIDIA H100 GPU und dem leichtgewichtigen Open-Source-Modell Gemma von Google ausgestattet und soll das NanoGPT-Modell im Weltraum trainieren. Am 11. Dezember gab das Unternehmen bekannt, dass es erfolgreich die erste Trainingseinheit für ein großes Sprachmodell im Orbit abgeschlossen habe, was einen wichtigen Schritt in der Validierung des Konzepts darstellt.

Axiom Space hat aufgrund seiner Erfahrungen im Betrieb von kommerziellen Weltraumstationen die Installation von orbitalen Rechenzentren in seinen Produktplan aufgenommen und plant, bis Ende 2025 die ersten freifliegenden Knotenpunkte zu starten. Sein Vorteil liegt möglicherweise darin, dass es die zukünftige kommerzielle Weltraumstation als Plattform für die Verwaltung von Rechenleistungseinheiten größerer Skala nutzen könnte.

Lonestar Data Holdings hat sich für einen noch visionäreren Ansatz entschieden - ein Mondrechenzentrum. Das Unternehmen hat mehrere Speicher-Tests an der Internationalen Weltraumstation durchgeführt und schickte im Februar dieses Jahres mit der Mondlandefähre von "Intuitive Machines" eine kleine Datenspeicherladung auf den Mond. Obwohl die Mission nach der Landung vorzeitig beendet wurde, wurde die Kurzzeitfunktion der Technologie in der Tiefraumumgebung bewiesen. Das Unternehmen hat die Vision, den Mond als "ultimatives Offshore-Backup-Zentrum" für die Erde zu nutzen.

Die Strategie der Technologie-Riesen:

Google hat im November 2024 offiziell das Projekt "Suncatcher" gestartet und plant, mit seinen selbst entwickelten Tensor Processing Units (TPU) ein Weltraum-KI-Rechencluster aufzubauen. Der Projektplan sieht vor, im Anfang von 2027 zwei Prototypensatelliten zum Technologietest zu starten und im Anfang der 2030er Jahre, wenn die Startkosten durch vollkommen wiederverwendbare Raketen stark sinken, die Weltraumrechenkosten auf das Niveau der Erde zu bringen.

NVIDIA ist als zentraler Anbieter von Rechenleistung tief in das Projekt involviert. Seine Hochleistungs-GPUs (wie der bereits ins Weltall geschickte H100) sind die erste Wahl für die Weltraumrechenleistungshardware. Über Initiativen wie das "NVIDIA Inception-Programm" baut es enge Partnerschaften mit Unternehmen wie Starcloud auf und definiert gemeinsam die Standard-Hardware-Architektur für Weltraumrechnungen. Darüber hinaus wird die Anpassung der CUDA-Ökosystem und des gesamten KI-Softwarestapels an die Weltraumumgebung ein wichtiger Faktor für die Entwicklung der gesamten Branche sein.

Insgesamt befindet sich die Weltraumrechenleistung noch in einem sehr frühen "Technologie-Entdeckungs"-Stadium, obwohl