Chen Chao, CEO von Guanglian Xinke: Optische Interkonnektivität ist der unvermeidliche Weg zum AGI | WISE2025 Business King
Am 27. und 28. November fand die von 36Kr organisierte WISE2025 Business King Conference, die als "jährliche technologische und kommerzielle Richtlinie" gilt, im Conduction Space im 798 Kunstgebiet in Peking statt.
Dieses Jahr ist die WISE-Konferenz nicht mehr eine herkömmliche Branchenkonferenz, sondern eine immersive Erfahrung in Form von "Technologie- und Geschäftsstücken". Vom Neudefinieren der Hardwaregrenzen durch KI bis hin zum Öffnen der Türen zur realen Welt durch Embodied AI; von der Globalisierung von Marken in der Auslandsausdehnungswelle bis hin zum "Cyber-Aufrüsten" traditioneller Branchen – wir rekonstruieren nicht nur Trends, sondern erfassen auch die Erkenntnisse, die in unzähligen Geschäftspraktiken gewonnen wurden.
Wir werden in den folgenden Abschnitten die wahre Logik hinter diesen "spannenden Geschichten" Schritt für Schritt aufschlüsseln und zusammen die "einzigartigen Landschaften" des Geschäftslebens im Jahr 2025 entdecken.
Chen Chao, CEO von Optolink Semiconductor
Nachfolgend finden Sie das Transkript der Rede von Herrn Chen Chao, Partner von True Insight Capital und CEO von Optolink Semiconductor, editiert von 36Kr:
Guten Nachmittag! Ich bin Chen Chao von Optolink Semiconductor. Ich freue mich sehr, die Gelegenheit zu haben, Ihnen etwas zu erzählen. Mein Vortragsthema lautet "Computing Power · Boundless: Optische Interkonnektivität ist der unvermeidliche Weg zu AGI".
Vor dem offiziellen Beginn möchte ich Sie einladen, sich zunächst eine Reihe von Bildern anzusehen. Diese drei Bilder wurden vom multimodalen Large Language Model OpenAI Sora generiert. Die Computing-Power-Skalen unterscheiden sich. Von links nach rechts wurden 300, 1.250 und 10.000 GPU-Karten verwendet. Von links nach rechts verbessert sich auch die Bildqualität. Können wir also eine grundlegende Annahme machen: Die Menge der eingesetzten Computing Power bestimmt das Niveau der KI-Intelligenz.
Im Jahr 2012 tauchte AlexNet auf, was einen bedeutenden Durchbruch der Deep Learning-Technologie im Bereich der Computervision darstellte. Im Jahr 2015 veröffentlichte DeepMind einen Artikel in der Zeitschrift "Nature", in dem Deep Learning und Reinforcement Learning kombiniert wurden. Dies ermöglichte es erstmals der KI, komplexe Aufgaben autonom zu lernen. Im Jahr 2016 erschien AlphaGo, und die KI besiegte erstmals einen Spitzenspieler im Bereich des Go-Spiels. Im Jahr 2022 erschien ChatGPT, und die KI trat erstmals aus dem Fachbereich in die Öffentlichkeit. Mit der Entstehung von GPT-5 in diesem Jahr vergehen seit ChatGPT drei Jahre. Ich bin sicher, dass viele von Ihnen oder unsere Online-Freunde mehr oder weniger verschiedene KI-Tools zur Effizienzsteigerung nutzen.
Wenn wir die gesamte Entwicklung der KI betrachten und das erste Dartmouth-Conference im Jahr 1956 als Beginn der KI ansehen, sind es inzwischen fast 70 Jahre. Warum hat die KI in den letzten zehn Jahren einen rapiden Fortschritt gemacht und nicht in den vorherigen 60 Jahren? Die Evolution der KI wird von der Computing Power angetrieben. In den letzten zehn Jahren hat die Computing Power um mehr als eine Milliarde Mal zugenommen, also um das 10^9-fache. Man kann sagen, dass die jährliche Zunahme der Computing Power fast das 10-fache beträgt.
Für das Training eines AlexNet-Modells wurden nur zwei NVIDIA GTX580-Grafikkarten verwendet. AlphaGo benötigte 1.920 CPU-Kerne und 280 GPU-Karten. GPT-3 nutzte 10.000 NVIDIA G100-Grafikkarten, was eine sehr hohe Anzahl ist. GPT-5 benötigt etwa 200.000 bis 300.000 NVIDIA H100-Grafikkarten, was bereits eine riesige Zahl ist. Wenn wir uns der allgemeinen KI (AGI) nähern, wie viel Computing Power werden in Zukunft GPT-6 und GPT-7 benötigen, um AGI zu erreichen?
Laut Vorhersagen von Silicon Valley-Experten für fortschrittliche Technologien benötigt man für die Erreichung von AGI etwa 10^41 FLOPs an äquivalenter Computing Power. Unser aktueller Computing-Power-Level liegt bei etwa 10^25 FLOPs. Das bedeutet, dass wir noch einen Unterschied von etwa 10^16 FLOPs haben. Wenn wir annehmen, dass auf der Ebene der Softwarealgorithmen ein Unterschied von 10^8 FLOPs überwunden werden kann, müssen die verbleibenden 10^8 FLOPs auf der Ebene der Hardware-Chips verbessert werden. Das heißt, um AGI zu erreichen, muss die aktuelle Computing-Power um das 100-Millionenfache erhöht werden, was eine sehr große Zahl ist.
Können wir AGI erreichen, wenn wir uns an den gegenwärtigen Entwicklungsverlauf der Computing-Power-Branche halten?
Nein. Warum? Weil die Computing-Power-Branche zwei große Herausforderungen zu bewältigen hat: die Bandbreiteneinschränkung und das Energieverbrauchsproblem.
Schauen wir uns zunächst die Bandbreite an. Die Interkonnektivitätsbandbreite begrenzt die Entwicklung der Computing Power erheblich. Die Wachstumsrate der Interkonnektivitätsbandbreite ist deutlich niedriger als die der Computing Power. In den letzten 20 Jahren hat sich die Computing Power pro Chip um das 60.000-fache erhöht. Die Speicherbandbreite hat sich nur um das 100-fache verbessert, was einen Faktor von 600 im Vergleich zur Computing-Power-Erhöhung darstellt. Die Interkonnektivitätsbandbreite hat sich nur um das 30-fache verbessert, was nur ein Zweitausendstel der Computing-Power-Erhöhung beträgt. Die Leistung des gesamten Rechenclusters wird stark von der Bandbreite begrenzt, nicht von der Computing Power.
Betrachten wir ein konkretes Beispiel. Das Grok3-Large Language Model von Elon Musk wurde auf dem Colossus-Rechencluster trainiert, der etwa 200.000 NVIDIA H100-Chips verwendet. Wie verhält es sich mit der Interkonnektivitätsbandbreite auf verschiedenen Ebenen eines solchen großen Clusters? Man kann sehen, dass die Speicherbandbreite im Inneren des Chips 4 TB pro Sekunde beträgt. Wenn man sich nach außen bewegt, beträgt die Bandbreite der NVLink-Verbindung zwischen zwei GPU-Karten 0,9 TB pro Sekunde, was etwa ein Fünftel der vorherigen Bandbreite ist. Wenn man noch weiter nach außen geht, muss man zwischen den Servern ein IB-Netzwerk verwenden, dessen Bandbreite 0,05 TB pro Sekunde beträgt. Im Vergleich zur NVLink-Bandbreite ist dies fast ein Zwanzigstel.
Beim Übergang vom Inneren des Chips zum Server wird die Bandbreite auf jeder Ebene eingeschränkt. Die Interkonnektivitätsbandbreite hat sich zu einem Engpass entwickelt, der die Leistung des gesamten Rechenclusters begrenzt. Dies ist der Grund, warum die Auslastung vieler Rechencluster und Chips nur 20 % bis 30 % beträgt und nicht 80 % bis 90 %.
Schauen wir uns nun das Energieverbrauchsproblem an. Hier haben wir zwei Vergleiche. Auf der rechten Seite sehen wir die Gesamtleistung des Drei-Schluchten-Staudamms und des Dayawan-Kernkraftwerks, die jeweils 22,5 GW und 6 GW betragen. Gigawatt ist eine sehr große Einheit.
Auf der linken Seite sehen wir die geplanten Größenordnungen der weltweit im Bau befindlichen Datencentren. Das von OpenAI und Microsoft gemeinsam geschaffene und mit 100 Milliarden US-Dollar finanzierte Supercomputing-Zentrum Stargate hat eine geplante Gesamtleistung von 5 GW, was fast der Gesamtleistung eines Dayawan-Kernkraftwerks entspricht. xAI, ein Supercomputing-Zentrum, das von Elon Musk gegründet und in Zusammenarbeit mit der saudischen KI-Firma und NVIDIA errichtet wird, hat eine Größe von 6,6 GW, was sogar die Gesamtleistung des Dayawan-Kernkraftwerks übersteigt und etwa ein Drittel des Drei-Schluchten-Staudamms beträgt. Ein Computingszentrum entspricht der Stromerzeugung eines Kernkraftwerks. Wenn wir in Zukunft AGI erreichen wollen und die Computing Power um das 100-Millionenfache erweitern müssen, reicht die Weltstromproduktion für die Berechnungen nicht aus. Wo liegt das Problem?
Dies sind die Vorder- und Rückseitenbilder des NVIDIA NVL72-Superknotens. Wenn wir die Rückseite des Backplanes vergrößern, sehen wir viele aus Kupfer hergestellte Kabel, die zusammen mehr als zwei Meilen lang sind. Kupfer als Medium hat ein Problem: Mit zunehmender Übertragungsgeschwindigkeit wird es von der Skineffekt beeinflusst. Das bedeutet, dass nur die Oberfläche des Kupfers für die Signalübertragung verwendet wird, und es fließt kein Strom durch das Innere des Kupfers. Dies bedeutet, dass die elektrische Interkonnektivität, die durch Kupfer repräsentiert wird, in Bezug auf Bandbreite und Energieverbrauch ihre physikalischen Grenzen erreicht hat. Bei einer Kupferkabellänge von zwei Meilen wird 90 % des Energieverbrauchs eines Rechenzentrums für die Datenverschiebung und nicht für die Berechnung aufgewendet, was eine enorme Verschwendung ist.
Was tun, wenn Kupfer nicht in der Lage ist, die Aufgabe zu erfüllen? Wir verwenden Licht.
Optische Interkonnektivität ist die beste Lösung, um die Computing-Power-Schranke zu überwinden. Seit der erfolgreichen Verlegung der ersten globalen Unterseekabel für das Internet im Jahr 1998 haben wir die Fähigkeit zur optischen Kommunikation und Verbindung von Tausenden bis Zehntausenden von Kilometern gelöst. In den letzten zehn bis zwanzig Jahren hat sich das Datencenter-Business stark entwickelt. Wir haben kohärente optische Module und Datacom-optische Module entwickelt, die die optische Verbindung von einem Kilometer bis zu Hunderten von Kilometern ermöglichen. Können wir für die Verbindung innerhalb eines Kilometers, von einigen hundert Metern bis zu wenigen Zentimetern, auch Licht verwenden? Die Antwort ist ja. Wir können die Chips so gestalten, dass sie Licht emittieren, um die optische Verbindung von einigen hundert Metern bis zu wenigen Zentimetern zu ermöglichen. Wir verwenden Elektrizität für die Berechnung und Licht für die Interkonnektivität, denn wir glauben, dass die optische Interkonnektivität im Wesentlichen eine weitere Erweiterung und Vertiefung der optischen Kommunikation im Bereich der Datenkommunikation ist.
Optolink Semiconductor ist ein Anbieter von Lösungen für die optische Interkonnektivität von nächsten Generationen von KI-Rechenclustern. Wir können direkt von den Chips Licht emittieren und Rechenleistungserbringern Lösungen für die optische Interkonnektivität der nächsten Generation mit hoher Bandbreite, geringem Energieverbrauch und geringer Latenz bieten.
In Zukunft werden alle Datencentren durch optische Fasern aus grünen Energiequellen verbunden sein und reihenweise kopiert werden. Der Energieverbrauch wird sehr gering sein, aber die Bandbreite sehr hoch. Wir hoffen, das Bandbreiten-Energieeffizienz-Produkt um mindestens vier Größenordnungen, also um das 10.000-fache oder mehr, zu verbessern.
Hier ist eine Präsentation unserer Produkte. Auf der rechten Seite sehen Sie einen Silizium-optischen Wafer, der in einem chinesischen Waferfabrik hergestellt wurde. Dies ist eine Wafer-Level-Systemtestplattform. Auf der linken Seite sehen Sie die erste Generation der OIO-Hochgeschwindigkeits-Optischen-Engine-Evaluierungsplatine für Hochgeschwindigkeits-Sende- und Empfangseinheiten. Man kann sehen, dass die optische Faser auf der linken Seite in eine GPU geführt werden kann, um eine optische Verbindung zwischen den GPUs herzustellen.
Das Unternehmensziel von Optolink Semiconductor ist es, die chinesische Computing-Power-Branche bei der Schaffung einer eigenen parallelen Halbleiter-Ökosystem zu unterstützen. Ich denke oft an einen Vergleich: Im Bereich der Verbrennungsmotoren war es für uns schwierig, BMW, Mercedes und Audi direkt einzuholen. Aber wir haben einen anderen Weg gewählt und uns auf Elektromobile konzentriert, und jetzt haben wir sie erfolgreich überholt. Im Bereich der Halbleiter können wir ebenfalls einen anderen Weg einschlagen. Wenn wir NVIDIA und TSMC als die Rennstrecke der Verbrennungsmotoren betrachten, können wir vielleicht eine andere Rennstrecke wählen und uns ebenfalls überholen. Mit chinesischer Computing Power, chinesischer Interkonnektivität und chinesischen Waferfabriken können wir zwar in Bezug auf die Computing Power pro Chip noch einen gewissen Abstand zu den ausländischen Herstellern haben, aber wir können die Leistung und den Energieverbrauch des gesamten Rechenclusters übertreffen. Wir können einen einzigartigen Weg für die chinesische Halbleiterindustrie finden.
Was wird die Zukunft der Rechenzentren und der Computing-Welt im Jahr 2030 sein? Ich glaube, dass viele Menschen damals das Low-Earth-Orbit-Satelliten-Internet nutzen werden und mit dem Erdboden über Laserkommunikation verbunden sein werden. Das Backbone-Netzwerk wird durch optische Fasern verbunden sein, und die Datencentren werden optische Module, optische Interkonnektivität und optische Switches verwenden. Wir erwarten eine neue Ära der vollständigen optischen Interkonnektivität.
Vielen Dank für Ihre Aufmerksamkeit! Das war meine Präsentation heute.