Autounternehmen haben die AI-Krankheit: Über eine Milliarde Yuan pro Monat werden in die Wettbewerbsfähigkeit der intelligenten Fahrtechnologie investiert.
Text von Li Anqi
Bearbeitet von Li Qin
"Seit der zweiten Jahreshälfte hat Li Xiang fast alle Karten der Vertriebspartner aufgekauft." sagte eine informierte Person.
Durch den Druck der KI-Großmodelle im Start-up-Sektor wurde die Nachfrage nach Rechenleistung abrupt auf die Automobilbranche verlagert. Vor allem Unternehmen wie Li Xiang, Huawei und Xiaopeng Motors, die auf End-to-End-intelligentes Fahren setzen, zeigen sich besonders aggressiv.
Ähnlich wie bei der Angleichung der KI-Großmodelletechnologie weisen auch End-to-End-Intelligentfahrtechnologien Milliarden von Parametern auf und streben Hunderte von Milliarden an. Rechenleistung ist der Brennstoff für diesen Datenofen. Dies entscheidet auch, dass der Wettbewerb um End-to-End-Technologie und Rechenressourcen zu einer neuen Siegbedingung im intelligenten Fahren geworden ist.
"Li Xiang (CEO von Li Xiang Auto) fragt mich oft, ob die Rechenressourcen ausreichen, und wenn nicht, sollen wir weitere kaufen." sagte Lang Xianpeng, Vizepräsident für intelligentes Fahren bei Li Xiang, in einem Interview mit 36Kr. Laut 36Kr hat Li Xiang Auto derzeit bereits über zehntausend Rechenleistungskarten angesammelt und sucht gleichzeitig nach Standorten für Datenzentren.
Im Juli betrug die Cloud-Rechenleistung von Li Xiang 2,4 EFLOPS, bis Ende August stieg die Rechenleistung von Li Xiang plötzlich auf 5,39 EFLOPS. Innerhalb eines Monats erhöhte Li Xiang seine Cloud-Rechenleistung um fast 3 EFLOPS.
Ebenso hat Xiaopeng Motors angekündigt, dass die Cloud-Rechenleistung bis 2025 von derzeit 2,51 EFLOPS auf 10 EFLOPS steigen wird.
Auch Huawei hat innerhalb von zwei Monaten die Cloud-Trainingsrechenleistung von 5 EFLOPS auf 7,5 EFLOPS ausgeweitet.
Was bedeutet das? Brancheninsider berichten 36Kr, dass Automobilhersteller derzeit hauptsächlich Nvidia H100 und A800 Grafikprozessoren für das Training nutzen. Nach dem US-Verbot sind auf dem Markt hauptsächlich A800 im Umlauf.
Wie 36Kr Auto berichtet, kostet ein A800-Server (mit 8 Grafikkarten) rund 950.000 Yuan. Berechnet man mit FP16-Genauigkeit, erbringt eine einzelne A800-Karte eine Rechenleistung von 320 TFLOPS, sodass 1 EFLOPS (gleich 1.000.000 TFLOPS) ungefähr 3.125 A800-Karten oder 390 8-Karten-Module erfordert.
Berechnet man den Preis pro 8-Karten-Modul mit 950.000 Yuan, benötigt 1 EFLOPS Rechenleistung ungefähr 3,7 Milliarden Yuan.
Das bedeutet, dass Li Xiang Auto in den letzten 1,5 Monaten mehr als 1 Milliarde Yuan nur für die Lagerung von Rechenleistungschips ausgegeben hat, während Xiaopeng etwa 3,7 Milliarden Yuan aufwenden müsste, um das Gesamtziel für die Rechenleistung im kommenden Jahr zu erreichen.
Obwohl die Ausgaben immens sind, dürfen sich Automobilhersteller nicht ausruhen. Die intelligente Fahrtechnologie hat sich unter der großen Welle der KI in eine neue Paradigmenrevolution gewandelt: Von traditionsbasiertem Regelantrieb hin zu einem KI- und datengetriebenen "End-to-End"-Ansatz.
Um in Serie End-to-End-intelligente Fahrprodukte zu produzieren, müssen Automobilhersteller zuerst zu Daten- und Rechenleistungsmonstern werden.
Tesla ist zum "Rechenleistungsmaniak" geworden. Im September letzten Jahres hatte Tesla rund zehntausend AI-Trainingschips eingelagert, während das Zahlenwerk in diesem Jahr zeigt, dass Tesla aktuell über eine AI-Rechenleistung von etwa 67.500 Nvidia H100-Chips verfügt. Innerhalb eines Jahres hat sich der Rechenleistungsbestand um mehr als das Sechsfache erhöht.
Bildquelle: Tesla-Website
Das sind erschreckende Zahlen. Derzeit beträgt die Gesamtleistung von Tesla etwa 67,5 EFLOPS, zum Vergleich betrug die weltweite Rechenleistung im letzten Jahr 910 EFLOPS.
Doch durch das Füttern mit großen Datenmengen und das Training mit extremer Rechenleistung hat Tesla auf der FSD v12-Version eine intelligentere Fahrhilfe als je zuvor ermöglicht, die flüssiger und menschenähnlicher ist. Dies hat die Automobilbranche dazu veranlasst, sich auf dieses Daten- und Rechenleistungsspiel einzulassen.
Automobilhersteller leiden an Datenhunger
End-to-End-Intelligente Fahrtechnologie ist die Koalition von Daten und Rechenleistung.
Bezüglich der benötigten Daten für intelligentes Fahren auf End-to-End-Basis hat Tesla einige Kriterien angegeben: Ein End-to-End-Training für autonomes Fahren benötigt mindestens 1 Million vielseitiger, hochwertiger Clips (Videosegmente), um ordnungsgemäß zu funktionieren. Übersteigt die Zahl 10 Millionen Fälle, verbessert sich die Systemfähigkeit erheblich.
Ein Brancheninsider sagte gegenüber 36Kr, dass ein Clip in der Regel 15-30 Sekunden dauert, jedoch keine strikte Zeitvorgabe hat.
Tesla hat einen erheblichen Datenvorteil. Bisher hat Tesla weltweit über 7 Millionen Autos verkauft, und selbst wenn nur eine Million davon aktiv Daten liefern, würde Tesla jeden Tag eine Million Clips zur Verfügung stehen, um trainiert zu werden.
Ein Brancheninsider spekulierte gegenüber 36Kr, dass für das Training eines Modells mit 80 Milliarden Parametern in der Cloud mindestens 10.000 Stunden Trainingsdaten in diesen Model-ofen investiert werden müssen und alle zwei Wochen eine neue Datenaktualisierung erfolgen muss.
Je früher Unternehmen eine datengetriebene intelligente Fahrkette etablieren, desto schwerer wird es für Nachahmer sein, erfolgreich zu konkurrieren.
Li Xiang kündigte an, dass sie bis spätestens Anfang nächsten Jahres ein End-to-End+VLM auf den Markt bringen werden, das mit mehr als 10 Millionen Clips trainiert wurde. Vor kurzem erklärte Xiaopengs Leiter des intelligenten Fahrens, Li Liyun, dass Xiaopengs End-to-End-Modell bereits mit 20 Millionen Clips trainiert wurde.
Aber hochwertige Daten sind nicht leicht zu finden. Musk bemerkte einst, dass nützliche Benutzerinteraktionen (wertvolle Trainingsdaten) immer schwieriger zu sammeln seien. "Für jede 10.000 Meilen Fahrt ist nur eine Meile nützlich für das Training des FSD-Neuronalnetzwerks."
Auch Li Xiang räumt ein, dass nur 3% ihrer über 800.000 Autobesitzer wirklich hochwertige Daten bereitstellen.
Mehrere Branchenkenner berichten 36Kr, dass Automobilhersteller und intelligente Fahrtechnologieunternehmen derzeit auf zwei Arten Daten erfassen.
Ein Weg ist die Gewinnung aus Serienfahrzeugen. Beispielsweise schreiben Ingenieure bei den zehntausenden verkauften Autos spezielle Regeln, anhand derer spezifische Daten (nach Anonymisierung) hochgeladen werden, wenn das Fahrverhalten des Nutzers den Kriterien entspricht. Automobilnutzer können auch freiwillig spezielle Fälle hochladen.
Intelligente Fahrtechniklieferanten, die möglicherweise nicht von Serienfahrzeugdaten profitieren, bilden oft interne Teams aus hochwertigen Fahrern, die zur Datensammlung auf Straßen fahren.
Datenrückführung ist selbst kostenintensiv. Laut 36Kr Auto belaufen sich die Datenübertragungsgebühren eines führenden intelligenten Fahranbieters jährlich im Milliardenbereich. Bei neuen Automobilunternehmen könnten diese Kosten noch höher ausfallen.
Ein anderer Weg ist die Ausbeutung von Daten aus vorhandenem Bestand. In den frühen Phasen der intelligenten Fahrtechnik, als die Systeme noch nicht ausgereift waren, häuften Automobilfirmen große Datenmengen an, von denen viele Daten unbrauchbar waren, und Ingenieure konnten nur durch bestimmte Algorithmen nutzbare Informationen extrahieren.
Hochwertige Daten als Nährwerte entscheiden über die Qualität der Iteration eines intelligenten Fahrsystems. Dies stellt die Fähigkeit der Automobilhersteller, einen vollautomatisierten intelligenten Fahrkreislauf zu betreiben, ständig auf die Probe: Von der Datenerfassung, -reinigung, -kennzeichnung, -training, -simulationsvalidierung, Versionierung bis hin zur Fehlerbehebung und dann der neuerlichen Schleifenbildung.
Hinter jedem Schritt des Datenflussprozesses steht der ständige Verzehr von Rechenleistung. Automobilunternehmen und Firmen für intelligente Fahrtechnologie scheinen keinen Mittelweg zu haben.
Intelligent fahren und Geld verdienen: "End-to-End" ist zwar schwer, aber notwendig
Der Ertrag aus end-to-end-intelligentem Fahren ist bereits greifbar.
Nach der Einführung des FSD auf End-to-End-Basis Ende 2023 drängte Musk in einer E-Mail den Vertrieb, mehr Benutzer von der anthropomorphen Fähigkeit des intelligenten Fahrens zu überzeugen, da die FSD-Erfahrung sich verbessert hat.
Seit Anfang des Jahres bietet Tesla im nordamerikanischen Raum sogar befristete kostenlose Nutzung für alle an, reduziert die Abogebühr von 199 auf 99 US-Dollar pro Monat und setzt den einmaligen Kaufpreis von 12.000 auf 4.500 US-Dollar herab, um die FSD-Durchdringung zu erhöhen. Tesla kündigte ebenfalls an, dass FSD im ersten Quartal nächsten Jahres in China realisiert wird, was ein neues kommerzielles Potential eröffnet.
Anders gesagt, "End-to-End" lässt die Marktreife von intelligentem Fahren näher als je zuvor erscheinen.
In China treibt "End-to-End" ebenfalls die kommerzielle Entfaltung von intelligentem Fahren voran.
Huawei erntet den ersten kommerziellen Erfolg im intelligenten Fahren. Ende letzten Jahres verkaufte sich das gemeinsam mit Seres entwickelte Aito M7 innerhalb von zwei Monaten hunderttausend Mal, wobei der Anteil der Nutzer von smarten Fahrversionen über 60% lag.
Neben der Einführung von Modellversionen mit intelligenter Fahrtechnologie, erhebt Huawei durch den Verkauf von intelligenten Fahrsoftwarepaketen zusätzliche Gebühren. Momentan bietet die Mehrheit der Automobilunternehmen ihren Nutzern intelligente Fahrsoftware jedoch kostenlos an.
Im Gegensatz zu Teslas Preissenkungen, erhöht Huawei allmählich die Preise für ihre intelligenten Fahrsoftwaren. Ein Huawei-Vertrieb nennt gegenüber 36Kr Auto, dass der Einstiegspreis für Huaweis intelligente Fahr-ADS-Software in der ersten Phase 3.000 Yuan, in der zweiten Phase 6.000 Yuan und in der dritten Phase 10.000 Yuan beträgt. "Die Preise werden weiter steigen."
Die Versionsentwicklung von ADS 1.0 zu 2.0 und zu 3.0 zeigt dabei, wie Huawei von traditioneller multi-modularer Fahrtechnologie schrittweise auf End-to-End-Ansätze umgestellt hat und dadurch Technologiefortschritte sowie verbesserte Produkterfahrungen erzielte.
Ein weiteres Unternehmen, das von den Vorteilen intelligenten Fahrtechnologie profitiert, ist Li Xiang. Nachdem das Unternehmen genug Nutzer mit den Fähigkeiten seiner verlängerten Familienfahrzeuge gewinnen konnte, verfolgt Li Xiang in diesem Jahr energisch den Plan, Schwächen im intelligenten Fahren zu beheben, und hat seine End-to-End-Version für das Fahren vollständig für alle Modelle der MAX-Version bereitgestellt, wodurch das Ansehen der intelligenten Fahrfähigkeiten anstieg.
In der telefonischen Finanzkonferenz des zweiten Quartals erklärte Li Xiang Auto, dass die Modellordnung AD Max (Modelle mit intelligenter Fahrtechnologie) mit einem Anteil von fast 70% für Fahrzeuge über 300.000 Yuan verantwortlich sind. Und die Modelle der AD Max Version sind 20.000 Yuan teurer als die der AD Pro Version. Nutzer, die sich für teurere Modelle entscheiden, zahlen letztendlich auch für die intelligenten Fahrfunktionen.
Der amerikanische Schriftsteller Philip K. Dick beschreibt in seinem Roman "Do Androids Dream of Electric Sheep?", dass Androiden Gefühle haben, träumen und den Wunsch nach einem lebendigen Haustier entwickeln.
Der End-to-End-Ansatz könnte die Systeme des intelligenten Fahrens bereits von elektronischen Schafen träumen lassen. Doch um diese elektronischen Träume aufrechtzuerhalten, sind enorme Mengen an Ressourcen notwendig – eine Belastung, welche die Automobilunternehmen und Anbieter von intelligenter Fahrtechnologie mit Daten- und Rechenhunger gezeichnet hat.
Rechenleistungsspiel, Karten kaufen und Rechenzentren bauen
Neben dem Fahrzeugverkauf, um mehr Daten zu sammeln, bereiten sich die Teams für intelligentes Fahren der Automobilhersteller auf den Aufbau von Chip-Rechenressourcen vor.
In der Telefonkonferenz des dritten Quartals zu den Finanzberichten von Tesla zeigen die Zahlen, dass Teslas AI-Rechenleistung aktuell etwa 67.500 Nvidia H100-Chips entspricht, bei einer Gesamtleistung von etwa 67,5 EFLOPS.
Tesla plant, bis Ende Oktober weitere 21.000 H100 zu erhalten, was die Gesamtleistung auf schätzungsweise 88,5 EFLOPS steigern würde.
Neben dem massiven Aufkauf von Nvidia-GPUs arbeitet Tesla auch an der Entwicklung eigener Chips. Musk veröffentlichte einen Beitrag auf X, in dem er erklärte, dass der Supercomputer Dojo 1 bis Ende des Jahres über etwa 8.000 H100-GPUs verfügen wird, die eine gleichwertige Trainingskapazität bieten. Teslas ursprüngliches Ziel ist, dass nach der Einführung von Dojo der gesamte Rechenleistungspool auf 100 EFLOPS anwächst.
Die unersättliche Rechenleistungsreserve sorgt dafür, dass inländische Automobilhersteller nicht zurückfallen möchten.
Nach dem Chip-Verbot sind die hochwertigen H100-GPUs von Nvidia jedoch schwer in China zu erwerben, und inländische Unternehmen haben leichteren Zugang zu Sondereditionen wie der A800, die spezifisch für den chinesischen Markt entwickelt wurden. Diese sind weniger leistungsfähig und günstiger als die H100.
Derzeit besitzt Huawei die größte Rechenleistungsreserve unter den inländischen Akteuren mit 7,5 EFLOPS. Mitarbeiter von Huawei berichten 36Kr, dass intern sowohl Nvidia-Trainingschips als auch Huaweis eigens entwickelte Ascend-Chips eingesetzt werden. Der Ascend-Tool-Chain ist zwar nicht besonders benutzerfreundlich, aber aufgrund der Eigenentwicklung ist die Versorgung ausreichend, wodurch Huawei schnell Cloud-Rechenleistung aufbauen konnte.
Li Xiang Auto folgt mit 5,39 EFLOPS direkt hinter Huawei, mit zehntausenden von Nvidia-Grafikkarten im Lager.
Industriekenner kalkulierten für 36Kr, dass bei Nutzung von A800-Chips und Anwendung des üblicherweise verwendeten FP16 für Deep-Learning-Training die Rechenleistung einer einzigen A800-Karte 320 TFLOPS beträgt und damit für 5,39 EFLOPS über 16.800 A800-Chips benötigt werden. (Li Xiang verwendet nicht ausschließlich A800, diese Berechnung ist nur eine Schätzung, 1 EFLOPS=1.000 PFLOPS=1.000.000 TFLOPS)
Ein Brancheninsider sagte 36Kr, dass es nach dem Rückgang des Kaufbooms für AI-Großmodelle in diesem Jahr einfacher ist, Cloud-Trainingsgrafikkarten zu erwerben. Letztes Jahr wurden 8-Karten-Module der A800 leicht für über eine Million Yuan verkauft, aber jetzt sind die Preise auf etwa 950.000 Yuan gesunken. Selbst bei diesen niedrigeren Preisen sind die Kosten für die Rechenleistungssicherung in der Automobilindustrie immer noch immens hoch.
Li Xiangs Ziel ist es, bis Ende des Jahres 8 EFLOPS zu erreichen. Laut 36Kr hat Li Xiang zuvor mit dem Cloud-Service-Provider Volcano Engine ein Datenzentrum aufgebaut, sucht jedoch derzeit nach neuen Standorten für zusätzliche Datenzentren.
Die Rechenkapazität von Xiaopengs intelligentem Fahrzentrum beträgt 2,51 EFLOPS und kann ebenfalls in über 7.800 A800-Karten umgerechnet werden, mit dem Ziel, bis 2025 eine Rechenleistung von über 10 EFLOPS zu erreichen. NIO hat derzeit eine Cloud-Rechenleistung von 1,4 EFLOPS, was in über 4.300 A800-Karten umgerechnet werden kann.
Vergleicht man dies mit Informationen des Ministeriums für Industrie und Informationstechnik, beträgt die nationale Rechenleistung-Kapazität bis Juni 2024 zirka 246 EFLOPS (basierend auf FP32-Berechnungen). Umgerechnet auf FP16 ergibt dies 492 EFLOPS. Zusammen genommen stellen die Cloud-Rechenleistungskapazitäten von Huawei, NIO, Li Xiang und Xiaopeng etwa 3,5% der nationalen Rechenkapazität dar.
End-to-End ist jedoch nicht nur ein Spiel der Großkonzerne, auch kleine und mittelständische Akteure drängen auf das Spielfeld. Oft bilden Anbieter intelligenter Fahrtechnologien Partnerschaften mit Automobilherstellern, um schnell in den Wettbewerb einzutreten, z. B. die Zusammenarbeit von Zhiji mit Momenta oder Great Wall Motors mit Yuanrong Qixing.
36Kr Auto berichtet, dass eine Reihe führender Anbieter von intelligenter Fahrtechnik bereits über Tausende von Trainingschips verfügt. So haben Momenta und Horizon im letzten Jahr Vereinbarungen mit Volcano Engine getroffen, deren Aufträge sich auf etwa eine Milliarde Yuan belaufen.
In den vergangenen zwei Jahren ist die Welt in den Wahnsinn der KI-Großmodelltechnologie verfallen. Die Eintrittshürde für Start-ups in China beläuft sich auf 50 Millionen US-Dollar, und das derzeit wertvollste chinesische Großmodellunternehmen "DarkSide of the Moon" hat eine Bewertung von 23,6 Milliarden Yuan erreicht.
Führende chinesische KI-Großmodellunternehmen entwickeln derzeit Modelle mit Billionen von Parametern, was eine formidable Rechenleistungspool voraussetzt. Unternehmen wie Step Star und Kimi arbeiten mit Cloud-Service-Providern zusammen, um Cluster mit tausenden von Karten aufzubauen.
Das gleiche Szenario spielt sich nun in der Automobilindustrie ab. Automobilhersteller wollen nicht nur Autos verkaufen, sondern orientieren sich zunehmend in Richtung AI-Technologieunternehmen. Sie verfügen über große Datenmengen und streben mit Unterstützung von großen Modellen und Rechenleistung neue Ziele wie autonome Fahrzeuge und embodied intelligence an.
Aufgrund niedriger Gewinnmargen müssen sie enorme Investitionen tätigen, um in einem zunehmend wettbewerbsintensiven Umfeld mit immer höheren Rechenleistungsanforderungen zu bestehen. Wird das auf Dauer tragfähig sein? Die Automobilindustrie steckt in einem Preiskampf, und die Rechenleistung könnte der entscheidende Faktor sein. Dieses "Finanzspiel" mit dem Motto "Das Geld verbrennt" hat gerade erst begonnen.