Luobo Kuaipao hat möglicherweise den Fehler gemacht, indem es sich auf "empfindliche Haut" konzentriert hat.
Vor einigen Tagen haben mehrere Fahrzeuge des Fahrzeugservices Luobo Kuaipao in Wuhan auf Autobahnen und Hauptstraßen kollektiv "abgewürgt". Die Wagenkolonne war wie eingefroren und stand unbeweglich mitten auf der Straße. Zum Glück hat dies keine Personenbeschädigungen verursacht, und die Fahrgäste im Fahrzeug konnten alle problemlos und sicher aussteigen.
Aber es gab wieder eine Flut von Vorwürfen: "Früh aufstehen, um spät zu sein", "Autonomes Fahren ist nicht sicher genug", "Ist das die Technologie von Baidu?"
Ehrlich gesagt ist es vielleicht das sicherste Geschäft im Internet, wenn man sich gegen neueste Technologien aufregt. Man kann so viel Traffic generieren und hat gleichzeitig die moralische Rechtfertigung, "für die Verbraucher zu sprechen".
Diesmal könnte es jedoch anders sein. Bei den technischen Problemen des autonomen Fahrens ist die Anzahl der Fehler möglicherweise gering, und was diesen "Abwürge"-Vorfall tatsächlich verursacht hat, ist wahrscheinlich die "empfindliche Haut" in der Sicherheitsstrategie.
Es ist keine Kapazitätsbegrenzung, sondern eine Sicherheitswahl
Zuerst sprechen wir über ein Konzept: Wenn ein Fahrzeug mit L4-Level autonomem Fahren einen Ausfall hat, was wäre dann die beste Vorgehensweise?
Eigentlich muss man zuerst feststellen: Warum ist es wichtig, den L4-Level des autonomen Fahrens zu definieren?
Weil die Verantwortlichen bei herkömmlichen Fahrzeugen mit L3-Level und darunter und bei Fahrzeugen mit L4-Level autonomem Fahren unterschiedlich sind.
Wenn wir dieses Problem auf unseren Alltag übertragen, sehen wir, dass die derzeit auf dem Markt befindlichen und für die private Nutzung verfügbaren Fahrzeuge mit Assistentensystemen unter L3 fallen. Die Zuständigkeit bei diesen Systemen ist wie folgt: "L3: Wenn das System aktiviert ist, trägt der Betreiber / Hersteller die Verantwortung; der Fahrer trägt die entsprechende Verantwortung, wenn er nicht wie vorgeschrieben übernimmt." Wenn man alle technischen Details außen vor lässt, muss man nur verstehen: Wenn ein Verkehrsunfall passiert, ist der Fahrer der erste Verantwortliche.
Weil die Hersteller derzeit ziemlich schlau sind und das Fahrzeugsystem ausgeschaltet wird, wenn das Assistentensystem das Problem nicht lösen kann, ist der Fahrer immer noch die Person, die für den Unfall verantwortlich ist.
Für die von uns genannten echten "autonomen" Fahrzeuge, also Fahrzeuge, in denen kein Fahrer sitzen muss, ist die Zuständigkeit gemäß den einschlägigen Vorschriften sehr klar: Sie liegt beim Hersteller.
Die genaue Vorschrift heißt "Richtlinien für die Zulassung und den Straßenverkehr von intelligent vernetzten Fahrzeugen". Interessierte können sich diese selbst ansehen.
Auf der Grundlage dieser Zuständigkeitsaufteilung kann man verstehen, dass bei massiven autonomen Fahrzeugen die Gesamt Sicherheit gewährleistet werden muss. Denn wenn ein Fahrzeug in eine ähnliche Situation gerät und ein weiterer Unfall durch das Anhalten am Straßenrand oder andere Manöver entsteht, sind die Folgen schwer abzuschätzen.
Die Hersteller können solche Unfälle nur auf zwei Ebenen lösen: in der Cloud und am Fahrzeug.
Wenn man sich das Ganze anschaut, ist es ziemlich klar, dass die Cloud den Befehl zum Anhalten gesendet hat.
Es gibt viele Zweifel: Warum lässt man die Fahrzeuge nicht am Straßenrand anhalten? Würde das nicht sicherer sein?
Das stimmt nicht.
Nachdem die Cloud den Befehl gegeben hat, halten alle Endgeräte an. Wenn sie am Straßenrand anhalten sollen, müssen die Fahrzeuge selbst den Befehl ausführen. Das Problem ist jedoch, dass es keinen Sicherheitsfahrer im Fahrzeug gibt. Wer ist dann für die Sicherheit der Fahrgäste und des gesamten Fahrzeugs verantwortlich?
Noch einige Leute haben bei der Bewertung dieses Unfalls gesagt, dass die technische Redundanz des Einzelfahrzeugs nicht ausreichend sei, um am Straßenrand anzuhalten. Schauen wir uns die Fähigkeiten des Luobo-Fahrzeugs an:
• 4 Hesai AT128 Lidar-Sensoren (128 Linien, 200 Meter Reichweite)
• 12 Kameras + 6 Millimeterwellenradare + 12 Ultraschallradare
• 1200 TOPS Rechenleistung (Doppel-Orin X-Chip)
Diese Fähigkeiten reichen nicht nur aus, um am Straßenrand anzuhalten, sondern können auch die Intelligenz des Einzelfahrzeugs unterstützen: die Umgebung wahrnehmen, Parkmöglichkeiten erkennen und autonom am Straßenrand anhalten. Aber die Architektur von Baidu lässt diese Hardware nur für die Datenübertragung zu, und die endgültige Entscheidung muss an die Cloud zurückgesendet werden.
Deshalb ist das Notstoppen genau die sicherste Maßnahme in dieser Situation. Denn es ist nicht die Technik, die hier beschränkt ist, sondern es ist der letzte Schritt in einem Extremfall.
Es gab auch in San Francisco ein Stopp, aus demselben Grund
Das kollektive Einbrechen des autonomen Fahrens ist nicht nur in China zu beobachten.
Im Dezember 2025 gab es in San Francisco einen großen Stromausfall. Hunderte von Fahrzeugen von Waymo blockierten die Kreuzungen. Einige standen mitten auf der Straße, andere waren an Kreuzungen festgeklemmt, und die Fahrer mussten Umwege nehmen. Waymo hat nachträglich erklärt: Die Fahrzeuge können tatsächlich ausgeschaltete Ampeln als Vierseitenhaltezeichen behandeln, aber aufgrund einer vorsichtigen Strategie in der frühen Phase senden die Fahrzeuge vor der Ausführung eine "Bestätigungsanfrage" an das Ferngesteuertes Team. Weil der Stromausfall so groß war, stiegen die Bestätigungsanfragen plötzlich an, und das Ferngesteuerte System konnte sie nicht mehr verarbeiten, so dass die Fahrzeuge blockiert wurden.
Waymo-Autonomfahrzeuge liegen mitten auf der Straße, weil die Ampeln nicht funktionieren
Familiar? Es ist fast dieselbe Geschichte wie bei Luobo Kuaipao: In beiden Fällen wird die Fernsteuerung zum Engpass, und die vorsichtige Strategie führt in Extremfällen zu einem systemischen Zusammenbruch.
Schauen wir uns nun ein anderes Extrem an. Seit Juni 2025 hat es bei den Robotaxis von Tesla in Austin insgesamt 14 Kollisionen gegeben. Die Unfallrate ist etwa 4 bis 8 Mal höher als die von Menschen. Tesla nutzt ein reines visuelles System und ein End-to-End-Neuralnetzwerk, und das Fahrzeug trifft alle Entscheidungen autonom. Die Probleme entstehen nicht, weil die Fahrzeuge "angst haben, sich zu bewegen", sondern weil sie "zu mutig fahren".
Drei Unternehmen, drei Strategien, drei Kosten. Tesla gibt die Entscheidungsgewalt an das Einzelfahrzeug ab und hat dadurch eine hohe Unfallrate; Waymo befindet sich zwischen beiden, und der konservative Bestätigungsmechanismus bricht bei großen Anomalien zusammen; Luobo Kuaipao geht am weitesten – die Cloud hat die zentrale Kontrolle, und bei geringster Störung geht das gesamte System in einen "schützenden Schockzustand".
Das Ergebnis ist also sehr klar: Die Sicherheitsstrategie von Luobo Kuaipao gehört zu der "zu vorsichtigen" Schule, also der sogenannten "empfindlichen Haut" – wenn es ein Problem gibt, wird das Fahrzeug angehalten, um es zu lösen.
Diese Vorgehensweise hat zwar ein nicht sehr schönes Ergebnis erzielt. Obwohl die Hardware-Redundanz des Einzelfahrzeugs weit über der von Waymo und Tesla liegt, ist die Entscheidungsgewalt von der Cloud festgelegt. Es ist wie, wenn einem Soldaten eine Waffe gegeben wird, aber der Abzug von einem Kommandeur tausende Kilometer entfernt ferngesteuert wird – er kann schießen, aber er darf es nicht tun.
Bei geringster Störung geht das gesamte System in einen "schützenden Schockzustand".
Aber der Vorteil ist, dass ich als Fahrgast hinterher lieber möchte, dass das Fahrzeug in einem solchen Unfall sicher anhält, damit ich schnell aussteigen kann. Dies sollte sowohl für den Fahrgast selbst als auch für die Gesamt Sicherheit die beste Lösung sein.
Warum ist es für Luobo nicht erlaubt, Fehler zu machen?
Interessanterweise ist das autonome Fahren eigentlich die neueste Projektion der KI-Fähigkeiten in der realen Welt.
Wenn die Leute sich noch über die Krebse freuen und über das Auftauchen von Intelligenz staunen, können sie es tolerieren, dass das Large Language Model dumm ist und Fehler macht. Letztendlich hat das für die einzelnen Personen nicht allzu großen Einfluss.
Aber wenn das autonome Fahren tatsächlich für die Menschen arbeitet und die Art und Weise, wie die Gesellschaft reist, verändert, wird es kritisiert, dass es dumm ist, obwohl es die sicherste Strategie verfolgt.
Es ist einfach und aufregend, Luobo Kuaipao zu kritisieren, dass seine Technologie nicht gut ist, aber es könnte falsch sein.
Wenn Luobo, Xiaoma, Wenyuan und andere in der am meisten sichtbaren Position in dieser Branche stehen, beginnen die Leute bei geringstem Anzeichen von Problemen, "wie vor einem feindlichen Heer zu scheuen". Und sie haben sich für den schwierigsten Weg entschieden.
Der schwierigste Teil des autonomen Fahrens ist nie, das Fahrzeug in Bewegung zu bringen, sondern es auf die sicherste Weise anzuhalten.
Dieser Artikel stammt aus dem WeChat-Account "Xiangxianzhi", Verfasser: Aka. 36Kr hat die Veröffentlichung mit Genehmigung durchgeführt.