Tesla hat das Unreal Engine in das Fahrzeugsystem integriert. Die Schnittstelle für die intelligente Fahrfunktion ist vergleichbar mit einer 3A-Spielproduktion. Aber was bringt das?
Während Tesla's FSD/Autopilot im Wettlauf mit chinesischen intelligenten Fahrerassistenzlösungen ist, hat eine neue Form des Wettbewerbs auftaucht.
Der Insider @greentheonly hat kürzlich bemerkt, dass Tesla in der Softwareversion 2025.20 Binärdateien für das Unreal Engine eingeführt hat. Laut diesem Blogger kann das auf dem Unreal Engine basierende Visualisierungssystem derzeit auf Model X und Model S mit AMD - Chips aktiviert werden. Das 3D - Modell unterstützt Interaktionen wie Zoomen und Verschieben. Seine Funktion ist ähnlich wie die des 3D - Modelltischs im intelligenten Cockpit chinesischer Eigenmarken. Es ermöglicht direkte Interaktionen und bietet einen intuitiveren Einblick in den Fahrzeugzustand.
@TeslaNewswire hat enthüllt, dass Tesla in Zukunft dieses Unreal Engine auch in das Infotainmentsystem einführen wird, um die visuelle Darstellung von AutoPilot oder FSD zu verbessern. In Kombination mit dem SR - Bild (dem Echtzeitbild, das das Fahrzeug nach der Erfassung der Umgebung erstellt) wird eine feinere und realistischere Darstellung der Umgebung möglich.
(Bild von X - Benutzer @IanSamyth)
Dieser Blogger hat auch eine Reihe von Vorausschau - Bildern erstellt, die fast wie in einem Straßenrennspiel aussehen.
Ob Tesla tatsächlich mit dem Unreal Engine ein Fahrzeug - SR - Vorschaubild erstellen kann, das mit dem Bildqualität von Computerspielen konkurrieren kann, ist derzeit ungewiss. Viele Menschen halten das Fahrzeug - SR sogar für "entbehrlich". Autohersteller experimentieren schon seit längerem mit dem Unreal Engine. Bisher hat außer einem relativ feinen und hochwertigen 3D - Modelltisch und komplexen interaktiven visuellen Effekten die Nützlichkeit kaum zugenommen.
Trotzdem erwartet "Dianchetong", dass Tesla mit dem Unreal Engine einige gute Eigenschaften entwickeln und die Branche inspirieren kann.
Von "Pluspunkt" zu "Pflichtmerkmal": 3D - Elemente sind zum Muss im Infotainmentsystem geworden
Tesla war nicht das erste Unternehmen, das das Unreal Engine in das Cockpitsystem integrierte. Tatsächlich war das auf einem Physik - Engine basierende 3D - HMI bereits vor Tesla eine Hauptstromrichtung im intelligenten Cockpit von Autos.
Im November 2021 kündigte Human Horizons (HiPhi) eine unternehmensweite Partnerschaft mit Epic Games an. Das Ergebnis dieser Partnerschaft wurde im 2022 veröffentlichten HiPhi Z umgesetzt. Mit dem ausgereiften Visualisierungssystem und der umfassenden Toolkette des UNREAL - Engines wurde das erste "echte 3D - digitale Cockpit" in China geschaffen.
HiPhi ist sicherlich nicht die einzige Automarke, die das Unreal Engine entdeckt hat.
Das weltweit erste auf dem UNREAL - Engine basierende Cockpitsystem stammt von Lotus (früher Lotus Cars) und heißt LOTUS HYPER OS. Es wurde erstmals im ELECTRE eingesetzt. Nicht nur die feinen 3D - Modellierungszenen, sondern auch die gesamte System - UI von Lotus basiert auf dem Unreal Engine. Das hochwertige und realistische PBR - Materialsystem und die HDR - Umgebungslichtbeleuchtungstechnologie werden in die meisten Interaktionsoberflächen integriert. Man könnte meinen, es sei eine CG - Animation eines neuen Fahrzeugs, tatsächlich handelt es sich um eine Echtzeit - gerenderte 3D - Szene im Cockpitsystem.
(Bild von Lotus Cars)
Selbst die animierte Figur des Sprachassistenten von XPeng wird durch ein 3D - Modell dargestellt.
Um die Leistung des Cockpitsystems zu gewährleisten, hat Lotus im ELECTRE zwei Qualcomm Snapdragon 8155 - Prozessoren verbaut. Diese Konfiguration war damals sehr luxuriös. XPeng, Geely Galaxy E8 und MG Cyberster haben alle gemeinsam mit dem Unreal Engine Echtzeit - 3D - Rendering realisiert. Wie HiPhi es ausdrückt: "Durch die auf Physik basierende Echtzeit - Renderingtechnologie wird der Prozess der menschlichen Wahrnehmung und Rekonstruktion simuliert, um einen frei interaktiven 3D - Raum zu schaffen."
Das MB.OS von Mercedes hat ebenfalls mit dem Unity 3D - Engine eine visuelle Aufwertung erfahren. Wenn man die Kartenansicht vergrößert, kann man feine Gebäude - Modelle sehen, deren Fassaden auch ein hochwertiges metallisches Reflexionsverhalten haben.
Laut offiziellen Angaben von Mercedes nutzen die Designer ein komplexes 3D - Visualisierungspaket namens "Unity Industrial Collection", um Elemente wie das Instrumententafel, die Infotainment - und Navigationssysteme im digitalen Cockpit 3D - zu gestalten. Darüber hinaus haben intelligente Elektromobilhersteller wie Xiaomi und NIO alle ein eigenes 3D - Tischesystem mit dem Unity 3D - Engine entwickelt.
Warum lieben Autohersteller es, 3D - Physik - Engines für die visuelle Gestaltung des Infotainmentsystems zu nutzen? "Dianchetong" sieht zwei Gründe:
Erstens ist die Interaktion in 3D - Szenen auf Physik - Engines basierend neuartig und betont das technologische Gefühl und eine höhere Grafik - Rendering - Leistung. Dadurch wird ein Interaktionssystem geschaffen, das über die 2D - Ebene hinausgeht. Beim Öffnen des Elektrohecks des Fahrzeugs entspricht die 2D - Menüinteraktion eher einer "Funktionsinteraktion", während der 3D - Tisch zu einer innovativen "Rauminteraktion" oder Szenenerfahrung werden kann.
(Bild von XPeng)
Bei SR - Oberflächen, Navigationsoberflächen usw. zeigt die 3D - Interaktion im Vergleich zur herkömmlichen 2D - Oberfläche eine intuitivere "Raumwahrnehmung". Beispielsweise können die von Kameras und Lidar - Sensoren in Echtzeit zurückgesendeten Daten über die 3D - Oberfläche dargestellt werden.
Das 3D - intelligente Cockpit ist von einem "Pluspunkt" zu einem "Pflichtmerkmal" geworden. KPMG prognostiziert, dass der Markt für intelligente Cockpits in China 2026 auf 212,7 Milliarden Yuan anwachsen und die Penetrationsrate über 82 % betragen wird. Autohersteller nutzen die 3D - Engine - Technologie, um unterschiedliche Fahrerfahrungen zu schaffen.
Zweitens kann die Zusammenarbeit zwischen Autoherstellern und Anbietern von Physik - Engines die Effizienz der Entwicklung von 3D - intelligenten Cockpits erhöhen. Nehmen wir das Unreal Engine als Beispiel. Epic Games und Qualcomm haben die Leistung des Unreal Engine auf der Snapdragon - Plattform optimiert. Unity hat mit einheimischen Chipherstellern wie Xinchi und Xinqing lösungen für Automobilanwendungen entwickelt, was die Effizienz der Hardwareausnutzung verbessert und die technologische Umsetzung beschleunigt.
Insgesamt nutzen Autohersteller die 3D - Physik - Engines hauptsächlich für die Cockpit - Unterhaltung und die Interaktionserfahrung. Tesla's Einführung des Unreal Engine mag ähnliche Ziele verfolgen, aber in einer anderen Richtung.
Das Fahrzeug - SR so gut wie ein 3A - Spiel? Cool, aber möglicherweise nutzlos
Unter den Elektromobilherstellern legt Tesla relativ wenig Wert auf 3D - Visualisierung. Der Anteil von 3D - Elementen auf dem großen Infotainmentscreen ist gering. Laut den Enthüllungen der beiden obigen Blogger neigt Tesla eher dazu, das Physik - Engine zur Verbesserung des SR - Bilds im ADAS zu nutzen, anstatt die Interaktionsoberfläche zu verbessern. Dies kann man an den von ihnen bereitgestellten Bildern erkennen.
Ehrlich gesagt, hält "Dianchetong" die Verbesserung der Interaktionsleistung des Infotainmentsystems durch 3D - Visualisierung für eher gering. Nehmen wir den 3D - Szenentisch als Beispiel. Das Fahrzeugmodell und die Szene nehmen den größten Teil des Infotainmentscreens ein, aber die praktische Nutzung wird dadurch nicht einfacher. Es erhöht lediglich die "Sympathie" zwischen Mensch und Maschine. Natürlich ist dies nur die subjektive Meinung von "Dianchetong", und die Autohersteller bieten auch andere Tischermodi an.
(Bild von XPeng)
Kann Tesla nach der Einführung des Unreal Engine das SR - Bild im ADAS so gestalten, wie es die Blogger enthüllt haben? "Dianchetong" ist der Meinung nein. Aus Sicht der funktionalen Eigenschaften benötigt die Fahrzeug - ADAS - SR - Oberfläche derzeit keine so komplexe Szenenrendering. Mindestens in der gegenwärtigen Phase ist es schwierig, das ideale Ergebnis zu erzielen.
Betrachten wir zunächst die Fahrzeug - SR - Oberfläche. Die übliche Praxis in der Branche ist es, monochrome 3D - Szenen zur Darstellung zu nutzen. Die von den Fahrzeugsensoren (Kameras, Lidar) erfassten Umgebungsinformationen werden durch KI analysiert, um Gegenstände wie Autos, Lastwagen, Fußgänger und Elektromotorräder zu identifizieren und in der 3D - Szene darzustellen. "Dianchetong" sieht zwei Gründe für die Verwendung von Monochrom:
Erstens ist das SR - Bild das Ergebnis der Erkennung der Umgebung durch das Fahrzeug. Sein Zweck ist es, dem Fahrer die Umgebung und die erkannten Gegenstände zu zeigen. Der Vorteil der monochromen Szene ist, dass alle Farbstörungen eliminiert werden und nur die grundlegende Modellierung übrig bleibt. Dadurch wird die Effizienz der Informationsübertragung erhöht.
(Bild von "Dianchetong")
Wie einige traditionelle Autofahrer sagen, könnten aufwendige Bildschirmelemente sogar die normale Fahrweise beeinträchtigen.
Zweitens erfordert die Wiedergabe einer so komplexen 3D - Szene einen hohen Leistungsbedarf. Wie bereits erwähnt, hat Lotus im ELECTRE zwei Qualcomm Snapdragon 8155 - Prozessoren verbaut, um die reibungslose Funktion des LOTUS HYPER OS zu gewährleisten. Je realistischer die Szenensimulation ist, desto höher ist der Bedarf an Cockpit - Chips. Es ist verständlich, dass Tesla zunächst in Modellen wie dem Model S und Model X mit AMD - Chips das Unreal Engine voreingestellt hat.
Ein weiteres Problem ist, dass aufgrund von Faktoren wie Lidar, Kameras und Verarbeitungsleistung die von der Wahrnehmungssystem in Echtzeit zurückgesendeten Umgebungsinformationen leicht fehlerhaft sein können.
Das einfachste Beispiel ist, dass man beim Fahren mit ADAS bemerken kann, dass die umliegenden Fahrzeuge, Fußgänger und andere Elemente in gewissem Maße "zucken". Manchmal erscheinen auch Elemente, die in der realen Welt nicht existieren. Dies zeigt die derzeitigen Beschränkungen bei der Echtzeit - Wahrnehmung und - Rendering. Dieses Problem tritt bei Tesla - Modellen mit reiner visueller Wahrnehmung noch deutlicher auf.
Stellen Sie sich vor, Sie sitzen in einem sehr realistischen Fahrzeug - SR - Bild und sehen, wie die umliegenden Fahrzeuge und Fußgänger zucken oder dass das System in einer leeren Gegend sagt, es sei jemand da. Das klingt schon etwas unheimlich. Selbst wenn der Cockpit - Chip die Echtzeit - Rendering von 3D - Szenen problemlos unterstützen kann, müssen die Informationen vom Wahrnehmungsende noch durch Algorithmen weiter optimiert und eingeschränkt werden, um die Genauigkeit des Anzeigeendes zu verbessern.
Außerdem kann der Fahrer die reale Umgebung vor dem Fahrzeug durch die Windschutzscheibe sehen. Normalerweise benötigt man keine so realistische 3D - Szenenwiedergabe. Die derzeitige monochrome 3D - Szene ist bereits die relativ ideale Form der Fahrzeug - SR - Oberfläche in der gegenwärtigen Phase.
Abschluss
Tesla's Einführung des Unreal Engine hat möglicherweise nicht das Ziel, ein realistisches ADAS - SR - Bild zu erstellen. Aus Sicht von "Dianchetong" benötigen auch hochwertige PBR - Materialien und Echtzeit - Unschärfe - Rendering der Oberfläche ein Physik - Engine.
All dies sind nur subjektive Vermutungen. Vielleicht hat Tesla tatsächlich die Fähigkeit, den Konflikt zwischen Wahrnehmung und Fahrzeug - SR zu lösen, die Grenze zwischen realer und digitaler Welt zu verschwimmen und die Benutzererfahrung zu verbessern, um die Branche zu inspirieren.
Aus Sicht der Benutzer ist der praktische Nutzen der realistischen 3D - Szenenrendering noch begrenzt. Oder man könnte sagen, dass die Branche noch keine dringende Anwendungsumgebung für diese Technologie entdeckt hat. Während der Fahrt muss das Fahrzeug die Umgebung präzise wahrnehmen und beurteilen, aber die Benutzer müssen dies nicht über den großen Infotainmentscreen erfahren. 3D - Elemente bieten eher ein Gefühl der technologischen Stärke.