StartseiteArtikel

Der "Pixelwettlauf" bei fester Laser-Lidar-Technologie beschleunigt: RoboSense stellt sein VGA-Großflächenarray-SPAD-SoC-Produkt vor | Neue Infos

黄 楠2026-04-23 17:37
Das Lidar entwickelt sich von einem "Funktionselement" zu einem "intelligenten Wahrnehmungsmodul".

Autor | Huang Nan

Redakteur | Yuan Silai

In letzter Zeit hat RoboSense offiziell eine neue digitale Architektur namens "Schöpfung" sowie zwei Flaggschiffchips auf der Grundlage dieser Architektur vorgestellt. Die "Schöpfung"-Architektur ist eine Plattform für SPAD-SoC-Chip-Lösungen, die sich schnell weiterentwickeln lässt und die Kernunterstützung für die Massenproduktion und die Weiterentwicklung der Leistung von Lidar-Systemen bieten kann.

Der auf dieser Architektur basierende Phoenix-Chip ist der weltweit erste fahrzeugtaugliche SPAD-SoC mit einer integrierten 2160-Zeilen-Einheit. Er erreicht eine Auflösung von über 4 Millionen Pixeln und eine Detektionsreichweite von bis zu 600 Metern und wird bis 2026 in Serie gehen. Der andere Chip, der Pfauen-Chip, ist der erste serienfähige SPAD-SoC mit einer Auflösung von 640×480 Pixeln und einer vollkommen festen großen Fläche. Die Massenproduktion ist für das dritte Quartal 2026 geplant. Diese Veröffentlichung bedeutet, dass der Kernwettbewerb im Lidar-Bereich nun auf die Chips konzentriert ist. Durch die digitale Architektur, die dem Moore'schen Gesetz folgt, können die Leistung kontinuierlich verbessert und die Kosten optimiert werden.

RoboSense Tech Day

Während die Branche immer noch die Leistung von Lidar-Systemen anhand der "Zeilenzahl" misst, hat RoboSense auf dem Tech Day 2026 ein klares Signal gesendet: Feste Lidar-Systeme gehen vom "spärlichen Punktwolken" zum "bildähnlichen Wahrnehmen" über.

In den letzten Jahren konzentrierten sich die Probleme fester Lidar-Systeme auf zwei Dimensionen. Einerseits ist die Auflösung unzureichend und die Punktwolken spärlich, was es schwierig macht, eine feine Nahwahrnehmung zu erreichen. Andererseits ist es schwierig, das Sichtfeld und die Blinde Zone auszugleichen. Insbesondere in Blindspot- und Roboterszenarien werden niedrige Hindernisse und hängende Objekte oft zu "Wahrnehmungsschwärzen". Der von RoboSense vorgestellte Pfauen-Chip ist genau die lösungsorientierte Antwort auf diese Probleme.

Der Pfauen-Chip integriert ein ultrahochdichtes SPAD-Flächenarray mit 640×480 Pixeln, erreicht eine VGA-Auflösung von etwa 300.000 Pixeln und kann dichte dreidimensionale Tiefenbilder ausgeben. Im Vergleich zum Vorgängermodell mit einem großen Flächenarray von 144×192 Pixeln (etwa 27.600 Pixeln) hat seine Leistung um mehr als das Zehnfache zugenommen.

Bisher lag die Auflösung der gängigen Blindspot-Lidar-Systeme in der Branche allgemein auf dem Niveau von QVGA (320×240) oder sogar darunter. Der deutliche Sprung in der Punktwolken-Dichte auf VGA-Niveau bedeutet, dass das Lidar-System nicht mehr nur spärliche Umrisse ausgibt, sondern Tiefenbilder, die die Kanten und Strukturen von Objekten unterscheiden können. Beispielsweise kann ein System mit niedriger Auflösung nur eine Punktwolke eines Fußgängers erfassen, während ein VGA-System die relative Position von Kopf, Schultern und Gliedmaßen unterscheiden kann, wenn der Fußgänger 10 Meter entfernt ist.

Im Fahrzeugszenario für Blindspot-Erfassung kann diese Verbesserung der Auflösung direkt in eine stabile Erkennungsfähigkeit für kleine Ziele wie Kinder, Haustiere, Verkehrskegel und Reifenreste umgesetzt werden. In Kombination mit seinem ultraweiten Sichtfeld von 180°×135° und einer minimalen Detektionsdistanz von weniger als 5 Zentimetern kann das Fahrzeug beim langsamen Einparken oder beim Durchqueren komplexer Kreuzungen sowohl den Nahbereich um das Fahrzeug als auch den seitlichen Fernbereich abdecken, wodurch das Problem vermieden wird, dass herkömmliche Blindspot-Lidar-Systeme Schwierigkeiten haben, die Detektionsreichweite und die Nahbereichsblinde Zone, das Sichtfeld und die Winkelauflösung gleichzeitig zu optimieren.

In Roboterszenarien bietet der Pfauen-Chip noch mehr als nur Hindernisvermeidung. In der Vergangenheit nutzten mobile Roboter oft Lidar-Systeme mit niedriger Zeilenzahl für die Navigation und Kartenerstellung. Bei Manipulationstasks wie Greifen und Montieren mussten jedoch zusätzliche hochpräzise visuelle oder Strukturlichtsensoren eingesetzt werden. Die beiden Systeme arbeiteten unabhängig voneinander, und es war schwierig, die Koordinatensysteme und die Verzögerungen zu vereinheitlichen. Das VGA-Tiefenbild, das der Pfauen-Chip ausgibt, hat eine räumliche Auflösung, die nahe an der eines Einsteiger-Tiefenkameras liegt, und verfügt über eine millimeterscharfe Entfernungsmessung. Dadurch kann der Roboter sowohl die Positionsbestimmung als auch die Manipulationswahrnehmung in einem einzigen Sensordatenstrom durchführen. Diese Vereinheitlichung der Daten für "Bewegung + Manipulation" kann in Szenarien wie dem Greifen von unregelmäßig geformten Werkstücken durch industrielle Roboterarme und der Erkennung von Gegenständen auf einem Tisch durch Service-Roboter die Systemkomplexität und die Kalibrierungsfehler deutlich reduzieren.

RoboSense Pfauen-Chip

Beim Sichtfeld und der Genauigkeit hat der Pfauen-Chip ebenfalls deutliche Verbesserungen. Das ultraweite Sichtfeld von 180°×135° ist eines der breitesten Spezifikationen bei vollkommen festen Lidar-Systemen. In Kombination mit einer minimalen Detektionsdistanz von weniger als 5 Zentimetern kann es das Problem der Wahrnehmungsblindzonen von Fahrzeugen oder Robotern in unmittelbarer Nähe des Fahrzeugs/Roboters effektiv lösen, was besonders wichtig ist, wenn es darum geht, niedrige Parkschlösser beim Einparken oder Roboter beim Arbeiten entlang einer Wand zu erkennen.

In Bezug auf die Genauigkeit hat der Pfauen-Chip einen eingebauten hochpräzisen TDC (Zeit-Digital-Umsetzer) und einen speziellen Entfernungsmessverarbeitungs-Engine, der die Entfernungsmessgenauigkeit auf Millimeter-Ebene verbessert, was im Vergleich zum Vorgängermodell um das Sechsfache gesteigert ist. Darüber hinaus unterstützt er eine variable Bildfrequenz von 10 - 30 Hz, was es ihm ermöglicht, mit der Ausgabebildfrequenz der gängigen Fahrzeugkameras übereinzustimmen und die Schwierigkeit der technischen Optimierung der Zeitstimmung mehrerer Sensoren zu verringern.

Derzeit durchläuft die Lidar-Branche eine Evolution von "Funktionsbauteilen" zu "intelligenten Wahrnehmungsmodulen". VGA ist nur der Anfang des bildähnlichen Wahrnehmens. Mit der zunehmenden Anforderung der physikalischen KI an die Genauigkeit der dreidimensionalen Daten werden Perzeptionslösungen mit höherer Auflösung, höherer Bildfrequenz und stärkerer Integration kontinuierlich weiterentwickelt.

RoboSense hat mit dem "Pfauen"-Chip als erstes die kommerzielle VGA-Großflächenarray-Lösung auf der festen Technologiebasis abgeschlossen und eine Hardwarebasis mit klar definierter Leistung und skalierbarer Replikation bereitgestellt, was ihm helfen kann, einen Vorsprung in den Anwendungsbereichen wie Fahrzeugs-Blindspot-Erfassung und Robotik zu erlangen.

Darüber hinaus setzt RoboSense auch die Planung der integrierten Sensoren voran. Die im Jahr 2025 vorgestellten AC1- und AC2-Serien von aktiven Kameras verwenden eine Technologie, die hochauflösende CMOS-Sensoren mit selbstentwickelten SPAD-Sensoren integriert und bietet der Branche eine Vielfalt an RGBD-Lösungen. Auf dem Tech Day hat RoboSense-CEO Qiu Chunchao ein 2K-Nahinfrarotbild gezeigt, das direkt von dem Phoenix-Chip aufgenommen und in Echtzeit gescannt wurde. Die Graustufeninformation und die dreidimensionale Entfernungsinformation werden synchron ausgegeben, und die Auflösung erreicht 2160×1900.

2K-Nahinfrarotbild, das direkt von dem Phoenix-Chip aufgenommen und in Echtzeit gescannt wurde

RoboSense hat bekannt gegeben, dass sein echtes RGBD-Sensor-System Ende 2027 auf den Markt kommen wird. Die Pixel-Dichte und die Integrationsstufe des SPAD-Chips werden weiter verbessert, um die doppelten Informationen "Farbe + Tiefe" auf Pixel-Ebene auszugeben.