LiDAR vs. visuelle Wahrnehmung – wer kann das automatisierte Fahren dominieren?
Share
Im Bereich des automatisierten Fahrens spalten sich zwei Lager – die LiDAR-Fraktion und die Fraktion der rein visuellen Wahrnehmung.
LiDAR mit mechanischem Radar, Millimeterwellenradar, Ultraschallradar und Multiplexkameras kann das Fahren automatisieren. LiDAR ist ein Sensor, der verwendet wird, um 3D-Positionsinformationen eines Objekts genau zu erhalten und die dreidimensionalen Strukturinformationen des Ziels genau abzubilden.
Visionist ist davon überzeugt, dass Menschen durch visuelle Informationen und die Verarbeitung durch das Gehirn zu qualifizierten Fahrern werden können. Dann können Kameras, neuronale Netzwerke für tiefes Lernen und Computerhardware einen ähnlichen Effekt erzielen. Durch mindestens 8 Kameras, die 360° abdecken, ist der menschliche Wahrnehmungsbereich größer und sicherer.
Da beide Technologiewege ihre eigenen Vor- und Nachteile haben, ist die allgemeine Auffassung in der Branche, dass mehrere Sensoren und eine große Anzahl redundanter Designs in einem Auto, das autonome Fahrfunktionen der Stufe L2 und höher realisieren kann, erforderlich sind, um die Sicherheit und Zuverlässigkeit des Produkts zu gewährleisten. Intelligentes Fahren auf Stufe L2 erfordert 9 bis 19 Sensoren, darunter Ultraschallradar, Radar für große und kurze Reichweite sowie Rundumsichtkameras, und für Stufe L3 werden voraussichtlich 19 bis 27 Sensoren benötigt und möglicherweise auch LiDAR sowie hochpräzise Navigation und Positionierung. Schließlich ist Sicherheit der Grundstein und die Unterkante bei der Entwicklung des autonomen Fahrens. Um die Sicherheit zu gewährleisten, wird die Vermischung und Eliminierung verschiedener Technologiewege die Wahrscheinlichkeit der Sicherheit näher an 100 % bringen.