Pressemitteilungen 2017 ()

Sichere Systeme mit Lerneffekt für selbstfahrende Autos

Verknüpfung von NVIDIA-Hardwareplattform und Simulationssoftware CarMaker ermöglicht Training von Deep Learning-Algorithmen im virtuellen Fahrversuch

Wie bringt man ein Fahrzeug dazu, selbstständig und autonom zu fahren? Man lässt es bei echten Fahrern zuschauen und lernen. Möglich macht das die offene Computing-Plattform DRIVE PX 2 von NVIDIA. Das Besondere dieser Hardwareplattform ist die Verwendung von Graphics Processing Units (GPUs), die das Training und die Berechnung neuronaler Netze und Deep Learning-Anwendungen schneller macht als bei reiner Verwendung von Central Processing Units (CPUs). Die auf neuronalen Netzen basierenden Algorithmen erkennen schon nach Kurzem in Echtzeit, wie andere Verkehrsteilnehmer oder Verkehrsschilder aussehen und ermöglichen selbst in komplexen Verkehrssituationen eine Orientierung im Straßenverkehr. Die Simulationssoftware CarMaker kann nun auch mit der NVIDIA-Hardwareplattform verknüpft und zum Training von neuronalen Netzen im virtuellen Fahrversuch verwendet werden. Darüber hinaus ermöglicht es die Verknüpfung, auch Deep Learning-Sensorfusionsalgorithmen zur Steuerung von Fahrerassistenzsystemen und automatisierten Fahrfunktionen virtuell zu entwickeln und testen.

Die NVIDIA-Grafikprozessoren sind so leistungsfähig, dass sie auch für die Interpretation von Sensordaten einsetzbar sind. Die Daten von bis zu zwölf Kameras sowie von Lidar-, Radar- und Ultraschallsensoren können ausgewertet werden und so eine vollständige 360-Grad-Umgebung in Echtzeit abbilden. Deep Neural Networks (DNN) ermöglichen bei der Erkennung und Klassifizierung von Objekten eine hohe Genauigkeit der Ergebnisse aus den zusammengelaufenen Sensordaten und lassen das autonome Auto präzise und auf einer sicheren Route, angepasst an die jeweiligen Umstände, fahren.

Die Simulationslösungen der CarMaker-Produktfamilie und der NVIDIA-Hardwareplattform miteinander zu verknüpfen, eröffnet den Entwicklungsabteilungen der Fahrzeughersteller und Zuliefererindustrie auch die Möglichkeit, frühzeitige Tests von Fahrerassistenzsystemen und automatisierten Fahrfunktionen im virtuellen Fahrversuch durchzuführen. Bislang wurde dem neuronalen Netz ein reales Fahrvideo mit entsprechenden Daten zu Fahrbahnmarkierungen, Verkehrsteilnehmern, Gebäuden, geparkten Autos usw. in verschiedenen Sicht- und Wetterverhältnissen wie etwa Wolken, Nebel, Schnee und Regen, Tag oder Nacht vorgespielt. Ab jetzt können mithilfe von CarMaker reproduzierbare Daten unterschiedlichster Szenarien virtuell erzeugt und zum Training der neuronalen Netze verwendet werden. „Ein Teil unserer Kunden nutzt das NVIDIA-Board bereits und kann nun Deep Learning-Sensorfusionsalgorithmen auch im virtuellen Fahrversuch testen, was Zeit und Kosten spart“, erklärt Björn Fath, Business Development Manager Real-Time Simulation Systems bei IPG Automotive.

Verknüpft mit der Video Interface Box von IPG Automotive sind zudem auch Closed-Loop-Testverfahren von Kamerasteuergeräten durch direkte Bildeinspeisung möglich. Beim Testen von Fahrerassistenzsystemen auf sogenannten Hardware-in-the-Loop (HIL) Prüfständen kann es aufgrund der fehlenden Synchronisation zwischen Bildaufbau im Monitor und der Bilderfassung in der Kamera zu „zerrissenen“ Bildern kommen. Gleichzeitig sind digitale Flachbildschirme zu licht- und kontrastschwach, um Eingangsdaten für Lichtassistenzfunktionen liefern zu können. Durch die direkte Bildeinspeisung mithilfe der Video Interface Box in ein Serienkamerasteuergerät können diese Probleme umgangen werden. Ebenfalls ist es möglich über GMSL (Gigabit Multimedia Serial Link) Bilder der Simulationsumgebung direkt in das NVIDIA DRIVE PX 2 einzuspeisen. Im Closed-Loop-HIL-Verfahren kann die Video Interface Box kamerabasierte Funktionen mit weiteren Steuergeräten inklusive der simulierten Umfeldsensorik überprüfen und somit die Vorteile des virtuellen Fahrversuchs auch im Kontext einer Sensordatenfusion nutzen.

Der Einsatz der hoch performanten Hardware-Technologie von NVIDIA zusammen mit CarMaker bietet eine hervorragende Grundlage, die anspruchsvollen Anforderungen, die das autonome Fahren an die Entwicklung stellt, zu meistern. „Ein früher Test dieser neuen Funktionen in einer virtuellen Umgebung ist der Schlüssel um eine hohe Produktqualität und Sicherheit zu erreichen“, so Björn Fath.

 

Abbildung: Algorithmen basierend auf neuronalen Netzen lernen, relevante Informationen wie andere Fahrzeuge und Fahrbahnmarkierungen in Echtzeit zu erkennen. © IPG Automotive

Zugeordnete Dateien

IPG Automotive NVIDIA Board Web.JPG
0.81 MB / JPG
IPG Automotive NVIDIA Board Print
2.35 MB / JPG
IPG Automotive PM NVIDIA DE
0.29 MB / PDF