Die TU Berlin demonstriert in Kooperation mit dem Fraunhofer FOKUS die Fernsteuerung automatisierter Fahrzeuge und hat eine neue KI-Lernbasis geschaffen.
Anlässlich der GPU Technology Conference (GTC) von Nvidia haben das Fraunhofer FOKUS und die TU Berlin vergangene Woche die Fernsteuerung automatisierter Fahrzeuge demonstriert.
Sollte das Autonome Auto mal nicht weiter wissen, könnte die Entwicklung der beiden Forschungseinrichtungen zum Tragen kommen. Das könnte passieren, wenn es für das zu befahrende Gelände kein Kartenmaterial gibt oder es sich um Baustellen handelt, die nicht eingeplant waren.
Das Fraunhofer FOKUS und die TU Berlin, die schon auf dem Testfeld Diginet PS zusammenarbeiten, haben auf dem Messegelände die Fernsteuerung mit einer geringen Zeitverzögerung vorgestellt. Das ist ein weiterer Schritt hin zum Autonomen Fahren. Daher ist auch das Daimler Center for Automotive IT Innovations (DCAITI) mit von der Partie.
Bei der Fernsteuerung sitzt eine Person, genannt Operator, in einer Zentrale und ist mit dem Fahrzeug via WLAN oder 5G verbunden. Die Daten werden von der DRIVE Plattform von Nvidia ausgewertet. Die Meta-Daten, die nicht so rechenintensiv sind, werden an den Operator weitergeleitet. Das geringe Datenvolumen erlaubt eine geringe Latenz, also eine geringe Übertragungszeit. Derart kann man das Fahrzeug nahezu in Echtzeit steuern.
Des Weiteren haben die beiden Kooperationspartner eine Trainingseinheit für die Künstliche Intelligenz vorgestellt. Diese wird für die Bildauswertung der Kamera- und Lidarbilder eingesetzt. Für ein besseres Training der Künstlichen Intelligenz hat man die Lerndaten aufbereitet, sodass es einfacher ist, der Künstlichen Intelligenz eine bessere Unterscheidung beizubringen. Die dafür nötige Rechenkapazität liefert der DGX-1 Computer von Nvidia.
Das Schlüsselwort dabei heißt “Labeling”, was eine Zeitreduktion um 90 Prozent ausmacht. Konkret werden die Objekte auf den Bildern klassifiziert und damit besser unterscheidbar. Derart können selbst einzelne Personen in einer Menschenmenge individualisiert werden. Darüber hinaus wird die Position in einem 3D Bild berechnet.