(adsbygoogle = window.adsbygoogle || []).push({ google_ad_client: "ca-pub-3698567405749844", enable_page_level_ads: true });

Sicht bei Nebel und Staub für Autonomes Fahren | MIT

Forschende des MIT haben ein System entwickelt, dass Autos durch Nebel und Staub leitet.

In jüngster Zeit widmet sich das MIT, das Massachusetts Institute of Technology, verstärkt dem Autonomen Fahren. Nun hat man ein Konzept entwickelt, das eine freie Fahrt für Autonome Autos durch schlechte Sichtverhältnisse ermöglicht.

Sub-Terahertz-Wellenlänge-Chip. Quelle: MIT

Wie die Sicht des Menschen ist auch die Sicht der Sensorik zuweilen eingegrenzt. Ein niedriger Sonnenstand blendet die Kameras, der Nebel erschwert die Sicht von einigen Lidargeräte und dererlei mehr. Daher greift das MIT nun auf eine neue Konzeption zurück, in der Autonome Fahrzeuge mit einem Sub-Terahertz-Empfangsgerät ausgestattet werden.

Sollte die Sensorbeeinträchtigung zu stark werden, kann man mittels dieser Herangehensweise die Steuerung stabilisieren. Denn der Wellenbereich, zwischen Mikrowelle und Infrarot, kann problemlos durch Nebel und Staub erfasst werden.

Dabei wird ein Signal durch einen Sender ausgeben. Die Reflexion erlaubt die Erkennung von Objekten. Diese werden durch einen entsprechenden Empfänger erfasst und an einen Prozessor übermittelt. Derart kann man das Objekt sichtbar machen.

Doch die Implementierung dieser Sensorerfassung ist mit einigen Schwierigkeiten gespickt. Denn derart empfindliche Objekterkennung bedarf eines starken Sendeimpulses zum Prozessor. Diese Technik dafür wäre zu groß und zu teuer. Für Sensorarrays auf dem Chip wäre das Signal zu schwach.

Daher hat man ein zweidimensionales Sub-Terahertz-Empfangsarray auf einem Chip konstruiert, was diese Problematik löst. Es erfasst das Signal besser und lässt sich vom Rauschen besser absetzen. Diese Informationsextraktion erfolgt über Heterodyn-Detektoren. Diese wurden von den Forschenden auf die nötige Größe verkleinert, sodass sie auf den Chip passen. Dafür wurde eine kompakte Mehrzweckkomponente geschaffen, welche die ankommenden Signale erkennen, die Pixelarrays synchronisieren und das Signal entsprechend verstärken kann.

Der bisherige Prototyp impliziert 32 Pixel-Array auf einer Fläche von 1,2 Quadratmillimeter. Dabei erreicht man eine höhere Empfindlichkeit um den Faktor 4.300. Nun arbeitet man daran, diesen Faktor noch zu erhöhen und das System damit für Autonomes Fahren interessant zu machen. Das Ziel des sogenannten “electric eyesight” ist es, den Lidarsensor zu ergänzen.

Details zum Verfahren auf der Seite des MIT

David Fluhr: Ich schreibe seit 2011 über das Thema Autonomes & Vernetztes Fahren. Ich habe Sozialwissenschaften an der HU Berlin studiert und bin seit 2012 selbstständiger Journalist. Kontakt: mail@autonomes-fahren.de