(adsbygoogle = window.adsbygoogle || []).push({ google_ad_client: "ca-pub-3698567405749844", enable_page_level_ads: true });

Autonomes Fahren und die Probleme mit dem Alter und der Hautfarbe

Dach mit Sensoren fuer Autonomes Fahren - Kopie

Neue Forschung zeigt, dass fahrerlose Auto-Software bei Erwachsenen und hellhäutigen Menschen signifikant genauer ist als bei Kindern und dunkelhäutigen Menschen.

Autonome Auto-Systeme haben ein Vorurteilsproblem, so eine neue Studie des Kings College London. Die Studie untersuchte acht KI-gesteuerte Fußgängererkennungssysteme, die für die autonome Fahrzeugforschung verwendet werden. Die Forscher ließen mehr als 8.000 Bilder durch die Software laufen und stellten fest, dass die selbstfahrenden Autosysteme fast 20% besser darin waren, Erwachsene als Kinder im Verkehr zu erkennen und mehr als 7,5% besser darin waren, hellhäutige als dunkelhäutige Menschen zu erkennen. Die KI war sogar noch schlechter darin, dunkelhäutige Menschen bei schlechten Lichtverhältnissen und in dunkler Umgebung zu erkennen, was die Technologie nachts noch unsicherer macht. Für Kinder und Menschen mit dunkler Hautfarbe könnte das Überqueren der Straße mit autonomem Verkeher gefährlicher werden.

Die Studie hat nicht genau die gleiche Software getestet, die von Unternehmen für fahrerlose Autos verwendet wird, die ihre Produkte bereits auf den Straßen haben. Dennoch trägt die Software zu wachsenden Sicherheitsbedenken bei, da die Autos immer häufiger werden. In diesem Monat hat die kalifornische Landesregierung Waymo und Cruise die Erlaubnis erteilt, rund um die Uhr fahrerlose Taxis in San Francisco zu betreiben. Es gab schon Unfälle und auch die Probleme häufen sich.

Waymo wehrt sich gegen den Vorwurf, schließlich verwende man nicht nur Kamerabilder, sondern mehrere Sensoren, um die Umgebung zu erfassen. Waymo trainiere seine autonome Fahrzeugtechnologie speziell darauf, Menschen zu klassifizieren und auf menschliches Verhalten zu reagieren, und arbeite daran, sicherzustellen, dass seine Datensätze repräsentativ seien. Laut den Forschern stammt ein wesentlicher Teil der Probleme der Technologie bei Kindern und dunkelhäutigen Menschen aus Vorurteilen in den Daten, die zur Schulung der KI verwendet werden, da diese mehr Erwachsene und hellhäutige Menschen enthalten.

Algorithmen spiegeln die Vorurteile in Datensätzen und im Denken der Menschen wider, die sie erstellen. Ein häufiges Beispiel ist die Gesichtserkennungssoftware, die konsequent eine geringere Genauigkeit bei den Gesichtern von Frauen, dunkelhäutigen Menschen und asiatischen Menschen zeigt. Diese Bedenken haben die begeisterte Akzeptanz dieser Art von KI-Technologie bisher nicht gestoppt. Die Gesichtserkennung ist bereits dafür verantwortlich, unschuldige schwarze Menschen ins Gefängnis zu bringen.

David Fluhr: Ich schreibe seit 2011 über das Thema Autonomes & Vernetztes Fahren. Ich habe Sozialwissenschaften an der HU Berlin studiert und bin seit 2012 selbstständiger Journalist. Kontakt: mail@autonomes-fahren.de