Einige Künstlichen Intelligenzen in Autos erkennen immer noch keine Personen mit dunkler Haut.
Schon vor einigen Jahren wurde bekannt, dass gewisse Künstliche Intelligenzen (KI) schwarze Personen in den USA nicht erkannt haben. Der Grund dafür war, dass Personen dieser Hautfarbe nicht Teil der Lerndatenbank waren. Diese Entwicklungsproblematik ist wohl immer noch Teil der Programmierung.
Forschende des Georgia Institute of Technology untersuchten acht KI-Modelle, die zur Navigation herangezogen werden. Die Künstlichen Intelligenzen dienen der Erkennung von Objekten, Verkehrszeichen und des Fußverkehrs. Diese Künstliche Intelligenzen testeten die Forschenden mithilfe von Bildern von Zufußgehenden.
Unter den gezeigten Personen waren eben auch Menschen mit dunkler Hautfarbe. Die Künstlichen Intelligenzen, so das Ergebnis dieser Studie, zeigten eine gleichbleibend schlechte Leistung, wenn es um Personen mit dunkler Hautfarbe ging. Die Erkennungsgenauigkeit reduzierte sich auf fünf Prozent – dabei war es egal, ob das Bild Personen am Tag oder in der Nacht zeigte.
Dieser Mangel, so die Forschenden, muss unbedingt behoben werden. Dies kann man mit den entsprechenden Datensätzen erreichen, mit denen die Künstliche Intelligenz programmiert wird. Dort muss sich die gesamte Vielfalt der Menschen abbilden. Ansonsten könnten diese nicht als Zufußgehende erkannt und beachtet werden.
Man kann also nicht sagen, dass die Künstliche Intelligenz rassistisch ist, aber sie wurde fehlerhaft programmiert. Ob diejenigen, die die Bilder mit Personen rausgesucht haben, rassistisch veranlagt waren, ist unklar. Dies wäre der Fall, wenn sie absichtlich die Vielfalt des menschlichen Aussehens ignoriert hätten. Unbewusste Auslassungen könnten aber ebenfalls möglich sein.
Quelle (englisch)