Und wieder mal das Dilemma Problem
Ein Forschungsteam hat abermals der Ethik-Diskussion angeschoben: Das Dilemma zur Frage, wen soll das selbstfahrende Auto überfahren?
Bereits letztes Jahr hatte die Ethik-Kommission ihren Bericht zum Autonomen Fahren vorgelegt und klargestellt, wie ein selbstfahrendes Auto sich in einer sogenannten Dilemma-Situation entscheiden sollte. Sprich: Wie programmiert man es ethisch korrekt.
Eine Dilemma-Situation wird oft mit dem Trolly-Problem dargestellt. Ein Wagen rauscht den Berg hinunter und kann nicht bremsen. Ich bin an Bord und habe die Möglichkeit eine Weiche zu verändern. Fahre ich nach rechts, wird eine Person getötet, fahre ich nach links, wird eine Person getötet. In dem Gedankenspiel sind die Personen austauschbar: Mal eine alte Person rechts und eine junge links oder dererlei mehr.
Die Ethik-Kommission hat klar gestellt, dass niemand aufgrund seines Alters, seiner Herkunft und anderen Merkmalen ausgewählt werden darf. Es gibt nur eine Ausnahme: wenn links eine Gruppe von Menschen und rechts eine einzelne Person steht. Dann sollte man lieber weniger als mehr überfahren. Eine weitere Dilemma-Situation betrifft die Auswahl: Insassen des Fahrzeugs versus Personen auf der Straße.
Jetzt muss man aber bedenken, dass sich solche Vorfälle äußerst selten ereignen und man sollte immer so schnell fahren, dass man rechtzeitig bremsen kann. Das sollte man wohl auch dem Autonomen Auto beibringen. Dabei hat ein Computer eine viel höhere Reaktionsgeschwindigkeit als ein Mensch. Zudem könnte man so bremsen, dass der Schaden möglichst gering ausfällt – wie beispielsweise durch eine Drehung des Wagens. Eine weitere Variante, die die Dilemma-Situationen noch unwahrscheinlicher machen.
Auch Forschende des Media Labs des Massachusetts Institute of Technology (MIT) haben sich nun dem Thema angenommen. Mittels einer “Moral Machine” haben Menschen das Szenario durchgespielt. Es waren an der Zahl Millionen Menschen aus 233 Ländern. Derart erhofft man sich Ergebnisse, welche Reaktion angemessen wäre und akzeptiert würde. Gibt es denn moralische Grundregeln, die überall auf der Welt gleich sind? Wobei dieses Experiment keineswegs repräsentativ ist, denn es waren vor allem Männer daran beteiligt und es ist nur eine Simulation – ohne den entsprechenden Adrenalinausstoß oder den Situationsstress.
Die zu überfahrenden Personen waren unterschiedlich alt, hatten Verkehrsdelikte begangen oder nicht, hatten unterschiedliche soziale Stände und so weiter. Im Ergebnis gab es eine Tendenz weniger, als mehr zu überfahren. Die anderen Merkmale der Personen waren nicht so ausschlaggebend für die Entscheidung. Tendenziell werden mehr Männer als Frauen überfahren, mehr Ältere als Kinder, sowie mehr Obdachlose und Kriminelle als beispielsweise Ärzte und mehr Tiere als Menschen. Letzteres scheint klar.
Wobei es regionale Unterschiede gab: In Asien war die Tendenz bei der Altersunterscheidung weniger hoch. Das mag mit dem Prestige dieser Gruppe zu tun haben, wie die Forschenden bemerkten. In Südamerika und Deutschland verzichtete man eher auf Lenkbewegungen.
Das Dilemma ob Fahrzeuginsassen oder Personen auf der Fahrbahn ergab keine Lösung. Hierbei gab es keine Präferenz, was jedoch damit zusammenhängen kann, dass man sich nicht tatsächlich in der Situation befand.
Insgesamt ist diese Diskussion müßig, denn vom moralischen Punkt aus, dürften Menschen nicht bevorzugt oder benachteiligt werden, wie es die eingangs erwähnte Ethik-Kommission bereits dargelegt hat. Eine Ableitung ethischer Normen aus diesem Spiel ist daher m.E. nicht zulässig. Sonst müsste man das auch bei schweren Delikten tun, wie Armin Grunwald vom Karlsruher Institut für Technologie (KIT) im Spiegel zu bedenken gibt.