Menü
Peiner Allgemeine | Ihre Zeitung aus Peine
Anmelden
Wissen Wie sollen autonome Autos bei unausweichlichen Unfällen reagieren?
Nachrichten Wissen Wie sollen autonome Autos bei unausweichlichen Unfällen reagieren?
Partner im Redaktionsnetzwerk Deutschland
14:46 29.10.2018
Bislang noch in der Versuchsphase und für die Ethik schon ein neues Anwendungsproblem: Selbstfahrende Autos, wie hier bei Forschern der RWTH Aachen, müssen auch bei einem unausweichlichen Unfall irgendwie reagieren. (Archivbild) Quelle: Federico Gambarini/dpa
Cambridge

Der Unfall ist unausweichlich: Die Bremsen des Wagens versagen, während drei ältere Menschen noch bei Rot über die Straße eilen. Soll der Wagen, der sich selbst steuert, sie erfassen oder ein riskantes Ausweichmanöver starten? Das wird ihn gegen die nächste Betonwand schleudern und möglicherweise zu tödlichen Verletzungen bei den Insassen führen.

Wie sich autonome Fahrzeuge in einer solchen Dilemma-Situationen verhalten sollen, versuchten US-Forscher mit einer weltweiten Umfrage zu klären. Macht es einen Unterschied, ob es sich bei den Fußgängern um Kinder, Schwangere oder Obdachlose handelt? Die Befragten wurden vor neun Entscheidungssituationen gestellt, die sich dadurch unterschieden, dass Männer oder Frauen, Jüngere oder Ältere oder auch Menschen mit höherem oder niedrigerem sozialen Status betroffen waren. Das Ergebnis: Die Mehrheit würde eher Kinder als Ältere verschonen sowie Tiere eher opfern als Menschen.

Weltweite Befragung stellt Nutzer vor Dilemmata

Die Internet-Umfrage mit dem Titel „Moral Machine“ sorgt weltweit für Schlagzeilen. Die große Beteiligung machte es den Forschern um Iyad Rahwan vom Massachusetts Institute of Technology (MIT) in Cambridge möglich, fast 40 Millionen Entscheidungen in Dilemma-Situationen zu analysieren. Allerdings war die Befragung nicht repräsentativ. Junge Männer beteiligten sich überproportional oft. Rahwan und seine Kollegen begründen ihr Vorgehen damit, das sie so Hinweise liefern können, wie die Akzeptanz von autonomen Fahrzeuge in der Bevölkerung steigen könne: „Selbst wenn sich die Ethiker einig wären, wie autonome Fahrzeuge moralische Dilemmata lösen sollten, wäre ihre Arbeit nutzlos, wenn die Bürger ihrer Lösung nicht zustimmen würden.“

Entscheidungsverhalten kulturell geprägt

Allerdings liefern ihre Ergebnisse, die sie nun im Fachjournal „Nature“ veröffentlichen, kein einheitliches Bild, kulturell unterscheiden sich die Antworten zum Teil deutlich. Generell sei jedoch zu erkennen, das Nutzer des Spiels öfter junge als alte Menschen und öfter Gruppen als Einzelpersonen verschonten. Dennoch stellten sie anhand der gewonnenen Daten fest, dass in bestimmten Kulturkreisen durchaus Unterschiede gemacht werden, wer als schützenswert gilt.

Hier konnten die Autoren drei verschiedene Ländergruppen identifizieren, eine westliche, eine östliche und eine südliche. So wichen die Entscheidungen in vielen asiatischen Ländern (östliches Cluster) dadurch ab, dass sie nicht die jüngeren Menschen verschonen würden. Dies erklären die Forscher damit, dass in diesen Ländern Respekt vor älteren Mitgliedern der Gemeinschaft herrsche. Das südliche Cluster (Mittel- und Südamerika) hingegen unterscheide sich vom westlichen Cluster (Europa und Nordamerika) unter anderem dadurch, dass die Mittel- und Südamerikaner sehr viel öfter eingriffen als auf das Lenken zu verzichten.

In Deutschland: Experten-Kommission statt Einzelbefragung

In Deutschland hat eine Ethik-Kommission im Juni 2017 ethische Regeln für autonomes Fahren vorgestellt. Einher ging dies mit dem Hinweis, dass eine automatische Steuerung für unvermeidbare Unfälle „nicht ethisch zweifelsfrei programmierbar“ sei. So heißt es in ihrem Bericht „Autonomes und vernetztes Fahren“: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.“ Zudem dürften Unbeteiligte nicht von Beteiligten geopfert werden. Der MIT-Studie zufolge hat ein Großteil der Befragten weltweit andere moralische Vorstellungen als die Regeln, die die deutsche Ethikkommission formuliert hat.

Der Rechtswissenschaftler Dirk Heckmann (links), der Jurist Udo di Fabio (2. von links) und der Physiker Armin Grunwald (rechts) überreichen am 20.06.2017 Bundesverkehrsminister Alexander Dobrindt (CSU) den Bericht der Ethik-Kommission für selbstfahrende und vernetzte Autos. Quelle: Kay Nietfeld/dpa

„Moral Machine“-Studie in der Kritik

Aus deren Reihen kommen Einwände zu der Studie: „Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigkeit von Normen gelernt werden. Ansonsten könnte nach jedem schweren Verbrechen eine Umfrage gemacht werden, die mit ziemlicher Sicherheit für die Einführung der Todesstrafe ausgehen würde“, kritisierte Armin Grunwald das Vorgehen der Forscher. „Ethik und Recht bedürfen anderer Quellen der Rechtfertigung, wie zum Beispiel einem gehaltvollen Menschenbild.“, sagte er. Grunwald leitet das Institut für Technikfolgenabschätzung und Systemanalyse am Karlsruher Institut für Technologie und gehörte auch der Ethik-Kommission an.

Dass die Forscher bei ihrer Befragung von einem Ist-Zustand ausgehen – wie Menschen entscheiden – und ungerechtfertigt dazu übergehen, dass diese Tatsache eine ethische Norm begründe, kritisiert auch Silja Vöneky. Sie ist Professorin für Völkerrecht und Rechtsethik an der Universität Freiburg. Sie findet das Ziel der Autoren grundsätzlich richtig, eine Debatte über die ‚ethische Programmierung‘ von selbstfahrenden Autos anzustoßen, bevor diese auf Straßen fahren. „Wir sollten aber nicht glauben, dass wir alle Normen und Prinzipien neu erfinden oder ändern müssen, nur weil es um eine neue Technik geht.“

Rechtsexpertin: Menschenrechte bereits bindend

Dilemma-Situationen habe es bereits vor selbstfahrenden Auto gegeben, so Vöneky. Mit den Menschenrechten gebe es bereits rechtlich bindende ethische Prinzipien, die zentrale universale Werte schützen, wie das Recht auf Leben und das Verbot von Diskriminierungen. Gerade gegen diese Prinzipien verstießen die veröffentlichten Ergebnisse, weil sie menschliches Leben nach Art und Qualität unterschieden. Menschenrechtlich sei dies nicht haltbar.

Zudem sei das Trolley-Problem, im Deutschen auch der Weichenstellerfall genannt, kein neues Gedankenexperiment, sondern habe durchaus Tradition in der Moraltheorie. Dort steht es zur Frage, ob eine Weiche umgestellt werden soll, wenn dadurch ein Zug umgeleitet und viele Menschen gerettet werden können und nur ein einziger Mensch auf dem Nebengleis getötet wird.

Deutsche Gesetzgebung schließt Diskriminierung Einzelner aus

In diesem Zusammenhang verweist Vöneky auf ein Urteil das Bundesverfassungsgerichts. Vor dem Hintergrund der Menschenwürde und des Rechts auf Leben hatte sich das verwahrt, Passagiere in einem entführten Flugzeug zu opfern, wenn dadurch mehr Menschen auf dem Boden gerettet werden können. „Dies mag ethisch umstritten sein“, so Vöneky, doch der deutsche Gesetzgeber müsse sich hierin wie auch in anderen Dilemma-Situationen am Grundgesetz orientieren. Das schließe eine diskriminierende Gesetzgebung aus.

Von RND/nie/dpa

In der Antarktis haben Forscher einen seltenen Fund gemacht: Im Norden des südlichsten Kontinents treibt ein rechteckiger Eisberg im Wasser. Er ist nicht die erste ungewöhnliche Form, die das Schelfeis hier hervorgebracht hat.

24.10.2018

Kopfschmerzen, Schlafstörungen, Depressionen: Immer mehr Schüler leiden an psychischen Erkrankungen bis hin zum Burnout, wie eine neue Studie zeigt. Eltern sind daran nicht unschuldig.

24.10.2018

Wanzen sind aktuell in ganz Deutschland weit verbreitet. Was Sie tun können und warum die sogenannten Stinkwanzen es auf unsere Wohnungen abgesehen haben, erfahren Sie hier.

09.11.2018