Forscher des Massachusetts Institut of Technology in Boston (MIT) haben 2014 eine weltweite Umfrage gestartet. In der sogenannten Moral Machine konnten Nutzer verschiedene Szenarien bei Autounfällen durchspielen.
Zum Beispiel: Wenn ein selbstfahrendes Auto auf einen Fussgängerstreifen zufährt und die Bremsen versagen, konnte man zwischen zwei Optionen wählen:
- Das Auto bleibt auf der Fahrbahn, eine ältere Frau kommt zu Tode.
- Das Auto weicht auf die andere Fahrspur aus, ein Kind stirbt.
In weiteren Szenarien musste man sich entscheiden: Mensch oder Tier? Mehr Leben oder weniger Leben? Frau oder Mann? Arm oder reich?
Über 40 Millionen Entscheidungen
Die Webseite des MIT stiess auf reges Interesse. 8,5 Millionen Menschen aus 233 Ländern haben mitgemacht und über 40 Millionen Entscheidungen getroffen. Die «Moral Machine» ist damit eine der grössten Studien, die je zu moralischen Fragen gemacht wurde.
Die Resultate wurden kürzlich in der Fachzeitschrift Nature veröffentlicht. Und sie geben einen interessanten Einblick in die ethischen Werte verschiedener Kulturen.
Ältere Menschen sind in China mehr wert
Die Forscher fanden zum Beispiel heraus, dass die getroffenen Entscheidungen stark mit der Kultur der Länder zusammenhängen. Kollektivistische Länder wie China oder Japan verschonen zum Beispiel eher ältere Personen als Kinder. Die Forscher vermuten, weil diese Länder grossen Wert auf Respekt vor älteren Menschen legen.
Auch verblüffend: Die Anzahl von Menschen, die bei den Szenarien sterben würden, ist nicht überall auf der Welt ausschlaggebend. Vor allem individualistische Kulturen wie die USA oder England versuchen immer, möglichst viele Leben zu retten.
Menschenwürde ist unantastbar
Die Studie sollte man trotzdem mit Vorsicht zur Kenntnis nehmen. Schliesslich geben die Teilnehmer nur Einschätzungen ab. Ob man sich in einer echten Situation auch so verhält wie bei der Umfrage, ist fragwürdig.
Das sagt auch Armin Grunwald, Leiter vom Karlsruher Institut für Technologie: «Aus Umfragen gewinnt man nie Informationen darüber, was ethisch legitim geboten und erlaubt ist, sondern nur, was die Menschen darüber denken. Daraus folgt aber nicht, dass dies ethisch richtig ist.»
Als Mitglied der Ethikkommission des deutschen Bundesministeriums für Verkehr, hat Armin Grunwald am Bericht «Autonomes und vernetztes Fahren» mitgearbeitet. Und da steht: «Der Algorithmus darf nicht Menschen nach unterschiedlichen Werten abwägen. Das ist in Deutschland verboten. Bei uns gilt: die Menschenwürde ist unantastbar. Und da ist es egal, welcher Mensch das ist.»
Es gibt keine richtige Entscheidung
Was also müsste das Programm konkret in einer solchen Situation tun, wie sie in der «Moral Machine» vorkommt? «Im Prinzip kann sie nur eine Notbremsung machen. Oder sie müsste nach Zufallsgenerator reagieren. Es gibt ja keine richtige Entscheidung.»
Wichtig ist, dass man diese Fragen in einen grösseren Zusammenhang stellt. Weltweit kommen jährlich 1,2 Millionen Menschen auf der Strasse zu Tode. Mit selbstfahrenden Autos könnte man vermutlich die meisten dieser Unfälle verhindern.
Sendung: Kultur aktuell, Radio SRF 2 Kultur, 26.10.2018, 06.50 Uhr