SRF: Sind Sie schon einmal in einem selbstfahrenden Auto chauffiert worden?
Oliver Bendel: Ja, in einem Tesla, auf der Autobahn bei Bern. Ein faszinierendes Gefühl. Einfach grossartig, wenn das Auto selbstständig entscheidet, auf die Überholspur zu wechseln, kurz beschleunigt und danach wieder rechts einspurt. Fahrspass garantiert. Ausser natürlich es kommt zu einem tragischen Unfall, wie das vor kurzem bekannt gewordene Beispiel aus Florida zeigt.
Wenn Autos im Strassenverkehr selbst entscheiden, dann müssen sie nicht nur die Verkehrsregeln kennen, sondern auch moralische Urteilskraft haben. Wie bringt man Autos Moral bei?
Autos können weder denken noch fühlen, aber sie können Regeln befolgen. Und genau das versucht man zu programmieren. Man sagt also etwa: «Bremse, wenn ein Mensch auf der Fahrbahn ist».
Konkret macht man das zum Beispiel, indem man die Sensoren beobachten und die Software einen Entscheidungsbaum durchlaufen lässt: Ist ein Objekt auf der Fahrbahn? Wenn ja, wie gross ist es? Bewegt es sich? Diese Form des starren Programmierens eignet sich gut, um einer Software moralische Regeln beizubringen.
Sind Autos auch in der Lage, selber zu lernen?
Ja, Autos können gewisse Regeln auch durch Nachahmung lernen, etwa indem man sie auf einem Übungsgelände mit Ampeln und Hindernissen fahren lässt. In dieser Autoschule orientieren sie sich an ihren Nachbarn, indem sie deren Fahrverhalten nachmachen.
Ein bisschen wie bei einem Kind: Überwachtes und angeleitetes Lernen in einer sicheren Umgebung. Die Gefahr dieser Variante besteht in einer normalen Umgebung darin, dass sich das Auto die falschen Vorbilder aussucht, etwa einen Raser.
Was sind die grossen Herausforderungen der nächsten zehn Jahre bei der Programmierung selbstfahrender Autos?
Für die am Auto angebrachten Kameras ist bereits leichter Nieselregen ein Riesenproblem. Die vielleicht grösste Schwierigkeit besteht allerdings in der Verarbeitung der ungeheuren Menge und Komplexität von Informationen aus der Umgebung.
Denken Sie ans Autofahren in einer Grossstadt: Da sind Ampeln, Kreisel, Einbahnen, Fahrradfahrer, Fussgänger, Hunde, Kinder mit Ballons, Schatten, Spiegelungen an Fensterscheiben.
Dieses Problem ist aus meiner Sicht fast nicht zu lösen. Daher sage ich: Selbstfahrende Autos gehören in Europa auf Autobahnen. Schon auf amerikanischen Highways und schweizerischen Landstrassen kann es heikel sein. In den Städten braucht es auch in Zukunft noch einen Menschen hinter dem Steuer – ausser man baut unsere Städte um oder senkt die Höchstgeschwindigkeit.
Es soll also einen Autopiloten geben, den man einschaltet, sobald man die Stadt verlässt?
Genau, solche hybriden Autos sind die Zukunft. Man schaltet die Automatik ein, wenn man aus der Stadt raus ist und kann sich zurücklehnen. Es braucht also weiterhin Lenkrad und Pedale. Google ist hier meines Erachtens auf dem Holzweg.
Und welche moralischen Regeln soll man den Autos nun beibringen?
Beiträge zum Thema
- Mensch, Roboter! (Sternstunde Philosophie, 15.11.2015) Mensch, Roboter! (Sternstunde Philosophie, 15.11.2015)
- Wenn Roboter Menschen ersetzen (Eco, 9.11.2015) Wenn Roboter Menschen ersetzen (Eco, 9.11.2015)
- Schul-Roboter: Ein Stellvertreter für Jonas (Einstein, 8.5.2014) Schul-Roboter: Ein Stellvertreter für Jonas (Einstein, 8.5.2014)
Alexander Dobrindt, der deutsche Verkehrsminister, möchte dazu eine entsprechende Ethikkommission bilden. Mit Blick auf diese meinte er vor kurzem, dass Menschen auf keinen Fall «qualifiziert» werden dürfen.
Wenn es um Leben und Tod geht, ist ein Bundesrat also nicht schützenswerter als ein normaler Bürger und Kinder sind gegenüber Greisen nicht zu bevorzugen.
Jeder Mensch ist gleichwertig. Aber sind fünf Menschen mehr wert als ein einzelner?
Das ist eine schwierige Frage, die in verschiedenen Kulturen unterschiedlich beurteilt wird. Ich persönlich finde, fünf Menschen sind nicht in jedem Fall mehr wert als ein einzelner. Denken Sie etwa an eine Situation, in der sich ein Auto zwischen fünf IS-Kämpfern und Ihnen entscheiden muss.
Dennoch glaube ich, dass es Situationen geben kann, in denen die utilitaristische Nutzenmaximierung der richtige Weg ist, etwa wenn tausende von Menschenleben auf dem Spiel stehen. Die Anzahl kann also in Extremfällen relevant sein.
Wird eine Zeit kommen, in der Autos so klug sind, dass sie selbst moralische Rechte beanspruchen können?
Das sehe ich nicht. Für moralische Rücksicht braucht es einen Lebenswillen, Bewusstsein oder Empfindungsfähigkeit. All das haben Maschinen noch nicht einmal im Ansatz. Deswegen dürfen wir alles mit ihnen machen, ja sie dürfen auch versklavt werden.
Das einzige, was dagegen spricht, ist der psychologische Verdacht, dass wir Menschen vielleicht moralisch abstumpfen, wenn wir menschenähnliche Wesen schlecht behandeln oder versklaven. Ein Argument, das man in ähnlicher Form bereits beim deutschen Philosophen Immanuel Kant findet.
Das Gedankenexperiment Strassenbahn
Dürfen Menschenleben gegeneinander abgewogen werden? Diese Frage stellt sich bei autonomen Fahrzeugen und genau darum dreht sich das Gedankenexperiment «Strassenbahn».