Der Science-Fiction-Film «Blade Runner»spielt im November 2019. Der Film von 1982 handelt von Robotern, die menschliche Gefühle hegen und von uns fast nicht mehr unterscheidbar sind.
Wo ist die Science-Fiction heute bereits Realität? Die Technikphilosophin Catrin Misselhorn forscht zu Künstlicher Intelligenz und Roboterethik.
SRF: Welche Szenarien aus Science-Fiction-Filmen sind heute bereits denkbar?
Catrin Misselhorn: Das Thema der androiden Roboter ist sicher etwas, das uns heute schon beschäftigt. Man diskutiert ja die Möglichkeit, dass man vielleicht im Verlauf der nächsten Dekaden Künstliche Intelligenz auf dem Niveau menschenähnlicher Intelligenz oder sogar noch darüber erschaffen kann.
Die Debatte ist also präsent, die Technologie natürlich noch nicht. Aber da zeigt sich die Rolle von Science-Fiction: Sie muss sich nicht mit dem technisch Machbaren beschäftigen.
Es geht auch darum, in Zusammenhang mit Zukunftstechnologien zu erhellen, wer wir eigentlich sind, was uns Menschen ausmacht. Wie verändert uns die Interaktion mit bestimmten Technologien? Welche gesellschaftlichen Folgen hat das? Science-Fiction bietet die Möglichkeit zu einer ethischen Reflexion.
Eine Maschine hat nicht diesen moralischen Spielraum, den Menschen haben.
Können Maschinen moralisch handeln?
Ich forsche viel im Bereich der Pflege. Ein Pflegeroboter muss zum Beispiel Medikamente abgeben. Wie oft soll er den Menschen daran erinnern? Je öfter, desto besser? Oder soll er darauf Rücksicht nehmen, dass es Nutzer gibt, die das nervt und die sich in ihrer persönlichen Freiheit eingeschränkt fühlen?
Der Roboter muss gesundheitliche Risiken gegen die Autonomie des Nutzers abwägen. Eine solche Situation erfordert eine einfache moralische Entscheidung.
Mir schwebt ein System vor, das sich auf den Nutzer einstellen kann, weil unterschiedliche Menschen eben unterschiedliche Moralvorstellungen haben.
Wie unterscheidet sich da die Maschine vom Menschen?
Moralisches Handeln beim Menschen bezieht sich auf viel mehr Aspekte. Da spielt Bewusstsein eine Rolle, die Reflexion über unsere moralischen Werte und die Moralbegründung. Die Willensfreiheit spielt eine grosse Rolle – also auch die Möglichkeit, sich unmoralisch zu verhalten. Alle diese Fähigkeiten haben Maschinen nicht.
Dennoch werden Maschinen immer wichtigere Entscheidungen treffen müssen.
Bei selbstfahrenden Autos diskutiert man öffentlich intensiv die Dilemma-Situationen. Was passiert, wenn ein selbstfahrendes Auto in eine Situation kommt, in der es nur die Option hat: Die eine oder die andere Gruppe von Menschen anzufahren? Wie ist der Schutz der Autoinsassen zu bewerten gegenüber den Fussgängern auf der Strasse? Wie sollte ein System in solchen Fällen entscheiden?
Ich möchte dazu sagen, dass ich in diesem Bereich skeptisch bin und ungern den Maschinen die Entscheidung über Leben und Tod übertrage.
Auch Menschen sind bei solchen Entscheidungen überfordert.
Ja, und diese Art von Entscheidungen können wir auch nicht isoliert treffen. Sie sind ganz stark von der jeweiligen Situation abhängig. Häufig würden wir ja schon die Abwägung als unmoralisch empfinden. Etwa die Frage, ob ein System meinen Ehemann oder auf der Strasse spielende Kinder retten soll. Das kann man nicht im Vorfeld entscheiden.
Menschen haben da die grundlegende Fähigkeit, sich immer auch anders zu entscheiden. Diese Fähigkeit hat eine Maschine nicht, sie hat nicht diesen moralischen Spielraum, den Menschen haben.
Das Gespräch führte Meili Dschen.