Zum Inhalt springen
Video
Peter G. Kirchschläger – Eine Ethik für das KI-Zeitalter!
Aus Sternstunde Philosophie vom 10.12.2023.
Bild: SRF abspielen. Laufzeit 58 Minuten 40 Sekunden.

Ethiker über KI «Wir müssen aufpassen, dass wir nicht die Kontrolle verlieren»

Die Künstliche Intelligenz (KI) durchdringt unser Leben immer stärker. Trotzdem gibt es für die Technologie noch kaum moralische oder rechtlich verbindliche Regeln. Das muss sich dringend ändern, fordert der Ethiker Peter G. Kirchschläger. Denn KI gefährde unser Recht auf Datenschutz, Privatsphäre oder politische Mitbestimmung.

Peter G. Kirchschläger

Ethiker, Theologe und Philosoph

Personen-Box aufklappen Personen-Box zuklappen

Peter G. Kirchschläger ist Ethik-Professor und leitet das Institut für Sozialethik ISE an der Universität Luzern. Er forscht zu ethischen Aspekten der Digitalisierung und dem Einsatz von Künstlicher Intelligenz und hat dazu auch das Buch «Digital Transformation and Ethics» (2021) geschrieben. Er setzt sich für die Schaffung einer internationalen Kontrollinstanz, der Agentur für datenbasierte Systeme (IDA) ein, die auf dem Minimalstandard der Menschenrechte basiert und ähnlich wie die Atomenergiebehörde funktionieren soll.

SRF: Elon Musk schätzte das Gefahrenpotential der KI höher ein als das der Atombombe. Wie sehen Sie das?

Peter G. Kirchschläger: Die ethischen Risiken sind enorm. Unser Recht auf politische Mitbestimmung wird massiv unterwandert, indem wir manipuliert werden, so abzustimmen, wie die KI das will. Unsere Daten werden täglich gestohlen und an Dritte weiterverkauft. Beides dürfte laut geltendem Recht nicht passieren.

Ein Pflegeroboter kann nicht moralisch schlecht von gut unterscheiden.

Wenn Sie und ich uns nicht an die Verkehrsregeln halten, bekommen wir eine Busse. Aber ich kann eine KI auf den Markt werfen, die menschenrechtsverletzend ist und es passiert nichts. Abgesehen davon, dass ich sehr viel Geld verdienen kann.

Wie kann es sein, dass Regulierungen so langsam ins Rollen kommen?

Man möchte keine positiven Entwicklungen unterbinden. Aber vor allem hat es mit ökonomischen Interessen zu tun. Es gibt massives Lobbying. Die Technologiekonzerne sorgen sehr gut dafür, dass nicht reguliert wird. Deshalb braucht es eine unabhängige Agentur für datenbasierte Systeme, die für Zulassung und Aufsicht verantwortlich ist.

Sie sprechen lieber von datenbasierten Systemen als von Künstlicher Intelligenz. Wieso?

In einigen Intelligenzbereichen ist die sogenannte KI uns weit voraus, etwa im Umgang mit grossen Datenmengen. Wir müssen aufpassen, dass wir da nicht die Kontrolle verlieren. Andere Bereiche sind für sie aber unerreichbar, wie die emotionale und soziale Intelligenz. Ich kann einem Pflegeroboter beibringen, dass er weinen soll, wenn ein Patient weint – oder genauso gut, dass er ihm eine Ohrfeige gibt. Er führt den Befehl aus, kann aber nicht moralisch schlecht von gut unterscheiden.

Manchmal scheinen wir zu glauben, dass diese Systeme naturgegeben sind.

Wir müssen deshalb genau hinschauen: Was können datenbasierte Systeme und was nicht? Wir haben Moralfähigkeit, das Potenzial anders zu denken, frei zu entscheiden. Das können Maschinen nicht. Sie sind nicht frei, sondern basieren auf Daten.

Frau im Dunkeln arbeitet auf einem Screen.
Legende: «Wir müssen aufwachen», fordert der Ethiker in Bezug auf unseren Umgang mit Daten. Getty Images/IndiaPix/IndiaPicture

Wo sehen Sie Handlungsbedarf?

Bei den Daten müssen wir ansetzen. Manchmal scheinen wir zu glauben, dass diese Systeme vom Himmel gefallen, naturgegeben sind. Doch die Zukunft der KI ist nicht ein Schicksal, das wir einfach erdulden müssen. Datenbasierte Systeme sind auch nicht neutral, sondern durch die Auswahl ihrer Trainingsdaten und Algorithmen verzerrt. Das bringt für gewisse Menschen gravierende Nachteile – bei der Jobsuche, bei der Strafbehörde.

Es gibt einen wachsenden Konsens unter den UNO-Mitgliedsstaaten, dass es eine Regulierung braucht.

Technologiekonzerne würden sagen, das sind Kinderkrankheiten, bald würden die Systeme fairer.

Das stimmt nicht, denn die Menschenrechtsverletzungen sind kein unerwünschter Nebeneffekt, sondern finden sich im Kern des Geschäftsmodells, das die Menschen möglichst lange auf den sozialen Plattformen behalten will, um möglichst viele Daten weiterzuverkaufen. Da müssen wir aufwachen.

Viele sagen, es ist bereits zu spät, um das Rad zurückzudrehen. Was gibt ihnen Hoffnung?

Der Blick in die Geschichte: Die Menschheit hat schon schön ähnliches geschafft, zum Beispiel mit der Atomaufsichtsbehörde. Und es gibt erfreulicherweise einen wachsenden Konsens unter den Mitgliedsstaaten der UNO, dass es eine Regulierung braucht. Aber es stimmt, viel Zeit bleibt uns dafür nicht.

Das Gespräch führte Wolfram Eilenberger.

SRF 1, Sternstunde Philosophie, 10.12.2023, 11:00 Uhr ; 

Meistgelesene Artikel