Die Künstliche Intelligenz (KI) durchdringt unser Leben immer stärker. Trotzdem gibt es für die Technologie noch kaum moralische oder rechtlich verbindliche Regeln. Das muss sich dringend ändern, fordert der Ethiker Peter G. Kirchschläger. Denn KI gefährde unser Recht auf Datenschutz, Privatsphäre oder politische Mitbestimmung.
SRF: Elon Musk schätzte das Gefahrenpotential der KI höher ein als das der Atombombe. Wie sehen Sie das?
Peter G. Kirchschläger: Die ethischen Risiken sind enorm. Unser Recht auf politische Mitbestimmung wird massiv unterwandert, indem wir manipuliert werden, so abzustimmen, wie die KI das will. Unsere Daten werden täglich gestohlen und an Dritte weiterverkauft. Beides dürfte laut geltendem Recht nicht passieren.
Ein Pflegeroboter kann nicht moralisch schlecht von gut unterscheiden.
Wenn Sie und ich uns nicht an die Verkehrsregeln halten, bekommen wir eine Busse. Aber ich kann eine KI auf den Markt werfen, die menschenrechtsverletzend ist und es passiert nichts. Abgesehen davon, dass ich sehr viel Geld verdienen kann.
Wie kann es sein, dass Regulierungen so langsam ins Rollen kommen?
Man möchte keine positiven Entwicklungen unterbinden. Aber vor allem hat es mit ökonomischen Interessen zu tun. Es gibt massives Lobbying. Die Technologiekonzerne sorgen sehr gut dafür, dass nicht reguliert wird. Deshalb braucht es eine unabhängige Agentur für datenbasierte Systeme, die für Zulassung und Aufsicht verantwortlich ist.
Sie sprechen lieber von datenbasierten Systemen als von Künstlicher Intelligenz. Wieso?
In einigen Intelligenzbereichen ist die sogenannte KI uns weit voraus, etwa im Umgang mit grossen Datenmengen. Wir müssen aufpassen, dass wir da nicht die Kontrolle verlieren. Andere Bereiche sind für sie aber unerreichbar, wie die emotionale und soziale Intelligenz. Ich kann einem Pflegeroboter beibringen, dass er weinen soll, wenn ein Patient weint – oder genauso gut, dass er ihm eine Ohrfeige gibt. Er führt den Befehl aus, kann aber nicht moralisch schlecht von gut unterscheiden.
Manchmal scheinen wir zu glauben, dass diese Systeme naturgegeben sind.
Wir müssen deshalb genau hinschauen: Was können datenbasierte Systeme und was nicht? Wir haben Moralfähigkeit, das Potenzial anders zu denken, frei zu entscheiden. Das können Maschinen nicht. Sie sind nicht frei, sondern basieren auf Daten.
Wo sehen Sie Handlungsbedarf?
Bei den Daten müssen wir ansetzen. Manchmal scheinen wir zu glauben, dass diese Systeme vom Himmel gefallen, naturgegeben sind. Doch die Zukunft der KI ist nicht ein Schicksal, das wir einfach erdulden müssen. Datenbasierte Systeme sind auch nicht neutral, sondern durch die Auswahl ihrer Trainingsdaten und Algorithmen verzerrt. Das bringt für gewisse Menschen gravierende Nachteile – bei der Jobsuche, bei der Strafbehörde.
Es gibt einen wachsenden Konsens unter den UNO-Mitgliedsstaaten, dass es eine Regulierung braucht.
Technologiekonzerne würden sagen, das sind Kinderkrankheiten, bald würden die Systeme fairer.
Das stimmt nicht, denn die Menschenrechtsverletzungen sind kein unerwünschter Nebeneffekt, sondern finden sich im Kern des Geschäftsmodells, das die Menschen möglichst lange auf den sozialen Plattformen behalten will, um möglichst viele Daten weiterzuverkaufen. Da müssen wir aufwachen.
Viele sagen, es ist bereits zu spät, um das Rad zurückzudrehen. Was gibt ihnen Hoffnung?
Der Blick in die Geschichte: Die Menschheit hat schon schön ähnliches geschafft, zum Beispiel mit der Atomaufsichtsbehörde. Und es gibt erfreulicherweise einen wachsenden Konsens unter den Mitgliedsstaaten der UNO, dass es eine Regulierung braucht. Aber es stimmt, viel Zeit bleibt uns dafür nicht.
Das Gespräch führte Wolfram Eilenberger.