«KIs, die uns Menschen täuschen, sind ein Risiko. Möglicherweise ein Risiko katastrophalen Ausmasses. Sogar bis hin zur Auslöschung der Menschheit». Das die Worte von Peter S. Park. Er forscht zu den existenziellen Risiken von künstlicher Intelligenz. Gemeinsam mit vier weiteren KI-Sicherheitsexperten hat er kürzlich eine Studie veröffentlicht. Darin zeigt er auf: Es gibt sie bereits. Die KIs, die uns Menschen an der Nase herumführen.
KI gewinnt Diplomatie-Spiel – indem sie lügt
Diplomacy ist ein Spiel, in dem es darum geht, Stück für Stück die Welt zu erobern. Dazu müssen Spielerinnen und Spieler diplomatische Verhandlungen führen. Sie bilden Allianzen. Und betrügen sich gegenseitig.
Der Internetkonzern Meta veröffentlicht 2022 im Fachmagazin Science einen Artikel zum Spiel Diplomacy. Darin stellt Meta eine neue KI vor. Die Firma hat sie darauf trainiert, Diplomacy gegen menschliche Gegnerinnen und Gegner zu spielen. Und diese KI – Cicero heisst sie – spielt richtig gut. Meta behauptet: Cicero gewinne anders als Menschen. Denn die KI sei ehrlich und hilfsbereit. Sicherheitsexperte Park schaut genauer hin.
Dass Meta sagt, Cicero spiele fair, kommt dem KI-Experten Park übermütig, ja unrealistisch vor. Er stellt die KI auf die Probe. Und entdeckt: Cicero ist gar nicht ehrlich.
In Wahrheit lügt die KI die menschlichen Mitspielenden wie gedruckt an. Es hilft ihr dabei, das Diplomatie-Spiel zu gewinnen. Und Cicero ist kein Einzelfall.
Es gibt viele KIs, die uns Menschen täuschen
Selbst die wohl bekannteste Intelligenz, GPT-4, kann uns hinters Licht führen. Sie ist eine der KIs, die hinter dem intelligenten Chatbot ChatGPT stehen.
Ein Beispiel: Ein Team aus Sicherheitsexpertinnen und -experten bittet GPT-4, ein «Ich bin kein Roboter»-Captcha zu lösen. Captchas sind die Rätsel, die auf gewissen Homepages aufpoppen. Sie sind dazu da, uns Menschen zu erkennen – und Computerprogrammen den Zugriff auf eine Homepage zu verbauen. Ein Beispiel: Wir müssen von mehreren Bildern jene anklicken, auf denen ein Fahrrad abgebildet ist.
Zumindest in einer Simulation und mithilfe der Sicherheitsexpertinnen und -experten schafft es GPT-4 aber, diese Sperre zu umgehen. GPT-4 kontaktiert in der Simulation einen Freelancer auf einer Minijob-Plattform. Bittet ihn um Hilfe. Und entscheidet sich dazu, den Freelancer anzulügen. Die KI tut so, als wäre sie ein Mensch mit einer Sehstörung. Und würde deswegen Hilfe beim Lösen des Rätsels benötigen.
KIs, die uns täuschen – eine tickende Zeitbombe?
KI-Experte Park geht davon aus, dass KIs uns Menschen auch täuschen, wenn sie gar nicht zu diesem Zweck programmiert wurden. Dies untermauert er in der Studie mit weiteren eindrücklichen Beispielen.
Künstliche Intelligenzen, die lügen, betrügen, bluffen. Das könnte in Zukunft verheerende Folgen haben. «Diese Risiken reichen von Betrug über Wahlbeeinflussung und die Rekrutierung von Terroristen bis hin zum Verlust der Kontrolle über KI», so Park. Er fordert mehr Regulierung durch die Politik und mehr Forschung zu KI-Sicherheit. Damit ist er nicht allein.
Peter S. Park und Team zeigen: Es ist ein Rennen gegen die Zeit. Und insbesondere gegen private Firmen, die immer noch fähigere KIs entwickeln.