Künstliche Intelligenz sorgt seit Monaten für Aufregung. Je leistungsfähiger die Systeme werden, desto grösser die Ängste rund um ihren Einsatz: Etwa, dass die KI Arbeitsplätze gefährde oder helfe, Fake News zu verbreiten.
Es gibt aber auch eine existenzielle Sorge: Dass künstliche Intelligenz einmal so mächtig wird, dass sie die Menschheit vernichtet. So wie sich die Lage heute zeige, meint etwa der KI-Forscher Eliezer Yudkowski, sei es sehr wahrscheinlich, dass wir alle sterben werden.
Yudkowski sieht nur noch eine Chance, das zu verhindern: Die Computerchips, die zur Entwicklung künstlicher Intelligenz benötigt werden, müssten zentral erfasst und genau kontrolliert werden. Würde ein Land dieses Abkommen umgehen, müsste militärisch dagegen vorgegangen werden – selbst wenn das einen Atomkrieg bedeute.
Eine Intelligenzexplosion
Kritiker wie Eliezer Yudkowski werden auf Englisch «AI Doomer» genannt – «AI» steht für künstliche Intelligenz, «Doom» bedeutet «Untergang» oder «jüngstes Gericht».
Die Grundannahme dieser AI Doomer: Es werde einmal eine künstliche Intelligenz geben, die es mit der Intelligenz des Menschen aufnehmen kann. Also nicht nur etwas beherrscht – Bilder malen zum Beispiel oder Texte schreiben – sondern alles verstehen und lernen kann. «Künstliche allgemeine Intelligenz», heisst das in der Fachsprache.
Wir sind deine Korrespondenten aus der digitalen Welt. Ist ein Chip drin oder hängt es am Internet? Wir berichten wöchentlich. Smartphones, soziale Netzwerke, Computersicherheit oder Games – wir erklären und ordnen Digitalisierungs-Vorgänge ein, seit 2006
Um diesen Podcast zu abonnieren, benötigen Sie eine Podcast-kompatible Software oder App. Wenn Ihre App in der obigen Liste nicht aufgeführt ist, können Sie einfach die Feed-URL in Ihre Podcast-App oder Software kopieren.
Eine solche KI könnte dann schnell eine noch intelligentere Version ihrer selbst entwickeln, die dem Menschen überlegen wäre, so die Annahme. Dann eine noch intelligentere und noch eine und noch eine – bis es immer schneller geht und zu einer sogenannten «Intelligenzexplosion» kommt.
Eine Pause gefordert
Glaubt man den AI Doomern, würde eine solche Superintelligenz dem Menschen feindlich oder zumindest indifferent gegenüberstehen – sie könnte ihn aus Versehen oder mit voller Absicht vernichten. Jedenfalls wenn zuvor nicht sichergestellt wurde, dass sie stets das Wohl der Menschheit im Auge behält.
Der Philosoph Nick Bostrom – ein Vordenker der AI Doomer – fürchtet, jemand könnte so eine superintelligente KI entwickeln, ohne zuvor für die Sicherheit des Menschen gesorgt zu haben. Nicht zuletzt deshalb sind in jüngster Zeit immer wieder Forderungen laut geworden, bei der Entwicklung noch mächtigerer KI-Systeme eine Pause einzulegen.
Ablenken von drängenderen Problemen
Doch die Prämisse der AI Doomer, dass es bald eine künstliche allgemeine Intelligenz geben werde, die dem Menschen überlegen sei, ist unter Fachleuten höchst umstritten. Manche glauben, so etwas werde niemals passieren. Andere sagen, wenn doch, dann erst in hunderten von Jahren.
Ihnen gelten die Ängste der AI Doomer deshalb als unbegründet – oder als Ablenkungsmanöver. Denn hinter spektakulären Szenarien wie dem, dass böse Maschinen eines Tages den Menschen vernichten könnten, würden die wirklichen Probleme von heute vergessen gehen: Etwa, dass KI bestimmte Bevölkerungsgruppen systematisch diskriminieren könne, wenn diese in den Trainingsdaten falsch repräsentiert wurden.
ChatGPT weiss Rat
So spekulativ sie auch sein mögen, ganz von der Hand weisen lassen sich die Ängste der AI Doomer nicht. Darum stimmt es wohl, was der KI-Chatbot ChatGPT selbst zur Antwort gibt, wenn man ihn fragt, wie man in dieser Sache vorgehen soll:
Ein ausgewogener Ansatz könnte sein, sowohl langfristige Risiken im Blick zu behalten als auch sich aktiv mit den aktuellen Problemen von künstlicher Intelligenz auseinanderzusetzen.
Keine superintelligente Antwort zwar, aber immerhin eine, die auch der Mensch noch in der Lage ist, zu verstehen.