Die Meldung ging um die Welt: Der Google-Ingenieur Blake Lemoine war überzeugt, das Chat-Programm LaMDA habe ein Bewusstsein erlangt. Das mit einem Datensatz von mehr als 1.5 Billionen Worten trainierte neuronale Sprachmodell sei laut Lemoine etwa auf dem Stand eines 7- bis 8-jährigen Kindes.
Das rief Expertinnen und Experten auf dem Gebiet der künstlichen Intelligenz auf den Plan. Sie widersprachen Lemoine: LaMDA habe dank der immensen Zahl von Trainingsdaten nur perfekt zu imitieren gelernt, wie Menschen miteinander reden. Ein tatsächliches Verständnis der Welt habe das Programm dabei aber nicht entwickelt.
Mit Daten die Welt erklären?
«Die Annahme, dass es nur genug Daten braucht, um einer Maschine die Welt zu erklären, ist falsch», sagt Benjamin Grewe, Professor für Neuroinformatik an der ETH Zürich. Der Mensch müsse dazu ja schliesslich auch nicht mit Billionen von Worten gefüttert werden.
«Ich zum Beispiel habe nie das gesamte Internet gelesen», so der Experte. «Trotzdem habe ich ein besseres Verständnis davon, wie sich Hund und Katze zueinander verhalten, als dieses System, das nur mit Texten trainiert wurde und nie wirklich mit einem Hund oder einer Katze interagiert hat.»
Rechte und Pflichten für Maschinen?
Aber ist es so unwahrscheinlich, dass eine Maschine einmal so etwas wie ein Bewusstsein entwickeln wird? Diese Möglichkeit wollen die wenigsten Expertinnen und Experten auf dem Gebiet der künstlichen Intelligenz ganz ausschliessen.
Das gilt auch für den Philosophen Sven Nyholm, der sich an der Universität von Utrecht mit solchen Fragen beschäftigt. In der Zukunft werde es sicher eine Art von künstlichem Bewusstsein geben, so Nyholm. «Aber ich bin skeptisch, ob es sich mit dem des Menschen vergleichen lassen wird.»
Man sollte technische Systeme nicht wie Personen behandeln.
Bei einem selbstfahrenden Auto zum Beispiel könnte man schon heute sagen, dass es ein Bewusstsein für seine Umwelt besitze: So weiss es, dass am Strassenrand ein Stopp-Schild steht und daneben ein Mensch. Allerdings kann sich in diesen Menschen nicht hineinversetzen. Es hat keine Empathie und keine Gefühle.
Das Bewusstsein, das Maschinen heute schon haben können, lässt sich mit dem des Menschen also nicht vergleichen. Man sollte technische Systeme deshalb auch nicht wie Personen behandeln, sagt Leonie Seng, die zu Maschinen-Ethik und der Ethik von künstlicher Intelligenz forscht: «Es gibt es derzeit einfach keinen Anlass, technischen Systemen so einen Status zuzuschreiben – man würde sich damit nur Probleme einhandeln.»
Vergleiche sind unangebracht
Google-Ingenieur Blake Lemoine aber tat genau das: Er wollte das Sprachmodell LaMDA von einem Anwalt vertreten lassen, eben weil er das System wie einen Menschen behandelte. Für Seng liegt darin das eigentliche Problem bei dieser Geschichte: «Ganz unabhängig davon, ob eine KI tatsächlich ein Bewusstsein hat oder nicht, ist die Zuschreibung des Personenstatus problematisch. Denn daraus ergeben sich zwangsläufig auch rechtliche und ethische Konsequenzen.»
Der Technologie-Podcast von SRF über Internet, Smartphones, soziale Netzwerke, Computersicherheit und Games.
Um diesen Podcast zu abonnieren, benötigen Sie eine Podcast-kompatible Software oder App. Wenn Ihre App in der obigen Liste nicht aufgeführt ist, können Sie einfach die Feed-URL in Ihre Podcast-App oder Software kopieren.
Die Frage, welche Rechte und Pflichten eine Maschine mit menschenähnlichem Bewusstsein haben müsste, sei zwar sehr interessant. Doch anders als etwa Lemoine meine, müsse man sich heute darüber noch keine Gedanken machen, findet die Expertin: «Künstliche Intelligenzen werden zwar tatsächlich immer besser. Das heisst aber nicht, dass man deshalb ständig den Vergleich zwischen Mensch und Technik anstellen muss.»