Zum Inhalt springen

Digital «Können Maschinen denken?» - Der Turing-Test

Alan Turing, der am Samstag 100 Jahre alt geworden wäre, hat nicht nur ermöglicht, dass Computer erfunden wurden. Sondern er hat auch gleich gefragt: Können diese Maschinen denken? Um dies festzustellen, schlug er 1950 ein Spiel vor, das als Turing-Test bekannt wurde.

In dem Aufsatz «Computing machinery and intelligence» schlug Alan Turing ein «Imitation Game» vor: Eine Person befragt über ein Text-Chat-System (also nicht von Angesicht zu Angesicht) eine Maschine oder einen Menschen. Sie weiss nicht, wer da antwortet. Wenn es der Maschine gelingt, der fragenden Person den Eindruck zu vermitteln, dass ihr da ein Mensch antworte, dann hat die Maschine den Turing-Test bestanden.

Diese pragmatische Lösung umschifft elegant die Problematik, zunächst definieren zu müssen, was denn «Denken» genau bedeutet oder wann eine Maschine Bewusstsein erlangt. Stattdessen genügt es, wenn eine Maschine intelligent wirken kann. Gewissermassen eine Anwendung des Ententests: Wenn etwas spricht, als wäre es intelligent, dann ist es wohl intelligent. Dieser Gedanke von Alan Turing hat sich bis heute in der Forschung zu künstlicher Intelligenz erhalten.

Von ELIZA zu Cleverbot

Als Alan Turing seine Gedanken zu maschineller Intelligenz veröffentlichte, gab es weder Computer noch Programme, die sein Gedankenexperiment in die Realität umsetzen konnten. Doch schon Mitte 60er-Jahre war es soweit: Das Computer-Programm ELIZA konnte einen Psychotherapeuten mimen.

Das Programm bezog sich auf eine wenig umfangreiche Liste von Floskeln und Jargon und versuchte, daraus passende Antworten zu formulieren. Heutige Chat-Bots, die per Internet oder z.B. auch über Twitter befragt werden können, haben weit umfangreichere Datenbanken und bessere Algorithmen zur Verfügung. Das Programm Cleverbot z.B. merkt sich, was Menschen sagen, die sich mit dem Programm unterhalten, und versucht so, natürlicher formulieren zu lernen.

Glaubt ein Bot an Gott?

Ein schönes Experiment ist das untenstehende Video: Zwei Studenten der Cornell University liessen einen Cleverbot mit einem anderen sprechen. Sie fütterten die Text-Fragen und Antworten in ein Sprach-Synthese-Programm (Acapella) und diesen Ton dann in eine Software, die Figuren animiert. So entstand ein Video, in dem sich die Bots sofort gegenseitig beschuldigen, Roboter zu sein. Worauf sich der eine in die Behauptung versteigt, ein Einhorn zu sein, und sie sich Glaubensfragen stellen. Der Technik-Autor Kevin Kelly bemerkt dazu: «Our bots ask theological questions because we do. So far, our bots are made in the image of their creators.»

Meistgelesene Artikel