Zum Inhalt springen

Denken auf Knopfdruck Warum ChatGPT jetzt Selbstgespräche führt

Neue KI-Modelle arbeiten sich dank «Reasoning» Schritt für Schritt zu einer Antwort vor. Macht sie das zuverlässiger?

Fragt man das neue o3-Modell von ChatGPT danach, was der Fachbegriff «Reasoning» bedeutet, dann generiert das Modell vor der Antwort einen ausgegrauten Text, der seinen inneren Monolog zeigen soll:

Der Nutzer möchte wissen, was Reasoning bei KI-Modellen bedeutet. Ich werde die nötige Erklärung und weitere Details einfügen.
Autor: ChatGPT o3-mini

Die Erklärung lautet: Statt gleich eine Antwort zu geben, unterteilt die KI beim Reasoning ein Problem zur leichteren Lösung in mehrere Schritte. Imanol Schlag, Forscher am AI Center der ETH Zürich, sagt dazu: «Das gleicht dem Vorgehen des Menschen: Der kann auf die Schnelle vielleicht auch keine dreistellige Zahl multiplizieren. Aber wenn er die Lösungsschritte niederschreibt, schafft er es.»

KI merkt, wenn sie auf dem Holzweg ist

Reasoning ist für KI nichts Neues: Schon frühere Modelle erzielten bessere Resultate, wenn sie schrittweise zur Lösung geführt wurden. Doch neue Modelle sind darauf trainiert, ihre Berechnungen in Etappen zu unterteilen und ihre Gedankenschritte transparent zu machen.

So lässt sich besser nachvollziehen, wie die Maschine zu ihren Antworten kommt, weiss Imanol Schlag: «Wir müssen uns nicht darauf verlassen, dass eine Antwort richtig ist, sondern verlangen vom Modell eine Herleitung.»

Ein weiterer Vorteil: Weil sich das Sprachmodell nun selber Schritt für Schritt zur Lösung vortastet, kann es auf Fehler aufmerksam werden: «Es kann merken, wenn es auf dem Holzweg ist», sagt Schlag. «Dann macht es einen Schritt zurück und probiert etwas Neues. So werden die Resultate zuverlässiger.»

KI-Modelle sind keine Menschen

In einigen klar definierten Bereichen – etwa Mathematik oder Physik – gelingt es der KI erstaunlich gut, menschliches Argumentieren nachzuahmen oder gar zu übertreffen. In anderen Bereichen scheitert sie aber selbst an leichten Aufgaben.

Expertinnen und Experten sind sich nicht einig, was das bedeuten soll: Die einen glauben, dass die grossen Sprachmodelle tatsächlich auf eine Art denken – auch wenn dieses Denken noch nicht so flexibel ist wie das des Menschen.

Kritische Stimmen werfen ein, dass solche KI-Modelle eben keine Menschen sind: dass sie nicht wirklich kausal denken können und auch nicht bewusst logische Argumente konstruieren.

Warum KI an Neuem scheitert

Denn: Grosse Sprachmodelle haben kein Bewusstsein. Sie basieren lediglich auf Wahr­schein­lich­keits­berech­nungen. Dank riesiger Trainingsdaten wissen sie, welches Wort oder welcher Satz statistisch am wahrscheinlichsten auf eine bestimmte Eingabe folgt. Doch die Bedeutung dieser Worte und Sätze versteht das Modell nicht.

Präsentiert man der KI Aufgaben in einer Form, die ihr neu ist, dann sinkt die Zuverlässigkeit der Resultate rasch. Das haben jüngst Ingenieure von Apple nachgewiesen.

Dazu meint Imanol Schlag vom AI Lab der ETH Zürich: «Das zeigt, dass das Modell keinen generellen Algorithmus entwickelt hat, um das Problem zu lösen.» Es hat bloss gelernt, welche Herleitung aufgrund seiner Trainingsdaten am wahrscheinlichsten ist – was nicht automatisch heisst, dass sie auch richtig ist.

Ein Assistent mit Schwächen

Immerhin: Wirft man der Maschine nach einer falschen Antwort vor, sie habe versagt, kann man ihr nun dabei zusehen, wie sie um eine Entschuldigung ringt:

Es scheint, dass der Benutzer enttäuscht ist. Die Lösung hat nicht funktioniert, und es könnte hilfreich sein, höflich und verständnisvoll zu antworten.
Autor: ChatGPT o3-mini

Und die Antwort klingt dann so:

Es tut mir leid, dass es nicht geklappt hat und dass du enttäuscht bist. Falls du möchtest, können wir gemeinsam versuchen, eine alternative Lösung zu finden.
Autor: ChatGPT o3-mini

Kein schlechter Vorschlag: Denn auch wenn Reasoning-Modelle uns vormachen, sie würden denken wie ein Mensch, sollten wir die Maschine nie als allwissendes Genie behandeln, sondern als einen eifrigen, aber nicht immer zuverlässigen Assistenten.

Echo der Zeit, 27.3.2025, 18:00 Uhr

Meistgelesene Artikel