Wer den Bot Chat GPT ausprobieren möchte, braucht Geduld. Das Online-Sprachmodell wird derzeit von so vielen Anfragen überschüttet, dass man oft in der Warteschlaufe landet.
Kein Wunder, denn der Bot weiss selbst auf schwierige Fragen eine Antwort. Diesen merkt man oft nicht an, dass sie nicht von einem Menschen, sondern einer Maschine geschrieben worden sind.
Der Literaturwissenschaftler Hannes Bajohr beschäftigt sich seit Langem mit KI-Texten. Er ordnet ein, was der neue Bot wirklich kann und wo er an seine Grenzen stösst.
Läutet Chat GPT eine technische Revolution ein? Auch wenn Chat GPT beeindruckend wirke, sei er nichts Neues, erklärt Bajohr. Das KI-Sprachmodell funktioniere an sich gleich wie seine Vorgänger: «Der einzige Unterschied besteht darin, dass viel mehr Daten benutzt wurden, um das Modell zu trainieren.»
Die Euphorie bei solchen Bots sei am Anfang immer gross und lasse dann schnell nach, so der Experte.
Wie intelligent sind solche Sprachmodelle tatsächlich? Als Laie erkennt man kaum noch, ob der generierte Text von einem Mensch oder einem Bot stammt. Chat GPT selbst gibt an, er verstehe, was geschrieben werde.
Der Chatbot gibt Auskunft darüber, was Liebe ist und auf die Frage «Erleben wir eine Art Zauberlehrling-Moment?» erwidert er, dass es momentan nicht sehr wahrscheinlich sei, dass die Künstliche Intelligenz ausser Kontrolle gerate. Er empfiehlt, sie verantwortungsvoll einzusetzen.
«Aber irgendwann hängt sich das Modell auf oder verwickelt sich in Widersprüche», bremst Experte Bajohr. Man sehe vor allem Oberflächen. «Das Modell hat gelernt, wie sich Text anhört. Es kann einen Text produzieren, der sich genauso anhört wie das Original – ohne zu wissen, was dahintersteht.»
Dass Chat GPT eine Antwort auf die Frage nach Rolle der KI wisse, liege daran, dass er viele Texte zu diesem Thema gelesen habe. Der Bot ist also eine Imitationsmaschine, die nicht schlauer ist als das Datenfutter, das sie erhält. Ein Problem, das in der nächsten Zukunft kaum gelöst werden dürfte.
Das Modell denkt sich teilweise einfach Dinge aus.
Wie können uns diese KI-Modelle im Alltag helfen? Der Literaturwissenschaftler sieht die Sprachmodelle vor allem als Assistenten. Sie könnten kurze Meldungen oder einfache Berichte schreiben.
Für die Faktenprüfung sollte man sie hingegen nicht einsetzen: «Das ist die grosse Schwachstelle. Das Modell denkt sich teilweise Dinge einfach aus, weil es auf Wahrscheinlichkeit basiert.» Der Experte sieht darin eine grosse Gefahr.
Was bedeuten solche Bots für die Jobs von Textern und Journalistinnen? In Zukunft werden wir vermehrt auf die Assistenzfunktionen dieser Sprachmodelle zurückgreifen, ist sich Bajohr sicher. Er sieht allerdings keine Gefahr, dass solche KI-Modelle bald den Menschen ersetzen.
Das grössere Risiko sieht er im blinden Vertrauen in die KI: «Die Gefahr ist, dass wir dem Modell zu schnell Glauben schenken, weil es so plausibel klingt. Sodass wir nicht mehr kritisch nachfragen, ob auch wirklich stimmt, was im Text steht.»