Es kommt selten vor, dass ein Unternehmen eine neue Technologie entwickelt und sie dann nicht veröffentlichen will. Bei GPT-2 war das der Fall: Die künstliche Intelligenz hat gelernt, selber Texte zu schreiben. Der Mensch gibt ihr einen Satz vor und die Maschine schreibt munter weiter – mitunter so gut, dass sich der Text nicht von dem eines Menschen unterscheiden lässt.
«Zu gefährlich!», sagten die Macher von OpenAI im Februar letzten Jahres und beschlossen, die Technologie unter Verschluss zu halten. Die Gefahr für Missbrauch sei zu gross. GPT-2 könnte zum Beispiel dafür verwendet werden, das Internet mit computergenerierter Propaganda zu fluten, Leute online zu belästigen oder unerwünschte Werbung zu verschicken.
Allerdings: Etwas später machte OpenAI die Software doch zugänglich und beobachtete, wie sie verwendet wurde. Hinweise auf Missbrauch habe man keine gefunden, sagen die Macher heute. Nicht wenige Forscher im Feld der künstlichen Intelligenz sehen hinter dem ursprünglichen Entscheid, GPT-2 zurückzuhalten, deshalb bloss einen PR-Schachzug, mit dem die Effektivität des eigenen Produktes raffiniert übertrieben wurde.
Nun hat OpenAI einen Nachfolger veröffentlich: GPT-3. Im Vergleich zum Vorgänger soll die neue Version noch mehr können. Trainiert wurde sie mit einem riesigen Datensatz von fast einer Trillion Wörtern – Texten aus dem Internet, Wikipedia-Artikeln oder digitalisierten Büchern.
So hat GTP-3 gelernt, wie menschliche Sprache funktioniert, welche Wendung mit der grössten Wahrscheinlichkeit auf die vorige folgt. Das Verständnis bleibt aber rein statistisch. Wirklich begreifen, was sie gerade schreibt, kann die Maschine nicht.
Wer die Schnittstelle zu GTP-3 brauchen will, muss sich bei OpenAI anmelden (und nach einer Testphase dafür zahlen). So lasse sich sicherstellen, dass die Technologie nicht missbraucht werde. Im Notfall könne der Zugang einfach gesperrt werden. Ausserdem sagt OpenAI, man habe eine Software entwickelt, die mit 95-prozentiger Sicherheit feststellen könne, ob ein Text von GPT-3 stamme oder von einem Menschen.
Den Texten der Maschine fehlt es an innerer Logik
Für eine Technologie wie GPT-3 sind die unterschiedlichsten Einsatzmöglichkeiten denkbar. Ein Unternehmen konnte sie zum Beispiel mit den Beschreibungen all seiner Produkte und all seiner Dienstleistungen füttern und obendrein noch mit allen bisherigen Kundenfragen. So liesse sich ein Chatbot trainieren, der sich vollautomatisch um Kundenanliegen kümmert.
Doch wer im Internet ein wenig mit GPT-2 herumspielt (z.B. hier) merkt rasch, dass das Potenzial der Technologie noch beschränkt ist – jedenfalls, wenn es um längere Texte geht. Die ersten ein, zwei Sätze können denen eines Menschen zwar verblüffend ähnlich sein. Doch danach beginnt die Maschine abzudriften. Ihren Texten fehlt es an Konsistenz und auch an innerer Logik.
Wer etwa einen Text wie diesen vorgibt: «Ich habe fünf Äpfel. Ich esse zwei davon und gebe meinem Freund einen weiteren. Wie viele Äpfel habe ich noch?» erhält folgende Antwort: «Je nachdem, was Sie über den Zweck des Gesetzes denken, könnte eine Person ihr gesamtes Apfelinventar verschenken, oder einen pro Person, aber die Frage, warum jeder einzelne im Haus bleiben durfte, ist bedeutungslos.»
Angesichts dieser Antwort scheinen auch die Ängste bedeutungslos, die Technologie könnte bald schon für böse Zwecke missbraucht werden.
Wir sind deine Korrespondenten aus der digitalen Welt. Ist ein Chip drin oder hängt es am Internet? Wir berichten wöchentlich. Smartphones, soziale Netzwerke, Computersicherheit oder Games – wir erklären und ordnen Digitalisierungs-Vorgänge ein, seit 2006
Um diesen Podcast zu abonnieren, benötigen Sie eine Podcast-kompatible Software oder App. Wenn Ihre App in der obigen Liste nicht aufgeführt ist, können Sie einfach die Feed-URL in Ihre Podcast-App oder Software kopieren.