Damit Künstliche-Intelligenz-Chatbots wie ChatGPT unsere Fragen beantworten und uns bei Problemen helfen können, müssen sie mit sehr vielen Daten trainiert werden. Zu den wichtigsten Trainingsdaten gehören dabei Texte der Online-Enzyklopädie Wikipedia.
Doch während KI von der Wikipedia profitiert, sieht es umgekehrt nicht so klar aus: KI könnte Leuten, die an der Wikipedia mitarbeiten – den sogenannten Wikipedianerinnen und Wikipedianern – zwar helfen, mehr Inhalte für die Enzyklopädie zu erstellen. Doch um den Preis, dass diese Inhalte fehlerhaft sind und die Wikipedia unzuverlässiger machen.
Die Zahl der Nutzerinnen und Nutzer ist bei der Wikipedia wegen der künstlichen Intelligenz schon zurückgegangen.
Und noch schlimmer: KI könnte die Wikipedia gleich ganz verschwinden lassen. Denn: Wenn die KI auf alles eine Antwort weiss und diese Antwort erst noch in leicht verdauliche Häppchen fasst – weshalb sollte man sich da noch durch einen langen Wiki-Artikel lesen?
«Die Zahl der Nutzerinnen und Nutzer ist hauptsächlich unter jungen Leuten wegen der künstlichen Intelligenz schon zurückgegangen», stellt denn auch Jenny Ebermann fest, die Chefin von Wikimedia Schweiz – dem hiesigen Ableger der gemeinnützigen Organisation hinter der Wikipedia.
Am Ende immer der Mensch
Der erste Wikipedia-Eintrag zum Thema künstliche Intelligenz wurde im Jahr 2002 erfasst – nur ein Jahr nach dem Start der Online-Enzyklopädie. Genauso lang setzt die Wikipedia auch schon auf die Hilfe von künstlicher Intelligenz. Etwa auf KI-Werkzeuge, die Texte übersetzen oder in Zusammenarbeit mit Menschen Inhalte prüfen.
Aktuelle Projekte führen das weiter: Derzeit wird zum Beispiel eine KI getestet, die helfen soll, Quellen in Wikipedia-Artikeln zu überprüfen und allenfalls durch bessere zu ersetzen. Dabei gilt, dass am Ende immer ein Mensch das Ergebnis überprüfen muss.
Eindimensionale KI-Texte
Künstliche Intelligenz könne den Menschen bei der Wikipedia nie ersetzen, sagt Ilario Valdelli, der sich als «Innovation Programme Lead» bei Wikimedia Schweiz mit neuen Technologien wie KI beschäftigt: «Bei der Wikipedia ist eine kollaborative Intelligenz am Werk, dank der die unterschiedlichen Perspektiven verschiedener Autorinnen und Autoren in einen Artikel einfliessen können.»
Die Antworten eines KI-Chatbots dagegen seien eindimensional, ihnen würde diese Vielfalt fehlen, meint Valdelli. Trotzdem benötigen viele Wikipedianer und Wikipedianerinnen heute solche Chatbots – um ihre Texte zu überarbeiten oder zu ergänzen. Für Ilario Valdelli ist das kein Problem – solange der Einsatz von KI im Artikel entsprechend deklariert werde.
Hunderttausende Freiwillige
In der Vergangenheit hätten sich aber nicht immer alle an diese Spielregeln gehalten, etwa wenn heimlich KI zum Übersetzen von Texten gebraucht worden sei, weiss Valdelli. Ein Tool, um KI-Texte automatisch und zuverlässig zu erkennen, hat die Wikipedia nicht. Genauso wenig wie andere Unternehmen und Organisationen ein solches Tool haben.
Die Wikipedia setzt darum auf den Mechanismus, der seit über 20 Jahren dabei hilft, die Online-Enzyklopädie möglichst frei von Fake News und Werbung zu halten: Die freiwillige Hilfe von hunderttausenden Wikipedianerinnen und Wikipedianern, die alle Wiki-Einträge kritisch prüfen. Die kollektive Intelligenz also, die Ilario Valdelli so am Herzen liegt.