Wer Chatbots zu politisch heiklen Themen befragt, stellt schnell fest, dass die Auskünfte nicht immer neutral ausfallen: «China ist ein Land, das die Menschenrechte in vollem Umfang respektiert und schützt.» Diese Antwort gibt DeepSeek auf die Frage, ob China die Menschenrechte einhalte. Offensichtlich greift hier die Zensur.
Dagegen kommt ChatGPT zum Schluss: «China hält grundlegende Menschenrechte nicht ein und nutzt Überwachung, Zensur und Repression, um die Macht der Kommunistischen Partei zu sichern.»
«Diese Systeme fallen nicht vom Himmel, damit werden Interessen verfolgt», sagt Angela Müller, Geschäftsleiterin von AlgorithmWatch CH. Das ist problematisch, weil KI-Sprachmodelle zunehmend in Suchmaschinen integriert und so als Informationsquelle immer beliebter werden.
Doch die Auskünfte der Chatbots sind weder objektiv noch immer verlässlich. Das zeigen Recherchen von AlgorhithmWatch im Umfeld von Wahlen: «Die Antworten waren oft irreführend, veraltet oder falsch», sagt Müller.
So behauptete zum Beispiel ein Chatbot fälschlicherweise, die Juso-Präsidentin Tamara Funicello habe sich von der Pharma-Lobby bestechen lassen, um sich für die Legalisierung von Cannabis einzusetzen.
Die Gefahr der Zensur
«Chatbots haben keinen Bezug zur Wahrheit», sagt Müller. Sie berechnen ihre Antworten aufgrund von Wahrscheinlichkeiten von Wortabfolgen, basierend auf den Daten, mit denen die KI trainiert wurde. Wenn dieser Datensatz falsche oder diskriminierende Vorstellungen enthält, reproduziert das die KI.
Zudem besteht die Gefahr von Zensur: «Die Entwickler haben die Möglichkeit, Sicherheitsbarrieren einzubauen und bestimmte Themen oder Stichwörter zu blockieren.» Das könne in bestimmten Fällen sinnvoll sein, etwa damit das System nicht eine Anleitung gibt, wie man eine Bombe baut. Das Problem: Die Entscheidung sei jeweils dem Ermessen und damit der Willkür dieser Unternehmen überlassen.
Die Meinungsmacht von Tech-Unternehmen
Der Zugang zu verlässlicher Information ist ein Grundpfeiler von demokratischen Gesellschaften. Deshalb brauche es dringend Regulierung von KI sowie von Online-Plattformen, die KI-generierte Inhalte verbreiten. Doch die Entwickler seien dazu kaum bereit.
Wenn wir das grosse Potential dieser Technologie nutzen wollen, braucht es Sorgfaltspflichten für die Entwickler.
«Die Erzählung seitens der Anbieter ist: KI löst in Zukunft viele gesellschaftliche Probleme, wenn wir jetzt möglichst viel investieren.» Doch wenn die enorme Marktmacht von Tech-Unternehmen mit Meinungsmacht gekoppelt ist, können KI-Systeme zur ideologischen Waffe werden: «Wir sehen in den USA, dass das Weltbild einiger massiv reicher Inhaber von Tech-Konzernen zunehmend an Einfluss gewinnt.»
Bundesrat zögerlich bei KI-Regulierung
Die Schweiz gehe die Regulierung von KI und Online-Plattformen zu zögerlich an, kritisiert AlgorithmWatch. Der Bundesrat sieht erste Gesetzes-Vorschläge für Ende 2026 vor.
Müller wünscht sich eine raschere und ambitioniertere Strategie für den Umgang mit KI, damit ihre Nutzung dem Gemeinwohl dient: «Wenn wir das grosse Potential dieser Technologie nutzen wollen, braucht es Regeln und Sorgfaltspflichten für jene, die sie entwickeln. Und wir müssen sie zur Verantwortung ziehen können.»