Zum Inhalt springen
Audio
Chatbots senken Glauben an Verschwörungstheorien
Aus Wissenschaftsmagazin vom 14.09.2024. Bild: Keystone/AP Photo/James W. Ike Altgens
abspielen. Laufzeit 2 Minuten 1 Sekunde.

KI gegen Falschinformationen Wie Chatbots Verschwörungstheorien entkräften

Ob es ums Attentat auf John F. Kennedy, die Covid-19-Pandemie oder die US-Präsidentschaftswahlen 2020 geht: KI-Chatbots sind in der Lage, Menschen von ihren festgefahrenen Überzeugungen abzubringen. Das zeigt eine aktuelle Studie aus den USA.

Wer schon einmal versucht hat, Verschwörungstheoretiker von ihrer Überzeugung abzubringen, weiss: Das ist schwierig. Da helfen auch wissenschaftlich anerkannte Fakten nicht. Denn für Informationen, die ihre Überzeugungen infrage stellen, sind Verschwörungstheoretiker und -theoretikerinnen meist nicht empfänglich.

Backfire-Effekt: Wenn Fakten das Gegenteil bewirken

Box aufklappen Box zuklappen

Ein heikler Punkt bei Widerlegungsversuchen: Wer Fakten vorgelegt bekommt, korrigiert danach nicht unbedingt seine Verschwörungstheorie. Mit anderen Worten: Wird eine Person mit wissenschaftlichen Beweisen konfrontiert, kann es sein, dass sie anschliessend noch stärker an die Falschinformationen glaubt.

Die Person reflektiert ihre Überzeugungen bewusst und denkt über Gegenargumente nach. Dabei kommt sie zum Schluss, dass ihre eigenen Argumente noch plausibler scheinen und die Verschwörungstheorie wird weiter verfestigt.

Allerdings wird in der Forschung intensiv diskutiert, ob dieser Backfire-Effekt überhaupt auftritt und, falls ja, wie stark er ist.

Einem KI-Chatbot ist es jedoch gelungen, Menschen dazu zu bringen, weniger an einen Verschwörungsmythos zu glauben. Das zeigt eine aktuelle Studie, die in der Fachzeitschrift Science veröffentlicht wurde.

Mehr zur Studie

Box aufklappen Box zuklappen

Zuerst erzählten die über 2000 Studienteilnehmenden dem ChatGPT-4 Turbo eine Verschwörungstheorie, an die sie glauben. Beispielsweise ging es um das Attentat auf John F. Kennedy, die Mondlandung, Ausserirdische oder auch um aktuellere Ereignisse wie die Covid-19-Pandemie oder die US-Präsidentschaftswahlen 2020.

Die Teilnehmenden stellten Argumente vor, die ihrer Meinung nach die Theorie stützen. Anschliessend diskutierten sie ihre Ansichten mit dem Chatbot, der auf persönliche Fragen einging und Gegenbeweise lieferte. Drei solcher schriftlichen Gespräche fanden statt, die im Schnitt 8.4 Minuten dauerten.

Zu Beginn und am Ende des Dialogs gaben die Probandinnen und Probanden auf einer Skala an, wie stark sie an die jeweilige Verschwörungstheorie glauben. Die Ergebnisse zeigen, dass der KI-Chatbot überzeugend war. Im Vergleich zur Kontrollgruppe ging die Zustimmung der Teilnehmenden aus der KI-Gruppe im Durchschnitt um etwa 20 Prozent zurück. Die Kontrollgruppe hat mit dem Chatbot über ein verschwörungsfernes Thema diskutiert, zum Beispiel, ob sie Hunde oder Katzen bevorzugen.

Allen, die KI-Systeme wie ChatGPT verwenden, ist klar: KI neigt manchmal dazu, Informationen falsch wiederzugeben oder komplett zu erfinden, wodurch sie zu einem Werkzeug der Desinformation werden kann. Ein wichtiger Aspekt der Studie ist deshalb, dass dieser KI-Chatbot gut trainiert wurde. Experten überprüften die Antworten der KI und bewerteten eine Stichprobe von 128 Aussagen. Keine davon wurde als falsch eingeschätzt, lediglich 0.08 Prozent galten als irreführend.

Eingefleischte Verschwörungsgläubige sind oft sehr gut über ihre Theorien informiert. Das macht es für Nichtgläubige schwierig, genügend Fakten gleichzeitig parat zu haben, um dagegenzuhalten.

«Hier haben KI-Systeme klar einen Vorteil: Ein Chatbot hat auf alle Fragen eine Antwort», sagt Pascal Wagner-Egger, Sozialpsychologe und Statistiker an der Universität Freiburg. Er beschäftigt sich seit über 20 Jahren damit, wie Menschen zu Überzeugungen gelangen und warum sie an diesen festhalten.

Faktenbasierter Dialog statt emotionaler Diskussion

Wagner-Egger hält den Einsatz von KI-Chatbots im Kampf gegen Falschinformationen für vielversprechend. «Wenn ich an die Pandemie zurückdenke, hätten Fachleute dadurch viel Zeit und Nerven sparen können.» Damals wurden Expertinnen und Experten teils gar persönlich angegriffen.

Kritischer sieht Sabrina Heike Kessler, Kommunikations- und Medienforscherin an der Universität Zürich, das Potenzial von KI: «Viele Menschen vertrauen menschlichen Expertinnen und Experten mehr als einem KI-Chatbot.» Der persönliche Austausch vermittelt das Gefühl, von einer vertrauenswürdigen Quelle beraten zu werden, und nicht nur Informationen aus einem algorithmischen System zu erhalten.

Eine Person hält ein Smartphone in den Händen und darüber hat es symbolisch einige Sprechblasen.
Legende: Im Internet werden viele Verschwörungstheorien verbreitet. Jetzt ist es ausgerechnet einem KI-Chatbot gelungen, den Verschwörungsglauben bei Menschen zu mindern. IMAGO/Depositphotos

Zudem fallen im anonymen Chat-Dialog viele soziale Aspekte weg. «Menschen besitzen im Gegensatz zur KI eine hohe emotionale Intelligenz und Empathie. Sie können auf die emotionalen Bedürfnisse und Zweifel ihres Gegenübers eingehen», erklärt Kessler.

Doch genau hier sieht der Sozialpsychologe Wagner-Egger auch eine Stärke der KI: «In einer emotionalen Diskussion werden Menschen oft persönlich, es kann zu Beleidigungen kommen. Das kann eskalieren.» ChatGPT stört es hingegen nicht, von einem Verschwörungstheoretiker verbal attackiert zu werden und bleibt bei den Fakten.

Langfristig überzeugt

«Zahlreiche Studien konnten bei Widerlegungsversuchen häufig nur kurzfristige Effekte nachweisen», so Kessler. Anders bei den Teilnehmenden der kürzlich publizierten Studie aus den USA. Sie hatten interessanterweise auch zwei Monate nach dem Gespräch mit der KI weniger Vertrauen in ihre ursprüngliche Verschwörungstheorie.

Obwohl die Studie in den USA durchgeführt wurde, geht der Sozialpsychologe Pascal Wagner-Egger davon aus, dass der KI-Chatbot auch Schweizerinnen und Schweizer überzeugt hätte.

Verschwörungsgläubige für KI-Austausch gewinnen

Box aufklappen Box zuklappen

Ein Knackpunkt sei es, so die drei Studienautoren Thomas H. Costello, Gordon Pennycook und David G. Rand, Anhänger von Verschwörungstheorien überhaupt zur freiwilligen Teilnahme an einer Studie zu bewegen.

Da sie wissenschaftlichen Institutionen wahrscheinlich misstrauen. Und es könnte schwierig sein, sie davon zu überzeugen, sich auf KI-Dialoge einzulassen, heisst es in der Studie. Doch die Autoren haben es geschafft, moderate wie auch extreme Vertreter für ihre Studie zu rekrutieren - und bezahlten sie für ihre Teilnahme.

Das schätzt die Kommunikationsforscherin Sabrina Heike Kessler leicht anders ein. «Es ist zwar schwierig, wissenschaftsferne Menschen über traditionelle Medien zu erreichen, doch generative KI nutzen sie vermutlich trotzdem», sagt sie.

Ein Vorteil könnte sogar darin liegen, dass ChatGPT von Laien oft wie eine Suchmaschine verwendet wird. «Während verschwörungstheoretische Inhalte im Internet – sei es über eine Google-Suche oder auf sozialen Medien – leicht auffindbar sind, wird es schwieriger sein, verschwörungstheoretische Argumente zu finden, die von der KI unterstützt werden. Insbesondere, wenn diese auf fundierte Fakten und verlässliche Quellen zurückgreift.»

Übrigens entkräftet KI schon heute Verschwörungstheorien. «Bereits jetzt können Sie mit ChatGPT chatten und bekommen auf die meisten Verschwörungstheorien adäquate Gegenargumente geliefert», sagt Kommunikations- und Medienforscherin Kessler.

Wissenschaftsmagazin, 14.9.2024, 12:40 Uhr

Meistgelesene Artikel