In Krisenzeiten tobt auf sozialen Medien ein Propagandakrieg, etwa während der Pandemie oder aktuell während des Nahostkonflikts.
Im Kampf gegen Hassrede und Fake News setzen grosse Internetkonzerne wie X (vormals Twitter) oder Instagram auf künstliche Intelligenz und professionelle Moderatoren – mit mässigem Erfolg. Immer wieder verbreiten ihre Algorithmen Lügen oder Hassrede.
Anders Wikipedia: Das Online-Lexikon, das von Freiwilligen gepflegt wird, schneidet im Allgemeinen gut ab bei der Moderation problematischer Inhalte. Zu diesem Schluss kommt eine Studie der Universität Harvard.
Dabei geniessen Schreibende auf Wikipedia grosse Freiheiten. Sie können im Online-Lexikon nicht nur Artikel publizieren, sondern auch Texte anderer Autoren und Autorinnen abändern, ergänzen, korrigieren oder löschen. Trotzdem werden problematische Inhalte meist schnell erkannt und gelöscht.
Dahinter steckt ein mehrstufiges Moderationssystem, das Freiwillige in den letzten zwei Jahrzehnten entwickelt und verfeinert haben.
Durchsetzen der Regeln
Eine zentrale Rolle spielen die Administratoren, erfahrene Wikipedianerinnen, die seit Jahren auf der Plattform aktiv sind und demokratisch gewählt werden.
Rund 180 freiwillige Admins achten darauf, ob die Regeln auf der deutschsprachigen Wikipedia-Seite eingehalten werden, ob ein Artikel auf vertrauenswürdigen Quellen basiert und ob ausgewogen berichtet wird.
Sie löschen unangemessene Beiträge, greifen in gehässige Diskussionen ein und sorgen dafür, dass die Plattform ein sicherer und informativer Ort bleibt.
Hürde für Unerfahrene
Neulinge auf der deutschsprachigen Wikipedia sind jederzeit willkommen. Ihre Texte oder Änderungen werden aber erst publiziert, nachdem eine erfahrene Wikipedianerin den Text freigegeben hat, eine sogenannte Sichterin.
Auf diese Weise wolle man den Schüler-Vandalismus verhindern, erklärt ein erfahrener Administrator (Wikipedia-Name: Wir-Ing). Er erzählt von gelangweilten Teenagern, die einfach zum Spass «PENIS» eintippten. Sie würden dann aber enttäuscht, weil der Text noch vor der Publikation von einem Sichter gelöscht werde.
Einigt Euch!
Im Gegensatz zu Posts in sozialen Medien, müsse ein Wikipedia-Artikel ausgewogen abgefasst werden, so Wir-Ing: «Schaut man sich auf Youtube ein Video von Rechtsextremen an, schlägt Youtube gleich 20 weitere ähnliche Videos vor – und nicht etwa Videos von Linksextremen. In einem Wikipedia Artikel müssen beide Seiten vorkommen.»
Kommt es zu einem Streit über eine Textstelle, müssen die Autorinnen so lange diskutieren, bis sie sich auf eine Formulierung einigen können. Erst dann wird die Änderung im Artikel sichtbar. Die Diskussion ist öffentlich einsehbar.
Ziele und Werte
Ob eine Plattform problematische Inhalte verbreitet, hängt nicht nur von der Moderation ab, auch die Ziele spielen eine wichtige Rolle.
Die Algorithmen der kommerziellen sozialen Medien sind darauf trainiert, ihre Nutzer möglichst lange auf der Plattform zu halten und Informationen möglichst schnell zu verbreiten.
Für Wikipedia steht die Verbreitung objektiver Informationen im Zentrum. Ist dieses Ziel gefährdet, greifen Admins ein, sperren die Seite für eine bestimmte Zeit und entschleunigen so die Diskussion. Für Stimmungsmache ist das offene Lexikon weniger geeignet. Das wiederum vereinfacht die Moderation.