Seit Twitter falsche oder gewaltverherrlichende Tweets markiert, stehen auch andere Social-Media-Plattformen unter Zugzwang. Allen voran Facebook.
Aber was bringt es tatsächlich, Nutzerinnen und Nutzer vor Posts zu warnen? Es könne sicher sensibilisieren, sagt Digitalredaktorin Méline Sieber. Aber langfristig müssten wir uns auch selbst in die Verantwortung nehmen.
SRF: Es gab immer wieder Anläufe, Hate Speech und Fake News in den sozialen Medien einzudämmen. Was ist diesmal anders?
Méline Sieber: Dass sich die Social-Media-Plattformen um Fact Checking bemühen, ist keine plötzliche Entscheidung. Sondern die Folge einer Entwicklung der letzten Jahre.
In Gang gesetzt hat das die Wahl von Donald Trump zum US-Präsidenten und insbesondere der Cambridge-Analytica-Skandal. Die Black-Lives-Matter-Proteste haben die Entwicklung nun aktuell beschleunigt.
Selbst Social-Media-Plattformen, die das Fähnlein der Meinungsäusserungsfreiheit stets sehr hochgehalten haben, haben mittlerweile gewisse Einschränkungen erlassen. Ein Beispiel ist Reddit: Die Plattform hat vor Kurzem kontroverse Unterforen, sogenannte Subrredits, gesperrt.
Twitter markiert heikle Beiträge, Reddit löscht Gruppen. Was erhoffen sich die Plattformen davon?
Dahinter steckt sicher nicht nur Altruismus. Denn die ganzen Social-Media-Plattformen müssen auch irgendwie Geld verdienen. Und sie haben festgestellt, dass es langsam ihrem Image schadet, wenn sie sich immer nur als neutrale Plattform bezeichnen. Dass sie Haltung beziehen, ist also auch eine Art von PR.
Imagepflege hin oder her: Kann das aktuelle Vorgehen der Social-Media-Plattformen nachhaltig etwas gegen Fake News und Hass-Posts bewirken?
Es ist sicher gut, wenn langsam klar wird, dass selbst der US-Präsident nicht von einer Inhaltsprüfung ausgenommen ist. Aber: Das Ideal der Tech-Branche im Silicon Valley ist, dass alle Probleme sich mit technischen Mitteln lösen lassen. Ich glaube aber gerade bei Fake News und Hassreden stossen technische Lösungen an ihre Grenzen.
Ich würde kritisch hinterfragen, inwiefern Labels wirklich zu einem Umdenken führen.
Zum einen gibt es viel zu viele Inhalte, um sie einzeln von Menschen prüfen zu lassen. Künstliche Intelligenz scheitert dafür meist an mehrdeutigen Inhalten, wenn etwa Ironie im Spiel ist.
Es braucht folglich eine andere Debatte: über Haltung und kulturelle Normen.
Twitter labelt Tweets, die gewaltverherrlichend, falsch oder manipuliert sind. Eine Strategie, die sich längerfristig bewähren könnte?
Es ist sicher eine interessante Massnahme. Aber inwiefern sie etwas bringt, muss sich erst noch zeigen. Ich kann mir vorstellen, dass die Labels letztlich ähnlich wie Werbung nach einer Weile einfach ausgeblendet werden. Oder dass man sogar extra darauf klickt, weil man sehen möchte, was falsch ist.
Ich würde daher kritisch hinterfragen, inwiefern das wirklich zu einem Umdenken der Nutzerinnen und Nutzer führt. Es nimmt mir als Nutzerin die Aufgabe ab, mich zu fragen: Warum wird diese Nachricht geteilt? Von wem kommt sie? Und entspricht sie der Wahrheit?
Nicht nur die Tech-Konzerne stehen in der Verantwortung, sondern auch wir.
Labels sollten uns nicht der Verantwortung entbinden, dass wir uns auch Gedanken darüber machen, was wir für Inhalte in sozialen Medien konsumieren und was wir teilen.
Das heisst: Am Ende geht es um die Eigenverantwortung des Einzelnen?
Es ist angenehm, wenn man mit dem Finger auf jemanden zeigen kann: «Mark Zuckerberg ist schuld!» Die Internetkonzerne hinter den Plattformen befinden sich in einer schwierigen Situation. Weil alle fordern: «Tut endlich etwas, macht etwas dagegen!» Wird aber zu viel gelöscht und eingegriffen, hagelt es auch wieder Kritik.
Ein weiteres Problem: Greifen sie zu hart durch, wandern gewisse Gruppierungen ab und gründen eigene Netzwerke mit eigenen Regeln. Das hat man zum Beispiel bei Reddit oder 4chan gesehen.
Die Tech-Konzerne können es letztlich gar nicht richtig machen. Und dann wäre ja eigentlich die Schlussfolgerung, dass eben nicht nur sie in der Verantwortung stehen, sondern auch wir.
Das Gespräch führte Mirja Gabathuler.