Zum Inhalt springen

Community Notes Meta streicht seine Faktenchecks – Risiko oder Chance?

Nutzerinnen und Nutzer auf Facebook und Instagram in den USA sollen ihre Inhalte künftig selbst moderieren. Funktioniert das?

Meta streicht seine Faktencheck-Teams. Die Organisationen seien politisch nicht neutral, sie hätten das Vertrauen in die Plattformen untergraben, sagt CEO Mark Zuckerburg. Er überträgt die Verantwortung der Faktenprüfung an die Nutzerinnen und Nutzer der Social-Media-Plattformen. Sie sollen entscheiden, wo man Meldungen ergänzen oder korrigieren müsse. Auch Regeln bei Themen wie Migration oder Gender sollen gelockert werden.

Smartphone vor Facebook-Profilbildern auf Bildschirm.
Legende: Die Entscheidung Zuckerbergs kann als Reaktion auf die bevorstehende Trump-Regierung verstanden werden. Trump und die republikanische Partei kritisierten bereits mehrfach, auf sozialen Medien würden konservative Stimmen unterdrückt. imago images/Jakub Porzycki (07.01.2025)

Nutzerinnen und Nutzer von Facebook in den USA sollen Inhalte bewerten, wenn nötig korrigieren und entscheiden, was künftig angezeigt werden soll und was nicht – sogenannte Community Notes. Nicht mehr eine Faktencheck-Organisation übernimmt also die Moderation, sondern die Community selbst.

Elon Musk verfolgt diesen Ansatz bereits bei X, ehemals Twitter. Die Abschaffung des Faktenchecks führte da zu einem Anstieg von Hassrede und Rassismus und einem grossen Wertverlust des Unternehmens, erklärt SRF-Digitalredaktor Jürg Tschirren.

Vor- und Nachteile der Community Notes

Jürg Tschirren sieht aber durchaus Vorteile in der Moderation durch die Community: «Wenn eine Organisation das Prüfen von Fakten übernimmt, kann immer gesagt werden, sie sei zu liberal oder zu konservativ. Wenn man es den Userinnen und Usern überlässt, kann man sagen, das sei das, was die Masse denke.» Andererseits gebe es auch Nachteile: «Wenn die Nutzerinnen und Nutzer darüber entscheiden, gibt es immer auch Mechanismen, um das auszunutzen oder in eine bestimmte Richtung zu drücken.»

Das grösste Problem sieht der Digitalredaktor jedoch im verzögerten Prozess: Wenn ein Inhalt beispielsweise falsche Informationen enthalte, könne ein User dazu eine Community Note machen und dies klarstellen. Stimme dem ein Grossteil der Community zu, werde das entsprechend angezeigt. Das dauere jedoch.

«Bis eine Community Note veröffentlicht wird, hat sich der Inhalt vielleicht schon millionenfach verbreitet. Die allerwenigsten Menschen, die diesen Inhalt gesehen haben, kehren später zur Plattform zurück, um zu schauen, ob es dazu eine Community Note gibt», führt Tschirren aus.

Technische Gründe für die Abschaffung

Neben politischen Gründen dürften hinter dem Entscheid zur Abschaffung des Faktenchecks auch technische stecken. Millionen, gar Milliarden Menschen sind auf diesen Plattformen. «Es stellt sich die Frage, ob Milliarden von Inhalten überhaupt noch von Menschen moderiert werden können. Da bräuchte es viel zu grosse Moderationsteams», erklärt Tschirren.

Künstliche Intelligenz komme als Lösung noch nicht infrage, die Technologie hinke hinterher: Ironie werde beispielsweise nicht erkannt oder wenn der Buchstabe «O» mit einer Null ersetzt werde, falle das durch entsprechende Filter durch.

Das sagt der Chef von «Correctiv»:

Box aufklappen Box zuklappen

David Schraven ist Chef von der deutschen Rechercheorganisation «Correctiv», die Faktenchecks durchführt – unter anderem für Facebook. Durch Monitoring, Verifizierung und Veröffentlichung von Informationen durch solche Organisationen werden Social-Media-Plattformen vertrauenswürdiger und sicherer. So decken sie beispielsweise Betrugsmaschen oder gezielte politische Kampagnen auf. Über 50 Organisationen bearbeiten laut Schraven je bis zu 100 entsprechender Meldungen.

Zuckerberg wirft Faktenprüferinnen vor, politisch voreingenommen zu sein und Zensur zu betreiben. «Correctiv» weist diese Vorwürfe entschieden zurück: Die Arbeit folge strengen Standards, die regelmässig überprüft würden. Auch seien sie nicht abhängig von Meta: «Meta macht nur einen Teil unserer Einnahmen aus. Wir haben ein grosses Spendenvolumen und bauen unsere eigenen Systeme auf. Diese unabhängige Arbeit erlaubt es uns, alle Entwicklungen bei Meta zu ignorieren», so Schraven.

Schraven vermutet, dass nach der Ankündigung, den Faktencheck in den USA einzustellen, auch Europa folgen dürfte.

Die strategische Überlegung von Meta dürfte also laut Tschirren lauten: «Wenn es weder Moderationsteams noch die Technologie schaffen, geben wir es eben in die Hand der Nutzer. Dann ist nicht Meta schuld, sondern die Community hat versagt.» Damit sendet der Konzern auch ein politisches Signal: «Das ist eine Möglichkeit, der kommenden Regierung Trump zu zeigen, dass man sich nicht gegen sie stellen wird.»

News Plus, 08.01.2025, 16 Uhr ; 

Meistgelesene Artikel