Vor den US-Kongresswahlen legen sich die sozialen Medien mächtig ins Zeug: Facebook, Twitter oder TikTok engagieren Faktenchecker, versehen problematische Inhalte mit besonderen Kennzeichen oder schränken den Kauf von politischer Werbung ein. Und sie richten «War Rooms» ein: Kommandozentralen, in denen junge Menschen mit ernster Miene auf Computerbildschirme blicken, um klarzumachen, dass es die Plattformen ernst meinen mit der Bekämpfung von Falschinformationen.
In einer Pressemeldung spricht Facebooks Mutterkonzern Meta denn auch stolz von seinem Team, das Wahl- und Wählerbeeinflussung verhindern soll – nebst den hunderten Angestellten, die sich das ganze Jahr über dieser Aufgabe widmeten.
Allerdings: Allein Facebook hat fast drei Milliarden aktive Nutzerinnen und Nutzer, die Zahl der täglich auf der Plattform veröffentlichten Inhalte geht ebenfalls in die Milliarden. Nicht jeder dieser Inhalte hat mit den US-Wahlen zu tun und nicht jeder problematische Inhalt findet genug Verbreitung, um tatsächlich Schaden anzurichten. Trotzdem lässt sich die gewaltige Menge von Inhalten nicht von ein paar hundert Mitarbeitern kontrollieren. Ebenso wenig von Faktencheckerinnen, deren Richtigstellungen stets weniger Verbreitung finden als die ihnen vorangegangenen Falschinformationen.
Irreführende Werbung trotz angeblich strengen Standards
Dass auch Maschinen das Problem nicht lösen können, hat die Pandemie gezeigt: Weil Twitters und Facebooks Mitarbeiterinnen im Homeoffice aus rechtlichen Gründen keine problematischen Inhalte kontrollieren durften, übernahmen Algorithmen diese Aufgabe – und scheiterten. Zwar entfernten sie mehr Inhalte, die angeblich gegen die Regeln der Unternehmen verstiessen. Insgesamt ging aber mehr tatsächlich problematisches Material an den Maschinen vorbei als zuvor an den menschlichen Kontrolleuren.
Wie wenig die grossen Plattformen der Bekämpfung von Falschinformationen gewachsen sind, zeigte sich zuletzt auch in Brasilien. Facebook ist dort das meistgenutzte soziale Medium und Mutterkonzern Meta sagt, man habe sich umfassend auf die dortigen Wahlen Anfang Oktober vorbereitet. Trotzdem schaffte es die NGO Global Witness, auf der Plattform Anzeigen über die Wahlen zu schalten, die offensichtlich gegen Facebooks Richtlinien für wahlbezogene Werbung verstiessen – obschon Meta stets beteuert, für Anzeigen gälten noch strengere Standards als für normale Beiträge.
Ein Social-Media-Blackout vor Wahlen?
Wenn es Meta nicht einmal schafft, die eigenen Werbeanzeigen vor Falschinformationen zu schützen, wie sollen dann die paar dutzend Angestellten im «War Room» die Masse von Inhalten kontrollieren, die Nutzerinnen und Nutzer täglich auf Facebook veröffentlichen?
Wir sind deine Korrespondenten aus der digitalen Welt. Ist ein Chip drin oder hängt es am Internet? Wir berichten wöchentlich. Smartphones, soziale Netzwerke, Computersicherheit oder Games – wir erklären und ordnen Digitalisierungs-Vorgänge ein, seit 2006
Um diesen Podcast zu abonnieren, benötigen Sie eine Podcast-kompatible Software oder App. Wenn Ihre App in der obigen Liste nicht aufgeführt ist, können Sie einfach die Feed-URL in Ihre Podcast-App oder Software kopieren.
Stellt sich die Frage: was tun? Mehr Medienkompetenz im Publikum könnte helfen, soziale Medien nicht für Quellen objektiver Information zu halten. Einige Beobachter schlagen sogar vor, Plattformen wie Facebook oder Twitter sollten unmittelbar vor wichtigen Wahlen und Abstimmungen kurzfristig ihren Dienst einstellen. Doch kaum jemand glaubt tatsächlich, dass das jemals geschieht. Denn der Ausfall an Werbegeldern würde die Social-Media-Unternehmen um einiges mehr kosten als medienwirksame «War Rooms» einzurichten, in denen junge Menschen dann mit ernster Miene auf Computerbildschirme blicken.