Facebook-Chef Mark Zuckerberg erntete diese Woche harsche Kritik, weil er den Holocaust leugnende Einträge nicht prinzipiell von der Plattform löschen will. Das muss er allerdings auch nicht. Denn in den USA ist es nicht illegal, den Holocaust zu leugnen. In Europa jedoch geht Facebook gegen solche Posts vor. Melden Nutzerinnen und Nutzer entsprechende Beiträge, werden sie blockiert. Daniel Bouhs hat schon viel zu diesem Thema publiziert. Er glaubt, dass sich Facebook irgendwann dem Druck der Öffentlichkeit beugen wird.
SRF News: In den USA geht Facebook bezüglich der Löschung von Posts anders vor als in Europa. Bräuchte es nicht eine einheitliche Regelung?
Daniel Bouhs: Bei Facebook heisst es immer: «Dann müssen wir deutlich mehr Personal einsetzen. Und dann gelten wir als Zensurmaschine.» Man hält sich an die allgemeinen Standards; die Gemeinschaftsregeln. Darüber hinaus richtet sich Facebook nach den nationalen Gesetzen – damit es in den jeweiligen Ländern auch Geld mit Werbung verdienen kann. Also wenn es in einem Land ein Straftatbestand ist, entsprechende Äusserungen zu tätigen, entfernt Facebook solche Posts. Diese verschwinden dann aber nicht von der Plattform. Nutzer aus den USA etwa können auf die Inhalte weiter zugreifen.
Die Leute dort sind dabei, zu begreifen, dass sie nicht mehr das Startup sind, das sie vor zehn Jahren einmal waren.
Das Unternehmen ist börsennotiert, es muss also wirtschaftlich arbeiten. Facebook versucht deshalb, den Aufwand so gering wie möglich zu halten und Inhalte zu filtern. Es geht dabei darum, den Kontext zu erkennen, also eine Bewertung vorzunehmen. Das ist nicht nur ein einfaches Ja-und-Nein-Spiel. Man muss sich bisweilen ganze Dialoge angucken, um zu verstehen: Ist das jetzt ein Zitat? Ist das eine Äusserung, die kritikwürdig ist? Diesen Aufwand scheut Facebook und versucht, ihn so gering wie möglich zu halten. Dabei kommt diese Praxis heraus, so absurd sie aus europäischer Sicht auch ist.
Gemäss Facebook-Handbuch wird ein Post entfernt, wenn er zum Beispiel zu Gewalt oder Hass gegen einzelne Personen aufruft. Reicht das?
Dieses Handbuch ist sehr gewachsen in den vergangenen Jahren. Facebook überarbeitet es inzwischen in sehr kurzen Intervallen von zwei bis drei Monaten. Facebook geht damit auch an die Öffentlichkeit und erklärt es. Man kann also schon sagen, dass Facebook sich dort entwickelt – aber vermutlich nicht schnell genug. Gerade aus europäischer Perspektive. Aber die Leute dort sind dabei, zu begreifen, dass sie nicht mehr das Startup sind, das sie vor zehn Jahren einmal waren, sondern ein Konzern. Facebook hat Angst davor, von der Politik letztlich zerschlagen zu werden, weil es zu gross und zu mächtig geworden ist. Deswegen justiert Facebook nach, rüstet auch auf, was den Kampf gegen Hass und Gewalt, aber auch gegen Pornografie angeht.
Facebook hat Angst davor, von der Politik zerschlagen zu werden, weil es zu gross und zu mächtig geworden ist.
Facebook hat zudem Entwickler über eine Plattform aufgerufen, an künstlichen Intelligenzmaschinen zu arbeiten. Also an Computerprogrammen, Algorithmen, die trainiert werden, die lernen, die den Kontext verstehen können sollen in der Zukunft. Dies um beispielsweise Hassbotschaften und Gewaltaufrufe auch in einem Kontext besser zu erkennen. Facebook wertet die Beiträge, die klar als Fake News identifiziert sind, ab, so dass sie zwar technisch noch auf der Plattform existieren. Aber die einzelnen Nutzer können diese Nachrichten gar nicht mehr lesen, wenn sie Facebook aufrufen.
Facebook möchte den Nutzern nicht das Gefühl geben, dass es ein Zensurapparat ist.
Das ist etwas, das im deutschsprachigen Raum tatsächlich ziemlich gut funktioniert, weil Facebook auch mit einzelnen Journalisten und auch Organisationen wie Correctiv zusammen arbeitet. Die haben ihnen gesagt: «Alles, was von dieser Seite auf eure Plattform kommt, ist Fake News. Da geht es nur darum, die Gesellschaft politisch zu manipulieren.» Facebook hat das verstanden und zeigt solche Einträge, obwohl sie noch geschrieben werden dürfen, gar nicht mehr an. Und natürlich kann man am Ende die Frage stellen: Wenn Facebook so etwas erkennt, wieso wird es nicht gelöscht? Aber Facebook möchte den Nutzern nicht das Gefühl geben, ein Zensurapparat zu ein.
Facebook will falsche Nachrichten oder Verschwörungstheorien nicht löschen, aber die Reichweite einschränken, sie also verschwinden lassen?
Genau. Es geht darum: Wenn Nutzer auf Facebook sind, sehen sie den sogenannten Newsfeed, der einem von einem Algorithmus persönlich zusammengestellt wird. Man sieht Seiten, die man abonniert hat, aber auch vorgeschlagene Inhalte. Man muss sich also stundenlang auf Facebook bewegen, damit man überhaupt auf diese Inhalte stösst. Es ist das allerletzte, was man sieht. Auch Google hat so etwas für die Videoplattform YouTube angekündigt. Auch dort gibt es eine ganze Menge kritischer Inhalte. Diese sollen ebenfalls nach unten gedrückt werden, so dass sie zwar technisch auf der Plattform sind, aber von den Nutzern gar nicht mehr erreicht werden.
Computer entscheiden, ob die Reichweite eines Posts eingeschränkt werden soll oder nicht; künstliche Intelligenz entscheidet also letztlich darüber, was die Nutzer schreiben dürfen. Das klingt beängstigend...
Das klingt ein bisschen nach Science-Fiction, bei der die Computer irgendwann die Kontrolle übernehmen. Für die einen ist künstliche Intelligenz eine Chance, für den anderen ist sie eine Bedrohung. Doch selbst wenn diese Computer von Menschen trainiert werden, die Algorithmen von Menschen geschrieben werden, die Kriterien, nach denen die Maschinen arbeiten, von Menschen festgelegt werden: Am Ende kontrollieren Facebook und Google die grossen Infrastrukturen unseres Informationszeitalters.
Eine internationale Gesetzgebung könnte sicher helfen, damit Facebook keine Blackbox bleibt.
Bei Facebook mit seinen zwei Milliarden Nutzern weltweit gibt es zum Beispiel nicht so etwas wie einen Beirat oder ein Kontrollgremium, in dem stellvertretend ein paar Menschen aus der Gesellschaft sitzen, die diese Zauberformel einsehen können und gucken, wohin sie sich entwickeln. Der kritische Punkt in der öffentlichen Diskussion wird sicher sein: Wie kriegen wir eine Kontrolle über diese Infrastruktur? Eine Gesetzgebung – auch im internationalen Massstab – könnte da sicher helfen, damit Facebook nicht die Blackbox bleibt, die sie in den ersten zehn Jahren war.
Die Technische Universität Berlin hat in einer Studie gezeigt, dass Antisemitismus ein integraler Bestandteil der Netzkultur ist. Wäre es also nicht besonders wichtig, dass Facebook dagegen einheitlich vorgeht?
Ich war überrascht, dass Mark Zuckerberg, der gerade gesagt hat, dass er selbst Jude sei und nicht gutheisse, was da passiert, gleichzeitig meinte, «unsere Plattform ist aber trotzdem offen für solche Inhalte». Gerade der Konzerngründer könnte sich da persönlicher einbringen. Was Facebook in letzter Zeit leider immer wieder zu erkennen gibt, ist, dass es nicht die Verantwortung wahrnehmen will die ein Medienkonzern innehaben würde.
Der Druck wird letztlich so überwältigend sein, dass Facebook sich auch bewegen und deutlicher positionieren wird.
Facebook sieht sich immer noch als Technologiekonzern mit Programmierern, aber mit niemandem, der wie bei einem Medium mit einem Chefredakteur die Inhalte auch sortiert. Aber die Diskussion um die Verantwortung des Konzerns führen wir jetzt immer intensiver. Der Druck wird letztlich so überwältigend sein, dass Facebook sich auch bewegen und deutlicher positionieren wird.
Das Gespräch führte Linda von Burg.