Am Morgen des 11. Septembers 2001 steuern islamistische Attentäter Passagiermaschinen in das World Trade Center und das Pentagon. Beim Angriff auf das Nervenzentrum der Supermacht USA sterben fast 3000 Menschen. Die Bilder der einstürzenden Zwillingstürme brennen sich, in Echtzeit verbreitet und in Endlosschlaufen wiederholt, ins kollektive Gedächtnis ein.
18 Jahre später stürmt ein Rechtsterrorist im neuseeländischen Christchurch zwei Moscheen. 50 Menschen sterben. Der Attentäter filmt die Tat aus der Ego-Perspektive – und verbreitet die Bilder via Livestream auf Facebook. Der Terror erreicht eine neue, unwirkliche Unmittelbarkeit.
Der Attentäter wusste ganz genau, dass er ein Publikum für seinen Livestream finden würde – sowohl Konsumenten, als auch Medienhäuser.
Die perfide Logik der Terroristen geht auf. Die grauenvollen Bilder schüren Hass und Rachegedanken bei den Opfern und all jenen, die sich ihnen zugehörig fühlen. In der eigenen Szene erlangen sie Heldenstatus. Und liefern die Blaupause für diejenigen, die ihnen nacheifern.
Genug, findet eine internationale Initiative, angeführt von der neuseeländischen Premierministerin Jacinda Ardern. Frankreichs Präsident Emmanuel Macron unterstützt ihre Idee. Die beiden Politiker laden Mitte Mai zu einem Treffen von Regierungschefs und Vertretern von Internetkonzernen in Paris. Das Ziel der Initiative: Sie will den Terror aus dem Netz verbannen.
Facebook-Chef Mark Zuckerberg forderte kürzlich in einem Gastbeitrag selbst eine stärkere Regulierung im Netz. In der Pflicht sah er aber vor allem den Gesetzgeber. Und er meldete Zweifel an, ob sich Terrorpropaganda wirklich wirksam unterbinden lässt: «Es ist unmöglich, alle schädlichen Inhalte aus dem Internet zu entfernen.»
Schiebt Zuckerberg die Verantwortung einfach ab? «Alles herauszufiltern ist ein aussichtsloses Unterfangen», sagt SRF-Digitalredaktorin Méline Sieber. Ein Beispiel: Die Videos des Attentäters von Christchurch kursieren weiter auf Facebook und anderen Internet-Plattformen.
Es sind schreckliche, aber auch starke Bilder – und damit unwiderstehlich für die Medien.
Terror mit technischen Hilfsmitteln herauszufiltern hält Sieber ebenfalls für illusorisch: «Entweder man filtert zu viel und damit auch Inhalte ohne terroristischen Hintergrund. Oder man filtert zu wenig. Dann ist ein Filter nutzlos.»
Bekannt sei das Problem etwa von Filtern für pornographische Webseiten. Diese blockieren häufig auch Aufklärungs-Webseiten: «Zudem weichen die Leute, die terroristische Inhalte verbreiten wollen, einfach auf andere Plattformen aus.»
Die Schuld einzig den Tech-Konzernen in die Schuhe zu schieben, greift für Sieber also zu kurz. Es handle sich um ein gesamtgesellschaftliches Problem. Denn: «Der Attentäter von Christchurch wusste ganz genau, dass er ein Publikum für seinen Livestream finden würde – sowohl Konsumenten, als auch Medienhäuser.»
Sind wir Erfüllungsgehilfen der Terroristen?
Der Anschlag am anderen Ende der Welt habe auch deswegen solche Breitenwirkung erzielt, weil die Medien auf die Existenz des Videos hingewiesen hätten: «Es sind schreckliche, aber auch starke Bilder – und damit unwiderstehlich für die Medien.»
Die Medienhäuser müssten sich überlegen, wie sie mit solch krassen Bildern umgehen wollen: «Und ob sie Terroristen eine Plattform geben wollen.» Doch auch alle Konsumenten müssten ihre eigene voyeuristische Neugier hinterfragen. «Die Verbreitung terroristischer Inhalte zu stoppen, verlangt ein grösseres Umdenken», so Sieber.