In einem Video auf Instagram spricht die nonbinäre Person Eneas Pauli über «Noods» und «F3tischisierung».
So zumindest steht es in den Untertiteln und dabei handelt es sich keinesfalls um Tippfehler. Denn wäre tatsächlich «Nudes» und «Fetischisierung» geschrieben, würde das Video weniger Reichweite erlangen – oder gar gelöscht.
Zensur macht erfinderisch
In sozialen Medien wie Instagram, TikTok oder Twitter werden rechtswidrige Inhalte oder auch Begriffe rund um Porno und Sex mittels künstlicher Intelligenz erkannt und entfernt. Wer aber trotzdem über Nippel reden will, schreibt im Post einfach «Nip Nops» und der Alogrithmus merkt's nicht – noch nicht.
Diese neue Geheimsprache wird als Algospeak bezeichnet. Eine Wortschöpfung aus Algorithmus und der englischen Vokabel speak.
Teilweise werden auch komplett neue Wörter erfunden wie «spicy eggplant» für Vibratoren. «Wer ein neues Wort erfindet, hat die grössere Chance, von Algorithmen nicht entdeckt zu werden, als wenn nur ein Buchstabe ausgetauscht wird», sagt Janis Goldzycher, Doktorand am Institut für Computerlinguistik der Universität Zürich. Er forscht an der automatischen Erkennung von Hassrede im Internet.
Das Phänomen der ausweichenden Sprache in den sozialen Medien sei kein neues. Im Bereich der Hasskommentare habe sich in den letzten Jahren bereits eine solche Kultur entwickelt. Wer moderne Algorithmen umgehen wolle, müsse aber wirklich kreativ sein. Denn diese werden immer besser.
Schweizerdeutsch ist ein Vorteil
Wer auf Schweizerdeutsch textet, hat die besseren Chancen, dass seine Inhalte nicht blockiert werden. «Der Schweizer Markt ist deutlich kleiner», sagt Martin Volk, Computerlinguist an der Universität Zürich. Sprich: Es gibt schlicht weniger Leute, die auf Schweizerdeutsch posten, was wiederum weniger Lerninhalte für die Algorithmen bietet.
Bei der Sprachidentifikation kommt es immer wieder zu Fehlern. «Weil deutsche Wörter wie beispielsweise dick auf Englisch etwas ganz anderes bedeuten, wurden auch schon harmlose Tweets gelöscht», so der Computerlinguist.
Spannungsfeld zwischen Zensur und Meinungsfreiheit
Grundsätzlich hinken die Plattformbetreiber aber hinterher. «Sie reagieren auf die neuen Ideen und Strategien der User», so Goldzycher. Einerseits bewirtschaften die Firmen Listen mit blockierten Wörtern, andererseits werden die Algorithmen und komplexen Sprachprogramme fortwährend trainiert.
«Bei grossen Plattformen werden die Algorithmen manchmal sogar im Wochenrhythmus schlauer gemacht», so Martin Volk, Computerlinguist an der Universität Zürich. Wie viel die Tech-Giganten darin investieren, sei aber unklar.
«Es gibt einen klaren Trend, dass Firmen stärker in die Verantwortung genommen werden, gegen verletzende und rechtswidrige Inhalte vorzugehen», so Volk. Wie weit dürfen diese Einschränkungen der Meinungsäusserung in den sozialen Medien überhaupt gehen? Es gibt Fälle, die sind eindeutig und per Gesetz geregelt. «Das Ziel der Betreiber sollte aber sein über die Gesetze hinaus auf den Plattformen ein gutes Klima für Diskussionen schaffen», so der Doktorand Goldyzcher. Es ist ein Spannungsfeld zwischen Zensur, Meinungsfreiheit und Menschenrechten.
Aber warum wird beispielsweise das Wort «schwul» blockiert? «Wir können nur spekulieren, wieso bestimmte Betreiber spezifische Wörter auf solche Listen setzen», so Goldyzcher.
Quantensprung dank grossen Textmengen
Klar sei, dass dank der grossen Textmengen im Internet Algorithmen den Sinn von Wörtern genauer erfassen können. «Hier hat ein Quantensprung stattgefunden», sagt der Computerlinguist. Diese Entwicklung werde auch in den nächsten Jahren mit grossem Tempo voranschreiten. Es werde aber noch viele Jahre dauern, bis anspruchsvolle Fälle von Hassrede, die metaphorische Sprache, Ironie oder Sarkasmus enthalten, verlässlich von automatischen Systemen erkannt werden können.