17 Stunden lang kursierten KI-generierte pornografische Bilder von Taylor Swift Ende Januar auf der Plattform X. Bis zu 47 Millionen Mal sollen die Deepfakes aufgerufen worden sein, bis die Suche nach Taylor Swift von der Plattform gesperrt wurde. Deepfakes sind – meist mithilfe von Künstlicher Intelligenz (KI) – manipulierte Bilder oder Videos.
Der Fall sorgte für Schlagzeilen auf der ganzen Welt. Taylor Swifts Deepfakes sind aber nur die Spitze des Eisbergs, denn Fälle von sogenannter bildbasierter sexueller Gewalt im digitalen Raum gibt es seit Jahren. Opfer waren K-Pop-Stars, TikTokerinnen, Journalistinnen oder Mädchen an US-amerikanischen High-Schools.
Neue Form sexualisierter Gewalt – im digitalen Raum
Laut einer Studie von Deeptrace, einer auf Deepfakes spezialisierten Firma, sind 96 Prozent aller Deepfakes pornografischer Natur. Und von 100 Fällen zielen 99 auf Frauen ab. Aller Befürchtungen zum Trotz, dass Deepfakes politische Prozesse wie Wahlen unterwandern, werden sie also hauptsächlich als Waffe gegen Frauen eingesetzt.
«Wenig erstaunlich», findet das Jolanda Spiess-Hegglin von #NetzCourage. Ihr Verein berät Menschen, die sexuelle Gewalt im digitalen Raum erlebt haben. Es handle sich um ein Machtinstrument im Patriarchat: «Mit Pornografie kann man eine Frau im Innersten treffen», sagt Spiess-Hegglin. Es sei eines der ältesten Mittel, eine Frau zum Schweigen zu bringen: Sie zu einem Objekt zu machen und zu sexualisieren.
Ähnlich tönte es nach dem Swift-Skandal bei vielen Aktivistinnen auf X. Und so sieht das auch Jürg Tschirren von der SRF-Digitalredaktion: «Mittels KI können Deepfakes potenziell schneller und einfacher verbreitet werden. Aber es konnte schon immer jede Frau – ob Popstar oder nicht – treffen.»
Je mehr Bilder, desto einfacher
Einzig: Bei Taylor Swift ist es einfacher, eine KI mit Bildern von ihr zu trainieren, da es viel Bildmaterial des Popstars im Netz gibt.
Es ist kein KI-Problem. Es ist ein Sexismus-Problem, das es seit Jahrhunderten gibt.
Wie gut ist denn die Technologie heute schon? «Man muss zwischen Deepfake-Fotos und Videos unterscheiden», so Jürg Tschirren. Fotos können mit heutigen Online-Bildgeneratoren schon sehr überzeugend erstellt werden. Videos hingegen seien noch sehr schlecht.
«Das Perfide an der Sache ist, dass Deepfake-Pornos technisch gar nicht gut gemacht sein müssen», so Tschirren. Egal wie realistisch oder unrealistisch die Montage aussehe, gedemütigt sei man trotzdem. Deshalb resümiert er: «Es ist kein KI-Problem. Es ist ein Sexismus-Problem, das es seit Jahrhunderten gibt.»
Tausende Views, ein Leben ruiniert
«Es zieht einem den Boden unter den Füssen weg, wenn man solche Inhalte von sich entdeckt», erzählt Jolanda Spiess-Hegglin, die selbst sexualisierte Gewalt im Netz erlebt hat. «Man fühlt sich – und ist es leider oft auch – machtlos.»
Denn: Sobald die pornografischen Inhalte ihren Weg in Chat-Foren oder soziale Netzwerke finden, verbreiten sie sich rasant. «Solche Inhalte sind kaum aus dem Netz wegzubringen», sagt SRF-Digitalredaktor Jürg Tschirren.
Thema beim Bewerbungsgespräch
Angenommen, es gäbe unter den abertausenden Pornos im Netz einen Deepfake-Porno von mir, der Autorin dieses Artikels, einer nicht öffentlich bekannten Person. Die Wahrscheinlichkeit, dass ihn viele in meinem Bekanntenkreis sehen, ist klein.
«Aber dennoch ist die Möglichkeit da», so Tschirren. Das kann einen Verfolgungswahn auslösen. Man weiss, dieses Material ist da draussen, potenziell könnte es jeder sehen: mein neuer Freund, mein neuer Tennislehrer, mein neuer Arbeitgeber.
«Es ist die pure Abschreckung. Als Firma zögert man sofort, diese Person einzustellen, oder nicht?», gibt Spiess-Hegglin zu bedenken. Sie erzählt, dass sie sich selbst schon bei Auftraggebern oder Sponsoren erklären musste.
Das Opfer trägt also die Verantwortung – und muss Deepfake-Erlebnisse beim Bewerbungsgespräch oder ersten Date ansprechen. Als Betroffene habe man weder guten Schutz durch Gesetze noch versierte technische Möglichkeiten, um schnell zu reagieren, sagt Spiess-Hegglin. «Oftmals sind diese Frauen sich selbst überlassen.»
Was kann man machen?
Die Opferhilfe oder Vereine wie #NetzCourage versuchen, Betroffene aufzufangen und psychologisch zu betreuen. «Bei digitaler Gewalt spielt der Vertrauensverlust eine grosse Rolle. Man fühlt sich allein, wenn Leute sich nicht für dich starkmachen beim Auftauchen solcher Inhalte», so Spiess-Hegglin.
Es sei wichtig, dass die Betroffenen jemanden an der Seite haben, der sie ernst nimmt und sie unterstützt. Konkret heisst das: Wenn pornografische Inhalte auftauchen, soll so rasch wie möglich alles gesichert werden: Screenshots machen, inklusive URL und Zeitangaben.
«Am besten fragt man eine vertraute, aber nicht zu nahestehende Person im Umfeld um Hilfe», so Spiess-Hegglin. Damit man selbst nicht die Inhalte anschauen muss und re-traumatisiert werde.
Digitale Gewalt kann Menschen zu Suizid verleiten.
Auch mit Fachstellen und der Polizei soll Kontakt aufgenommen werden, empfiehlt Spiess-Hegglin. «Am besten sucht man einen Polizeiposten in einer grösseren Stadt auf.» In kleineren Orten würden bei der Polizei die Kompetenz und die Kapazitäten für Opfer digitaler Gewalt fehlen.
Anerkennung und Engagement
So erhofft sich Jolanda Spiess-Hegglin, dass in Zukunft digitale Gewalt in der breiten Masse als Gewaltakt anerkannt werde und mehr passiere auf Gesetzesebene. «Digitale Gewalt kann Menschen zu Suizid verleiten.»
Solange die Gesellschaft nicht an den Ursachen, wie Sexismus und Misogynie, etwas ändert, werde sexualisierte Gewalt gegen Frauen nicht aufhören. Nur neue Formen annehmen.