Neu ist die Idee nicht: Seitdem es Videos gibt, wird mit Tricks gearbeitet und «gefälscht», was das Zeug hält. Dass es dafür neuronale Netzwerke oder künstliche Intelligenzen gibt, die frei zugänglich im Internet kursieren und die man auf die Erstellung von Fälschungen trainieren und spezialisieren kann, ist allerdings ein Novum.
Mama Reddit
Wie viele technologische Errungenschaften entspringt auch die Deep-Fake-Software einem Reddit-Subforum. Dort tauschte eine gelangweilte und vermutlich hauptsächlich männliche Community ab 2016 fleissig Schmuddelfilmchen mit Hollywood-Sternchen. 2017 schaffte das den Sprung in den Mainstream und löste dort einen regelrechten Deep-Fake-Hype aus.
Von Porno zu Politik
Dort trieb die Technologie neue, seltsame Blüten. Der Schauspieler Nicolas Cage – aus irgendeinem Grund häufig Ziel von Internet-Witzbolden - war ein frühes Opfer von Deep-Fakes.
Kurz darauf sorgte ein Video für Schlagzeilen, in dem sich Barack Obama wortgewaltig über seinen Nachfolger Donald Trump ausliess.
Das Video wurde von Buzzfeed und dem Schauspieler Jordan Peele fabriziert, um die (Netz-)Welt für die wahre, mit Deep-Fakes einhergehende Problematik zu sensibilisieren: Die potentielle Informationsapokalypse. Je ausgefeilter die Technologie wird, desto einfacher wird es nämlich, jedes erdenkliche Video zu fälschen. Bereits jetzt gibt es eine Deep-Fake-App im Netz und Adobe arbeitet an «Voco» – einem Programm, das in etwa dasselbe mit Stimmen macht. Zukünftig kann man also nicht nur Personen in Videos «swappen», sondern auch gleich noch deren Aussagen.
Die potentielle Deep-Fake-Katastrophe
Diese Entwicklung kann unter Umständen katastrophale Auswirkungen haben. Man stelle sich beispielsweise gefälschte Videos vor, in denen Politiker atomare Kriege erklären, und die sich in Windeseile im Netz verbreiten.
Alles scheisse oder was?
Bevor ihr jetzt alle das Informationshandtuch werft und nie mehr etwas Glauben schenkt: Mögliche Lösungen der Deep-Fakes-Problematik werden ebenfalls bereits heiss diskutiert. Die (wieder) wachsende Bedeutung von Journalismus als faktencheckende Instanz ist eine davon, andere sind technischer Natur. Bereits jetzt schrauben Technologiekonzerne an Programmen, die den Deep-Fake-Prozess «rückwärts» laufen lassen und so gefälschte Videos entlarven können.
Unterdessen appellieren wir mal an die Selbstverantwortung: Glaubt nicht alles, was ihr seht.