Deepfakes wirken authentisch – sind es aber nicht. Die mithilfe von künstlicher Intelligenz erstellten Bilder oder Videos, lassen jemanden etwas sagen, das er oder sie so nie ausgesprochen hat. Sie führen Bewegungen aus, die nie geschehen sind.
Was als scheinbar harmlose Spielerei angefangen hat, wandelt sich mehr und mehr zur politischen Waffe. Deepfakes werden vom harmlosen Bild-Schabernack zum Instrument eines schwer durchschaubaren Identitätsdiebstahls.
Erkennt bald keiner mehr den Unterschied?
Ein Zeichen der Zeit. Denn dank der rasanten Entwicklung von künstlicher Intelligenz und dem maschinellen Lernen sind die manipulierten Inhalte heute qualitativ besser und vor allem: viel einfacher zu produzieren.
«Noch vor sechs Monaten waren Deepfakes sehr einfach zu durchschauen. Man sah in Videos schnell, dass irgendetwas manipuliert ist. Ich behaupte aber, dass in weniger als neun Monaten 99.9 Prozent der Leute nicht mehr in der Lage sein werden, einen wirklich guten Deepfake zu erkennen», sagt Touradj Ebrahimi, IT-Professor an der EPFL.
Wozu die Technik zur Erstellung solcher Inhalte heute schon in der Lage ist, zeigt ein Besuch bei Deepfake-Spezialisten an der ETH Lausanne.
Deepfake 2.0
Ein IT-Experte lädt sich das offizielle Profilbild des «Einstein»-Moderators Tobias Müller von der SRF-Website auf seinen Laptop. Ein Programm analysiert dieses passbildgrosse Foto von Müller kurz.
Wenige Sekunden später kann der Experte das Foto von Tobias Müller mit seiner eigenen Mimik komplett fernsteuern, indem er sich mit der Kamera seines Laptops filmt. Über Video-Call ruft er jemanden an – und für das Gegenüber scheint es, als würde Tobias Müller mit ihm sprechen.
Das kleine Experiment zeigt: Mit technischem Know-How reicht ein einziges Foto heute als Ausgangsmaterial aus, um einen glaubwürdigen Deepfake zu produzieren.
Die Deepfake-Detektoren
Auch deshalb forscht das Experten-Team um Touradj Ebrahimi, Professor für Informatik an der EPFL, an einer Technik, die Deepfakes automatisch entlarven soll: einem Deepfake-Detektor. Dafür müssen sie selbst zu Deepfake-Experten werden.
Um spezifische Anomalien in Deepfakes aufzuspüren, nutzen die Experten die Mittel künstlicher Intelligenz. Die Idee dahinter: Die Deepfake-Detektoren sollen Marker erkennen können, also Anomalien in Bildern oder Videos, die oft überhaupt erst maschinell erzeugt werden und auch nur so zu aufzuspüren sind.
Damit liesse sich eine Software bauen, die Manipulationen auf gefälschten Videos und Bildern schnell und autonom erkennt.
Doch die Deepfakes sind mehr als hinterlistige, gefälschte Videos, die jemanden etwas sagen lassen, das er oder sie so nie gesagt hat. Sie sind längst auch in der legalen Wirtschaft angekommen: Immer mehr künstlich erzeugte Gesichter und Avatare bevölkern die Werbewelt. In Kinofilmen spielen Schauspielerinnen und Schauspieler nun auch noch ihr künstlich-erstelltes junges Alter Ego. Beides sind Milliarden-Industrien.
Schweizer Startup gegen Fälschungen
Das Missbrauch-Potenzial von Deepfake-Techniken treibt die Forschung an. Fake-Detektoren könnten etwa bei Versicherungsbetrug helfen, falsche Unfallbilder zu entlarven. Überall, wo eindeutige Kundenidentifikation wichtig ist, könnten die Tools die Echtheit von Dokumenten verifizieren. Auch von elektronisch eingereichten.
Aus dieser Forschung der EPFL entsteht derzeit ein Schweizer Spin-Off, die Firma «Quantum Integrity». Sie will künftig spezialisierte KI-Software einsetzen, um alle Arten von Deepfakes zu detektieren. Potenzial sehen die Gründer vor allem im Bereich von Versicherungsfällen und überall dort, wo die Identität von Personen maximal geschützt werden muss.