Der Papst in modischer Winterkleidung oder Donald Trump, der sich gegen seine Verhaftung wehrt: Solch fotorealistischen Bilder sorgten vor kurzem für Schlagzeilen. Die mit KI generierten Darstellungen – sogenannte Deepfakes – machen deutlich, wozu Bildgeneratoren der neusten Generation fähig sind. Experten, wie der renommierte KI-Forscher Geoffrey Hinton, warnen vor einer Welle manipulierter Aufnahmen, die von echten Fotos kaum zu unterscheiden sind und deshalb zur totalen Verunsicherung führten.
Viel gelassener sieht das der Philosoph Joshua Habgood-Coote, der an der Universität Leeds lehrt und zur Erkenntnistheorie forscht. Warnungen vor einem Vertrauenskollaps hält er für übertrieben, ja sogar für schädlicher als die gefälschten Bilder selbst. Und die Angst vor dem Vertrauensverlust ist für ihn nichts Neues.
Bildmanipulationen sind nichts Neues
Ein Blick in die Geschichte der Fotografie zeigt: Fälschungen gab es schon immer.
1869 wurde zum Beispiel der amerikanische Fotograf William Mumler in New York wegen Betrugs verurteilt. Er hatte Porträts angefertigt, auf denen neben Lebenden auch der Geist eines Verstorbenen zu sehen war – eine Fotomontage in der Dunkelkammer.
Als der Betrug aufflog, sei die Empörung gross gewesen, sagt Joshua Habgood-Coote: «Die Zeitungen publizierten entsetzte Kommentare zu diesen gefälschten Fotografien. Sie warnten, dass nun das Vertrauen in alle möglichen Medien komplett zerstört sei.»
Die Reaktionen auf die Fälschungen vor fast 150 Jahren hätten grosse Ähnlichkeiten mit den aktuellen Warnungen vor Deepfakes. Sie führten zu grösseren Verunsicherungen als die Fälschungen selbst, denn sie würden das Vertrauen in unsere Fähigkeiten, echte von falschen Bildern zu unterscheiden, untergraben.
Diese Fähigkeiten hätten wir durchaus, ist der Philosoph überzeugt. Etablierte Medien spielen dabei eine wichtige Rolle. Stösst man etwa auf das Bild der Verhaftung Donald Trumps und merkt dann nach kurzer Recherche, dass weder Schweizer Zeitungen noch internationale Medien den Vorfall erwähnen, so ist klar, dass es sich um eine Fälschung handelt.
Deepfakes sind fehlerhaft und aufwändig
Mit den neusten KI-Techniken zur Bildgenerierung ist zwar mit viel weniger Aufwand viel mehr möglich als zu Zeiten der analogen Fotografie in der Dunkelkammer, doch trivial ist die Herstellung realistisch wirkender Bilder auch heute nicht. Es brauche dazu einiges an Fertigkeiten. Bei Videos steigt der Aufwand nochmals erheblich, da man oft sehr viel Bildmaterial beschaffen muss.
Deepfakes sind denn auch meistens nicht perfekt. Schaut man mit KI generierte Bilder genau an, so sieht man oft grobe Fehler. So ist Donald Trump auf einem Bild mit nur neun Fingern zu sehen. Auch kleinere Unstimmigkeiten weisen auf Fälschungen hin: Der Kopf passt nicht genau auf den Körper oder mit Licht und Schatten stimmt etwas nicht.
Joshua Habgood-Coote bestreitet nicht, dass es Probleme geben wird mit Deepfakes, zum Beispiel in Zusammenhang mit pornografischen Inhalten, wo meistens die Frauen Opfer sind. Wo die bestehenden Gesetze nicht greifen, schlägt er Anpassungen vor. Technologie einzusetzen, um Deepfakes zu bekämpfen, ist für ihn keine Lösung.