Zum Inhalt springen

Deepfakes Videos, die aussehen wie echt, die aber nicht echt sind

Mit neuer Technologie sehen konstruierte Videos authentisch aus. Die Fälschungen zu erkennen, ist anspruchsvoll.

Was sind Deepfakes? Mit künstlicher Intelligenz lassen sich heute Videos und Audios produzieren, die echt und authentisch wirken. Man nennt diese künstlich erstellten Medieninhalte Deepfakes. Die Stiftung für Technologiefolgen-Abschätzung TA-Swiss nennt in ihrem Bericht solche Audios und Videos auch neutraler «synthetische Medien».

Das ist TA-Swiss

Box aufklappen Box zuklappen

TA-Swiss nennt sich die Stiftung für Technologiefolgen-Abschätzung. Organisatorisch gehört sie zu den Akademien der Wissenschaften. Sie wird durch die öffentliche Hand finanziert und arbeitet nach wissenschaftlichen Prinzipien.

TA-Swiss sieht sich als Beobachterin technologischer Entwicklungen und deren Folgen. Technologien sollen möglichst früh darauf geprüft werden, wie sie die Gesellschaft verändern. Themenbereiche sind Biotechnologie und Medizin, Digitalisierung und Energie und Umwelt. Die Stiftung macht Empfehlungen an Politik, Behörden, Wirtschaft, Wissenschaft und Gesellschaft, wie mit strittigen Technologien umgegangen werden soll.

Wieso sind Deepfakes gefährlich? Mit Deepfakes kann man die Realität manipulieren. Was man hört und sieht, muss nicht mehr zwingend authentisch sein. TA-Swiss nennt verschiedene Beispiele, bei welchen Deepfake-Technologien betrügerisch und manipulativ eingesetzt werden können. So haben mit einem Austausch des Gesichts Männer Rache-Pornos erstellt, um ihre Ex-Partnerinnen zu diffamieren. Kriminelle nutzen geklonte Stimmen, um bei Angehörigen Geld zu erschleichen – der Enkeltrickbetrug 2.0. Geheimdienste können Politikerinnen und Politikern Worte in den Mund zu legen, die sie so nie gesagt haben. Das öffnet Desinformation und Propaganda Tür und Tor.

Deepfakes (vielleicht) erkennen:

Sind Schweizerinnen und Schweizer darauf vorbereitet, Deepfakes zu entdecken? Eine Umfrage und ein Experiment der TA-Swiss-Forscherinnen und -Forscher kommt zum Schluss, dass die Schweizer Bevölkerung Deepfakes meist nicht erkennen kann. Einzig Personen mit Social-Media-Kenntnissen, die also Erfahrung im Umgang mit neuen Technologien haben, erkennen Deepfakes besser als der Durchschnitt.

Das Gesicht einer Frau, das digital mit einem grünen Netz abgedeckt ist
Legende: Mit einem Programm kann ein Gesicht künstlich bewegt werden. Reuters/Reuters TV 2019

Gibt es auch sinnvolle Anwendungen von «synthetischen Medien»? TA-Swiss nennt hier Anwendungen aus der Film- und Unterhaltungsbranche. So können historische Figuren wie Napoleon oder Julius Caesar auferstehen – in Filmen, Spielen, aber auch für den Schulunterricht. Diskutiert werde der Einsatz auch in der Strafverfolgung, sagen die TA-Swiss-Expertinnen und -Experten. Die Polizei könne damit Tathergänge rekonstruieren. TA-Swiss empfiehlt hier aber, dass der Einsatz reguliert wird, damit Beschuldigtenrechte gewahrt werden. Die Politik und Gesellschaft werden solche Anwendungen breit diskutieren und allenfalls auch Grenzen ziehen müssen. Soll zum Beispiel die demente Grossmutter einen Avatar des verstorbenen Ehemannes erhalten?

Gefälscht: Deepfakes mit SRF-Aushängeschildern

Box aufklappen Box zuklappen

Dieses Beispiel zeigt, wie perfide Deepfakes sein können: SRF-Moderatorinnen und -Moderatoren werben auf Social-Media-Plattformen für Online-Casinos und gefährliche Finanzprodukte . Diese Videos sind gefälscht.

Welche Massnahmen schlagen die Expertinnen und Experten vor? TA-Swiss empfiehlt ein Bündel an Massnahmen. Online-Plattformen wie Instagram, Tiktok, Youtube und andere sollen stärker in die Pflicht genommen werden. So soll der Staat durchsetzen, dass die Online-Plattformen Deepfakes schnell löschen. Es brauche Fachstellen, die Opfern von Deepfakes helfen. Grundsätzlich kommen die geltenden straf- und zivilrechtlichen Bestimmungen zur Anwendung – wie Ehrverletzung, Betrug, Identitätsklau oder der Schutz von Persönlichkeitsrechten. Darüber hinaus brauche es vermehrt Ausbildung an den Schulen in Medien- und Informationskompetenz, damit Bürgerinnen und Bürger Deepfakes erkennen können. So soll verhindert werden, dass Menschen auf Deepfakes hereinfallen und diese auf den Social-Media-Kanälen noch weiter teilen. Ein Verbot dieser Technologien sei hingegen kein Thema. Es sei eine «typische Dual-Use-Anwendung», sagen die TA-Swiss-Vertreterinnen und -Vertreter. Sie könnten für Sinnvolles wie für Negatives eingesetzt werden.

Die Highlights der Woche im «Echo»-Newsletter

Box aufklappen Box zuklappen

Wer das «Echo der Zeit» nicht jeden Tag hören kann, dem bietet der wöchentliche Newsletter am Samstag die Highlights zum Nachhören. Ausserdem gibt er einen Einblick in den Redaktionsalltag. Abonnieren Sie den «Echo der Zeit»-Newsletter jetzt hier .

Echo der Zeit, 18.06.2024, 18 Uhr;

Meistgelesene Artikel