Zum Inhalt springen

Gefährliche Manipulationen Desinformation mit Deepfakes: Zeigen, was gar nicht ist

Deepfakes können Hass schüren, Misstrauen wecken und kriegerische Konflikte auslösen oder verschärfen. Am Hauptsitz der UNO in New York widmet die Schweiz dem tückischen Phänomen eine Ausstellung.

Auch die Schweizer UNO-Botschafterin Pascale Baeriswyl war schon Opfer einer Deepfake-Manipulation: «Voriges Jahr wurde im Zusammenhang mit Haiti von mir in meiner Rolle als Sicherheits­rats­vorsitzende ein Fake-Video in Umlauf gebracht.» Die Folge: Vertrauen wurde erschüttert und musste wieder hergestellt werden.

Flyer der Ausstellung in New Yor
Legende: Bei Deepfakes werden Videos, Fotos und Audios raffiniert manipuliert und oft krass verfälscht. Die Schweiz hat derzeit den Vorsitz des UNO-Sicherheitsrat inne – und will auf die Gefahren des Phänomens aufmerksam machen. www.aplusforpeace.ch

Bildmanipulationen gab es indes schon in der Mitte des 19. Jahrhunderts. Auch das zeigt die von der Schweiz gemeinsam mit dem Internationalen Komitee vom Roten Kreuz IKRK und der ETH Lausanne präsentierte Ausstellung am UNO-Sitz in New York.

Wenn Deepfakes Konflikte anzetteln

Baeriswyl betont daher: «Es ist eigentlich kein neues Phänomen. Aber neue Technologien und künstliche Intelligenz haben das derart verbessert, beschleunigt und vereinfacht, dass im Grunde jede Rebellengruppe solche Manipulationen vornehmen kann.» Und das mit dramatischen Wirkungen: «Man kann damit in einem Konflikt Friedensbemühungen unterlaufen.» Oder sogar neue Konflikte anzetteln.

Mann vor blauem Hintergrund mit rotem 'FAKE'-Text.
Legende: Kurz nach Beginn der russischen Invasion in der Ukraine wurde die Webseite des ukranischen TV-Senders Ukrayina 24 gehackt – und ein Deepfake-Video hochgeladen, in dem Präsident Wolodimir Selenski die Kapulitation erklärte. Screenshot des Deep-Fake-Videos

Philippe Stoll vom IKRK spricht gar von mitunter «desaströsen Folgen für humanitäre Organisationen und ihre Angestellten in Kriegsgebieten». Das A und O humanitärer Arbeit ist das Vertrauen.

IKRK-Delegierte können nur sicher arbeiten, wenn alle Akteure in einem Konflikt und die Opfer überzeugt sind, dass Nothilfe gerecht erfolgt und Hilfsorganisationen nicht heimlich mit der einen oder anderen Seite kungeln. Ist das Vertrauen erschüttert, wird die Arbeit schwierig, mitunter unmöglich.

Es ist die Aufgabe des IKRK, das Kriegsvölkerrecht weiterzuentwickeln und, wo nötig – wie bei den Deepfakes –, neue Normen zu fordern.
Autor: Philippe Stoll Delegierte für Tech-Diplomatie beim IKRK

«Mit Desinformation erschüttern Kriegsparteien und ihre Anhänger genau dieses Vertrauen und versuchen so, humanitäre Organisationen wie das IKRK zu diskreditieren», sagt Stoll.

Das passiert in Grosskonflikten wie im Nahen Osten, in der Ukraine, aber durchaus nicht nur dort. Das Ergebnis ist Misstrauen. Das Thema ist extrem heikel, weshalb der IKRK-Vertreter keine konkreten Beispiele nennt.

Bislang gibt es kaum Regeln

Der Schweiz und das IKRK wollen jetzt Regierungen für die Problematik sensibilisieren. So solle das Bewusstsein geschaffen werden, dass es Regeln gegen Deepfakes brauche. Noch fehlen solche weitgehend. Dabei liefern das Recht auf Persönlichkeitsschutz oder das Recht am eigenen Bild zumindest Grundlagen.

«Es ist die Aufgabe des IKRK, das Kriegsvölkerrecht weiterzuentwickeln und, wo – wie bei den Deepfakes nötig –, neue Normen zu fordern», sagt Philippe Stoll. Entsprechende Gesetze beschliessen und durchsetzen, müssten indes die einzelnen UNO-Mitgliedstaaten.

Für ein internationales Regelwerk spricht sich auch UNO-Botschafterin Baeriswyl aus: «Gleichzeitig sollten wir die neuen Technologien zur Herstellung von Deepfakes auch zu deren Aufdeckung nutzen.» Und da könnte die Schweiz einen Beitrag leisten: «Die Idee ist, in Genf ein Kompetenzzentrum aufzubauen, gerade für internationale und humanitäre Organisationen.»

Deepfakes richten in zunehmendem Mass Schaden an. Immerhin scheint das Problem nun auch im Sicherheitsrat, dem mächtigsten UNO-Gremium, anzukommen.

Rendez-vous, 14.10.2024, 12:30 Uhr

Meistgelesene Artikel