Seit sechs Monaten herrscht Krieg im Gazastreifen. Israel reagiert mit aller Härte auf das Hamas-Massaker vom 7. Oktober – und hat daraus auch nie einen Hehl gemacht. Schon in den ersten Kriegstagen sprach der Chef der israelischen Luftwaffe von «unerbittlichen Luftschlägen – und das rund um die Uhr». Und fügte an: «Wir gehen nicht chirurgisch vor.»
Die Tötung ausländischer Helfer und die hohe Zahl ziviler Opfer in Gaza sorgt zunehmend für Kritik an der israelischen Kriegsführung. Sogar die USA, der wichtigste Verbündete Israels, erheben den Mahnfinger. Israel betont, dass die Mitarbeitenden einer Hilfsorganisation wegen einer falschen Identifizierung als Ziele ausgewählt wurden. Doch wie wählt Israel seine Ziele im Gaza-Krieg überhaupt aus?
Gemäss Recherchen des britischen «Guardian» setzt Israel vermehrt auf Systeme, die künstliche Intelligenz nutzen. Im Fokus steht dabei die KI-Plattform «The Gospel» (dt. das Evangelium). Sie wird vom israelischen Militär genutzt, um grosse Datenmengen schnell zu analysieren und potenzielle Angriffsziele zu identifizieren.
«Diese Ziele können etwa einzelne Kämpfer, Ausrüstung wie Raketenwerfer oder Einrichtungen wie Hamas-Kommandoposten sein», erklärt Anselm Küsters. Er leitet den Fachbereich Digitalisierung und Neue Technologien am Centrum für Europäische Politik in Berlin. Küsters hat sich vertieft mit dem Einsatz von KI in Kriegen auseinandergesetzt.
Eine KI, die eigenständig menschliche Ziele verfolgt und diese zur Eliminierung vorschlägt: Das klingt ebenso futuristisch wie furchteinflössend. «Dieser Krieg wird ein Meilenstein sein, wenn die israelische Armee KI auf bedeutende Weise einsetzt, um über Leben und Tod zu entscheiden», sagte denn auch ein ehemaliger Sicherheitsberater des Weissen Hauses gegenüber dem «Guardian». «Andere Staaten schauen nach Gaza und werden lernen.»
-
Bild 1 von 2. Israelische Militärangehörige geben gegenüber dem «Guardian» an, dass «Gospel» quasi aus der Not geboren sei: Nach früheren Luftangriffen in Gaza gingen den Israeli bald die Ziele aus, weil sich Kämpfer in Tunneln und Wohngebäuden versteckten. Nun wird ihr mutmasslicher Aufenthaltsort auch mittels KI eruiert – und die Israeli schlagen zu. Bildquelle: Anadolu via Getty Images/Dawoud Abo Alkas.
-
Bild 2 von 2. Im Krieg in Gaza ist unklar, wie viele der Ziele das israelische Militär allein mittels KI generiert. Ob ihr Einsatz die Zahl der zivilen Opfer erhöht oder gesenkt hat, lässt sich für Experte Küsters nicht eindeutig beurteilen. Bildquelle: Keystone/AP/ARIEL SCHALIT.
Die hohen Opferzahlen im Gazastreifen ergeben sich aber auch daraus, dass die Hamas Zivilisten als menschliche Schutzschilde missbrauche, stellt Küsters klar: «Der Einsatz von KI durch Israel muss zudem vor dem Hintergrund des Massakers vom 7. Oktober verstanden werden. Die Bedrohung durch die Hamas soll beseitigt und Geiseln sollen gerettet werden.»
Es ist ein Irrglaube, dass eine Kombination von Mensch und Maschine für eine sichere Anwendung ausreicht.
Gleichzeitig sieht er den Einsatz von KI zu Tötungszwecken kritisch. Denn KI-Algorithmen seien «notorisch fehleranfällig»: Sie liefern Ergebnisse auf Basis von Statistiken und historischen Daten – und diese seien in schnell wandelnden Kontexten wie einem Krieg oft nicht akkurat. «Es gibt daher gute Gründe zu bezweifeln, ob eine KI jemals in der Lage sein wird, mit hundertprozentiger Sicherheit zwischen militärischen und zivilen Zielen zu unterscheiden.»
Tötet die KI bald selbst?
Die KI-Systeme, die Israel nutzt, operieren nicht autonom: Am Ende entscheidet ein Mensch, ob ein Ziel angegriffen wird. Die schiere Menge an Daten, die die KI zur Verfügung stellt, könne Militärangehörige aber auch unter Druck setzen – und zu blindem Vertrauen in die Technik führen, schätzt Küsters: «Es ist ein Irrglaube, dass eine Kombination von Mensch und Maschine für eine sichere Anwendung ausreicht.»
Experten warnen vor einem Schreckensszenario: KI-Waffensysteme, die auch selber töten. Für Küsters könnte das schon bald traurige Realität werden: «Wir nähern uns einer neuen Phase von Krieg an, bei der Gaza und auch die Ukraine als Testlabor fungieren.»