Zum Inhalt springen

Tödliche Effizienz Krieg in Gaza: Die KI sucht das Ziel, der Mensch drückt ab

Recherchen zeigen, wie stark sich Israel bei seinen Angriffen auf künstliche Intelligenz stützt: Wird Gaza zum Labor für den Krieg der Zukunft?

Seit sechs Monaten herrscht Krieg im Gazastreifen. Israel reagiert mit aller Härte auf das Hamas-Massaker vom 7. Oktober – und hat daraus auch nie einen Hehl gemacht. Schon in den ersten Kriegstagen sprach der Chef der israelischen Luftwaffe von «unerbittlichen Luftschlägen – und das rund um die Uhr». Und fügte an: «Wir gehen nicht chirurgisch vor.»

Die Tötung ausländischer Helfer und die hohe Zahl ziviler Opfer in Gaza sorgt zunehmend für Kritik an der israelischen Kriegsführung. Sogar die USA, der wichtigste Verbündete Israels, erheben den Mahnfinger. Israel betont, dass die Mitarbeitenden einer Hilfsorganisation wegen einer falschen Identifizierung als Ziele ausgewählt wurden. Doch wie wählt Israel seine Ziele im Gaza-Krieg überhaupt aus?

Netanjahu: Zahl der zivilen Opfer gesunken

Box aufklappen Box zuklappen
Netanjahu spricht an einer Medienkonferenz in Tel Aviv
Legende: Laut dem israelischen Premierminister Benjamin Netanjahu (im Bild) sind zivile Opfer unumgänglich. Keystone/EPA/AP/OHAD ZWIGENBERG

Der israelische Premierminister Benjamin Netanjahu erklärte zuletzt, dass zivile Opfer beim Krieg in Gaza unvermeidlich seien. Die Armee versuche aber, die Zahl so niedrig wie möglich zu halten. Im Interview mit dem deutschen Kriegsreporter Paul Ronzheimer sagte Netanjahu, dass Israels Armee «mindestens 13’000 Terroristen» in Gaza getötet habe. «Die Zahl der zivilen Opfer lag vermutlich bei einem Verhältnis von 1.5 zu 1. Jetzt ist es nur noch 1 zu 1.»

Der israelische Regierungschef meinte damit das Verhältnis zwischen getöteten Terroristen und getöteten Zivilisten – und dass zu Beginn wegen intensiver Luftschläge mehr Zivilisten starben als in der aktuellen Phase mit mehr Bodeneinsätzen. Gleichzeitig bezichtigte Netanjahu die westliche Öffentlichkeit und Politik der Doppelmoral: In Kriegen wie in Syrien, Jemen oder im Irak sei der zivile Blutzoll ungleich höher gewesen als in Gaza – der Aufschrei darüber sei jedoch ausgeblieben.

Im Gazastreifen sind nach Angaben der von der Hamas kontrollierten palästinensischen Behörden seit Beginn der israelischen Offensive 32'975 Menschen getötet worden. Rund 75'577 Menschen seien verletzt worden (Stand: 3. April).

Gemäss Recherchen des britischen «Guardian» setzt Israel vermehrt auf Systeme, die künstliche Intelligenz nutzen. Im Fokus steht dabei die KI-Plattform «The Gospel» (dt. das Evangelium). Sie wird vom israelischen Militär genutzt, um grosse Datenmengen schnell zu analysieren und potenzielle Angriffsziele zu identifizieren.

Israelischer Luftangriff im Gazastreifen am 13. Mai 2021.
Legende: Die israelische Armee ist stolz auf ihre technologische Expertise. Bereits bei ihrer elftägigen Intervention vom Mai 2021 im Gazastreifen sprachen hochrangige Militärs vom «ersten KI-Krieg». Keystone/AP/Hatem Moussa

«Diese Ziele können etwa einzelne Kämpfer, Ausrüstung wie Raketenwerfer oder Einrichtungen wie Hamas-Kommandoposten sein», erklärt Anselm Küsters. Er leitet den Fachbereich Digitalisierung und Neue Technologien am Centrum für Europäische Politik in Berlin. Küsters hat sich vertieft mit dem Einsatz von KI in Kriegen auseinandergesetzt.

So werden die KI-Systeme im Krieg eingesetzt

Box aufklappen Box zuklappen

KI-Systeme können beispielsweise Informationen aus den sozialen Medien aggregieren, bei der Zielanvisierung helfen oder Truppen und Fahrzeuge durch das Kriegsgebiet lotsen. Israel nutzt laut Küsters auch Gesichtserkennungsprogramme zur Identifizierung von Verdächtigen. Oft stammten die KI-Programme von Start-ups, die sich auf spezifische Bereiche der Informationsgewinnung spezialisiert haben.

Dabei werden riesige Datenmengen zusammengetragen. Die israelischen KI-Systeme beruhen laut dem Experten vermutlich nicht nur auf Handyüberwachung, sondern auch auf Satellitenbildern, Drohnenaufnahmen und sogar seismischen Sensoren. Sie verbinden sich zu einem Gesamtbild, wo sich Individuen und Gruppen mutmasslich aufhalten.

Laut dem britischen «Guardian» sollen israelische Militärs «Gospel» mit einer Fabrik vergleichen, die fortwährend potenzielle Angriffsziele hervorbringt. Küsters illustriert diese tödliche Effizienz: Früher habe sich das israelische Militär auf grössere Gruppen von Beamten gestützt, die innerhalb eines Jahres rund 50 bis 100 Angriffsziele vorschlugen. Die KI-Plattform «The Gospel» könne dagegen innerhalb von 10 bis 12 Tagen 200 Ziele eruieren.

Eine KI, die eigenständig menschliche Ziele verfolgt und diese zur Eliminierung vorschlägt: Das klingt ebenso futuristisch wie furchteinflössend. «Dieser Krieg wird ein Meilenstein sein, wenn die israelische Armee KI auf bedeutende Weise einsetzt, um über Leben und Tod zu entscheiden», sagte denn auch ein ehemaliger Sicherheitsberater des Weissen Hauses gegenüber dem «Guardian». «Andere Staaten schauen nach Gaza und werden lernen.»

Die hohen Opferzahlen im Gazastreifen ergeben sich aber auch daraus, dass die Hamas Zivilisten als menschliche Schutzschilde missbrauche, stellt Küsters klar: «Der Einsatz von KI durch Israel muss zudem vor dem Hintergrund des Massakers vom 7. Oktober verstanden werden. Die Bedrohung durch die Hamas soll beseitigt und Geiseln sollen gerettet werden.»

Es ist ein Irrglaube, dass eine Kombination von Mensch und Maschine für eine sichere Anwendung ausreicht.
Autor: Anselm Küsters Centrum für Europäische Politik (cep) in Berlin

Gleichzeitig sieht er den Einsatz von KI zu Tötungszwecken kritisch. Denn KI-Algorithmen seien «notorisch fehleranfällig»: Sie liefern Ergebnisse auf Basis von Statistiken und historischen Daten – und diese seien in schnell wandelnden Kontexten wie einem Krieg oft nicht akkurat. «Es gibt daher gute Gründe zu bezweifeln, ob eine KI jemals in der Lage sein wird, mit hundertprozentiger Sicherheit zwischen militärischen und zivilen Zielen zu unterscheiden.»

Tötet die KI bald selbst?

Die KI-Systeme, die Israel nutzt, operieren nicht autonom: Am Ende entscheidet ein Mensch, ob ein Ziel angegriffen wird. Die schiere Menge an Daten, die die KI zur Verfügung stellt, könne Militärangehörige aber auch unter Druck setzen – und zu blindem Vertrauen in die Technik führen, schätzt Küsters: «Es ist ein Irrglaube, dass eine Kombination von Mensch und Maschine für eine sichere Anwendung ausreicht.»

Pro-russischer Kämpfer steuert Minenräumungsroboter in der Ukraine.
Legende: Für Küsters wirken die Kriege in Gaza und in der Ukraine wie «tragische Laboratorien» auf dem Weg zu KI, die selber tötet. Bild: Pro-russischer Kämpfer steuert Minenräumungsroboter in der Ukraine. Reuters

Experten warnen vor einem Schreckensszenario: KI-Waffensysteme, die auch selber töten. Für Küsters könnte das schon bald traurige Realität werden: «Wir nähern uns einer neuen Phase von Krieg an, bei der Gaza und auch die Ukraine als Testlabor fungieren.»

Ringen um Verbot von «Killerrobotern»

Box aufklappen Box zuklappen

«Killerroboter» sind keine Science-Fiction mehr: Länder wie die USA, China und Russland experimentieren bereits mit autonomen Systemen wie Drohnenschwärmen. Die Regulierung von autonomen KI-Waffensystemen wird denn auch eine grosse Herausforderung für die internationale Gemeinschaft. Zivilgesellschaftliche Organisationen und auch die UNO bemühen sich seit Jahren um weltweit verbindliche Verbote.

Im aktuellen «geopolitischen Rennen um Technologie» sieht Experte Küsters derzeit aber nur geringe Erfolgschancen für einen globalen Konsens. Dieser sei aber dringend nötig: «Denn eines der zentralen Charakteristika dieser KI-Systeme ist, dass sie selbst lernen und sich bis zu einem gewissen Mass autonom generieren können. Die effektivste Weise, das von vornherein auszuschliessen, wäre eine Form von Ächtung.»

SRF 4 News, 05.04.2024, 6:47 Uhr ; 

Meistgelesene Artikel