Seit sechs Monaten herrscht Krieg im Gazastreifen. Israel reagiert mit aller Härte auf das Hamas-Massaker vom 7. Oktober – und hat daraus auch nie einen Hehl gemacht. Schon in den ersten Kriegstagen sprach der Chef der israelischen Luftwaffe von «unerbittlichen Luftschlägen – und das rund um die Uhr». Und fügte an: «Wir gehen nicht chirurgisch vor.»
Die
Tötung ausländischer Helfer
und die hohe Zahl ziviler Opfer in Gaza sorgt zunehmend für Kritik an der israelischen Kriegsführung. Sogar die USA, der wichtigste Verbündete Israels, erheben den Mahnfinger. Israel betont, dass die Mitarbeitenden einer Hilfsorganisation wegen einer falschen Identifizierung als Ziele ausgewählt wurden. Doch wie wählt Israel seine Ziele im Gaza-Krieg überhaupt aus?
Netanjahu: Zahl der zivilen Opfer gesunken
Box aufklappenBox zuklappen
Der israelische Premierminister Benjamin Netanjahu erklärte zuletzt, dass zivile Opfer beim Krieg in Gaza unvermeidlich seien. Die Armee versuche aber, die Zahl so niedrig wie möglich zu halten. Im
Interview mit dem deutschen Kriegsreporter Paul Ronzheimer
sagte Netanjahu, dass Israels Armee «mindestens 13’000 Terroristen» in Gaza getötet habe. «Die Zahl der zivilen Opfer lag vermutlich bei einem Verhältnis von 1.5 zu 1. Jetzt ist es nur noch 1 zu 1.»
Der israelische Regierungschef meinte damit das Verhältnis zwischen getöteten Terroristen und getöteten Zivilisten – und dass zu Beginn wegen intensiver Luftschläge mehr Zivilisten starben als in der aktuellen Phase mit mehr Bodeneinsätzen. Gleichzeitig bezichtigte Netanjahu die westliche Öffentlichkeit und Politik der Doppelmoral: In Kriegen wie in Syrien, Jemen oder im Irak sei der zivile Blutzoll ungleich höher gewesen als in Gaza – der Aufschrei darüber sei jedoch ausgeblieben.
Im Gazastreifen sind nach Angaben der von der Hamas kontrollierten palästinensischen Behörden seit Beginn der israelischen Offensive 32'975 Menschen getötet worden. Rund 75'577 Menschen seien verletzt worden (Stand: 3. April).
Gemäss
Recherchen des britischen «Guardian»
setzt Israel vermehrt auf Systeme, die künstliche Intelligenz nutzen. Im Fokus steht dabei die KI-Plattform «The Gospel» (dt. das Evangelium). Sie wird vom israelischen Militär genutzt, um grosse Datenmengen schnell zu analysieren und potenzielle Angriffsziele zu identifizieren.
«Diese Ziele können etwa einzelne Kämpfer, Ausrüstung wie Raketenwerfer oder Einrichtungen wie Hamas-Kommandoposten sein», erklärt Anselm Küsters. Er leitet den Fachbereich Digitalisierung und Neue Technologien am Centrum für Europäische Politik in Berlin. Küsters hat sich vertieft mit dem Einsatz von KI in Kriegen auseinandergesetzt.
So werden die KI-Systeme im Krieg eingesetzt
Box aufklappenBox zuklappen
KI-Systeme können beispielsweise Informationen aus den sozialen Medien aggregieren, bei der Zielanvisierung helfen oder Truppen und Fahrzeuge durch das Kriegsgebiet lotsen. Israel nutzt laut Küsters auch Gesichtserkennungsprogramme zur Identifizierung von Verdächtigen. Oft stammten die KI-Programme von Start-ups, die sich auf spezifische Bereiche der Informationsgewinnung spezialisiert haben.
Dabei werden riesige Datenmengen zusammengetragen. Die israelischen KI-Systeme beruhen laut dem Experten vermutlich nicht nur auf Handyüberwachung, sondern auch auf Satellitenbildern, Drohnenaufnahmen und sogar seismischen Sensoren. Sie verbinden sich zu einem Gesamtbild, wo sich Individuen und Gruppen mutmasslich aufhalten.
Laut dem britischen «Guardian» sollen israelische Militärs «Gospel» mit einer Fabrik vergleichen, die fortwährend potenzielle Angriffsziele hervorbringt. Küsters illustriert diese tödliche Effizienz: Früher habe sich das israelische Militär auf grössere Gruppen von Beamten gestützt, die innerhalb eines Jahres rund 50 bis 100 Angriffsziele vorschlugen. Die KI-Plattform «The Gospel» könne dagegen innerhalb von 10 bis 12 Tagen 200 Ziele eruieren.
Eine KI, die eigenständig menschliche Ziele verfolgt und diese zur Eliminierung vorschlägt: Das klingt ebenso futuristisch wie furchteinflössend. «Dieser Krieg wird ein Meilenstein sein, wenn die israelische Armee KI auf bedeutende Weise einsetzt, um über Leben und Tod zu entscheiden», sagte denn auch ein ehemaliger Sicherheitsberater des Weissen Hauses gegenüber dem «Guardian». «Andere Staaten schauen nach Gaza und werden lernen.»
Die hohen Opferzahlen im Gazastreifen ergeben sich aber auch daraus, dass die Hamas Zivilisten als menschliche Schutzschilde missbrauche, stellt Küsters klar: «Der Einsatz von KI durch Israel muss zudem vor dem Hintergrund des Massakers vom 7. Oktober verstanden werden. Die Bedrohung durch die Hamas soll beseitigt und Geiseln sollen gerettet werden.»
Es ist ein Irrglaube, dass eine Kombination von Mensch und Maschine für eine sichere Anwendung ausreicht.
Gleichzeitig sieht er den Einsatz von KI zu Tötungszwecken kritisch. Denn KI-Algorithmen seien «notorisch fehleranfällig»: Sie liefern Ergebnisse auf Basis von Statistiken und historischen Daten – und diese seien in schnell wandelnden Kontexten wie einem Krieg oft nicht akkurat. «Es gibt daher gute Gründe zu bezweifeln, ob eine KI jemals in der Lage sein wird, mit hundertprozentiger Sicherheit zwischen militärischen und zivilen Zielen zu unterscheiden.»
Tötet die KI bald selbst?
Die KI-Systeme, die Israel nutzt, operieren nicht autonom: Am Ende entscheidet ein Mensch, ob ein Ziel angegriffen wird. Die schiere Menge an Daten, die die KI zur Verfügung stellt, könne Militärangehörige aber auch unter Druck setzen – und zu blindem Vertrauen in die Technik führen, schätzt Küsters: «Es ist ein Irrglaube, dass eine Kombination von Mensch und Maschine für eine sichere Anwendung ausreicht.»
Experten warnen vor einem Schreckensszenario: KI-Waffensysteme, die auch selber töten. Für Küsters könnte das schon bald traurige Realität werden: «Wir nähern uns einer neuen Phase von Krieg an, bei der Gaza und auch die Ukraine als Testlabor fungieren.»
Ringen um Verbot von «Killerrobotern»
Box aufklappenBox zuklappen
«Killerroboter» sind keine Science-Fiction mehr: Länder wie die USA, China und Russland experimentieren bereits mit autonomen Systemen wie Drohnenschwärmen. Die Regulierung von autonomen KI-Waffensystemen wird denn auch eine grosse Herausforderung für die internationale Gemeinschaft. Zivilgesellschaftliche Organisationen und auch die UNO bemühen sich seit Jahren um weltweit verbindliche Verbote.
Im aktuellen «geopolitischen Rennen um Technologie» sieht Experte Küsters derzeit aber nur geringe Erfolgschancen für einen globalen Konsens. Dieser sei aber dringend nötig: «Denn eines der zentralen Charakteristika dieser KI-Systeme ist, dass sie selbst lernen und sich bis zu einem gewissen Mass autonom generieren können. Die effektivste Weise, das von vornherein auszuschliessen, wäre eine Form von Ächtung.»
Die maximale Anzahl an Codes für die angegebene Nummer ist erreicht. Es können keine weiteren Codes erstellt werden.
Mobilnummer ändern
An diese Nummer senden wir Ihnen einen Aktivierungscode.
Diese Mobilnummer wird bereits verwendet
E-Mail bestätigen
Wir haben Ihnen ein E-Mail an die Adresse {* emailAddressData *} gesendet. Prüfen Sie bitte Ihr E-Mail-Postfach und bestätigen Sie Ihren Account über den erhaltenen Aktivierungslink.
Keine Nachricht erhalten?
Wenn Sie nach 10 Minuten kein E-Mail erhalten haben, prüfen Sie bitte Ihren SPAM-Ordner und die Angabe Ihrer E-Mail-Adresse.
Wir haben Ihnen ein E-Mail an die Adresse {* emailAddressData *} gesendet. Prüfen Sie bitte Ihr E-Mail-Postfach und bestätigen Sie Ihren Account über den erhaltenen Aktivierungslink.
Keine Nachricht erhalten?
Wenn Sie nach 10 Minuten kein E-Mail erhalten haben, prüfen Sie bitte Ihren SPAM-Ordner und die Angabe Ihrer E-Mail-Adresse.
Sie können sich nun im Artikel mit Ihrem neuen Passwort anmelden.
Ein neues Passwort erstellen
Wir haben den Code zum Passwort neusetzen nicht erkannt. Bitte geben Sie Ihre E-Mail-Adresse erneut ein, damit wir Ihnen einen neuen Link zuschicken können.
Ihr Account wurde deaktiviert und kann nicht weiter verwendet werden.
Wenn Sie sich erneut für die Kommentarfunktion registrieren möchten, melden Sie sich bitte beim Kundendienst von SRF.