Die «Killer-Roboter» sind bereits im Anmarsch. Die Kriegsmaschinen, die derzeit an Universitäten und in Rüstungsfirmen Gestalt annehmen, werden mehr und mehr auf Autonomie getrimmt. Das sagt der US-Politwissenschaftler Peter W. Singer. Er leitet den Washingtoner Brookings-Thinktank für Sicheheit im 21. Jahrhundert und ist einer der profundesten Kenner dieser Szene.
In einem 3-Sat-Gespräch charakterisiert Singer die modernen Drohnen-Kriege als Vorhut der robotischen Revolution. Ferngesteuerte Drohnen bräuchten noch ein menschliches «Okay», bevor sie auf etwas schiessen. Autonome Killer-Roboter hingegen würden sich ihre Ziele selber suchen und selbständig entscheiden, ob sie einen Menschen töten, ein Gebäude angreifen oder eine Maschine zerstören, so Singer.
Systeme in Forschung und Praxis
Besonders an Universitäten in den USA und in europäischen Rüstungskonzernen wird an solchen autonomen Waffensystemen gearbeitet. Dasselbe dürfte auch für China und Russland gelten.
Es seien bereits halbautonome Vorstufen solcher Killer-Roboter im Einsatz, sagt Marcel Dickow, Rüstungsexperte der Stiftung Wissenschaft und Politik in Berlin: «Es gibt bereits Systeme, die zum Beispiel von Südkorea an der Grenze zu Nordkorea eingesetzt werden.» Das kleine kettenbetriebene Fahrzeug überwacht einen bestimmten Bereich und ist in der Lage, automatisch zu schiessen, wenn ein Mensch diesen Bereich betrifft. «Es soll auch in der Lage sein, bestimmte menschliche Gesten zu identifizieren. Also zum Beispiel die Geste, wenn jemand die Hände hebt, um sich zu ergeben.»
Künftige vollautonome Waffensysteme werden noch weit agiler sein. Ein Killer-Roboter wird, ist er erst einmal aktiviert, beispielsweise vollkommen selbständig eine kleine Verwerfung am Boden als menschliche Fussspur identifizieren können und dieser folgen. Das Haus zu der sie führt, kann er als Unterschlupf eines gegnerischen Anführers identifizieren und zuschlagen, sagt Singer. Hier bahne sich eine kriegstechnologische Revolution an, wie sie seit der Erfindung des Schiesspulvers und der Entwicklung der Atombombe nicht mehr stattgefunden habe.
«Dull, dirty or dangerous»
Die robotischen Hightech-Krieger werden gezielt für langweilige, schmutzige und gefährliche Jobs konstruiert. «For jobs that are dull, dirty or dangerous», wie Peter W. Singer erklärt. Das heisst man braucht sie für monotone Beobachtungaufgaben, Einsätze in unwirtlichen Gegenden und gefährlichen Situationen.
Wie rasant sich die Rüstungstechnologie derzeit entwickelt, und wie dramatisch sich die Bereitschaft, diese einzusetzen, verändert hat, zeigt die jüngste Vergangenheit. Noch vor fünf Jahren war auf irakischem Boden kein einziges unbemanntes Waffensystem im Einsatz. Heute sind es bereits deren 12'000 – vor allem zur Geschossabwehr. Ein Trend, vor dem Experten wie Singer und Dickow warnen. Je autonomer die Waffen, desto tiefer sinke die Kriegsschwelle.
Das zeigen etwa die Antiterror-Drohnenkriege der USA in Pakistan, Jemen und Somalia, wie Dickow ausführt: «Die Drohnen ermöglichen einen Krieg im Stillen, im Verborgenen. Das ist der Grund, wieso so ein Krieg geführt wird. Insofern gibt es Indizien dafür, dass die Hemmschwelle zum Gewalteinsatz tatsächlich sinkt.»
Traum vom mitfühlenden Roboter
Robotern fehlen zwar typische menschliche Regungen wie Panik, Angst, Wut, Rachegefühle oder Vorurteile. Doch es fehlen ihnen eben auch menschliche Fähigkeiten wie Mitgefühl – eine Voraussetzung für das Verstehen von Menschenrechten. Solches zu programmieren sei unmöglich und der Traum vom ethischen Roboter ein Trugschluss, sagt Singer. Die Genfer Konvention, das humanitäre Völkerrecht seien zu komplex.
Singer fragt: «Wie sollte sich ein Roboter entscheiden, wenn sich ein Heckenschütze hinter unschuldigen Frauen und Kindern verbirgt? Was, wenn in einem Ambulanzfahrzeug neben verletzten Zivilisten auch Minen transportiert werden?» Darauf gebe es keine perfekte, richtige oder falsche Antwort – ein ethisches Dilemma, das selbst Menschen überfordert – und erst recht Maschinen.