Die militärische Robotik entwickelt sich in rasantem Tempo. Innerhalb der nächsten 20 Jahre wird der stählerne Soldat in allen modernen Armeen dieser Erde Einzug halten. Darin sind sich Beobachter der Rüstungsszene einig. Befürworter dieser kriegstechnologischen Revolution versprechen, der Krieg der Maschinen schütze das Leben von Armeeangehörigen. Skeptiker befürchten, dass stattdessen Zivilisten einen immer höheren Blutzoll bezahlen werden.
Killer-Roboter entscheiden selbst, ob sie töten
Im Rahmen der Kampagne «Stop Killer Robots» rufen nun gegen 300 Wissenschaftler, Ingenieure, Robotik-Experten und Fachleute für Künstliche Intelligenz zu einem Verbot dieser Waffengattung auf. Sie sind besorgt, dass zunehmend autonom operierende Waffensysteme mit ihren Entscheiden das menschliche Verantwortungsgefühl untergraben könnten. So brauchen Drohnen noch immer ein menschliches OK, bevor sie schiessen. Killer-Roboter hingegen werden selbständig entscheiden, ob sie töten.
Bereits heute sind halbautonome Vorstufen solcher Roboter im Einsatz. Südkorea setzt an der Grenze zu Nordkorea beispielsweise ein kleines, kettenbetriebenes Fahrzeug ein, das einen bestimmten Bereich in der entmilitarisierten Zone überwacht. Es ist in der Lage automatisch zu schiessen, wenn ein Mensch diesen Bereich betritt. Es soll auch die Fähigkeit haben, bestimmte menschliche Gesten zu identifizieren, zum Beispiel, wenn jemand die Hände hebt, um sich zu ergeben.
Künftige voll-autonome Waffensysteme werden noch weit agiler sein. Ein Killer-Roboter wird zum Beispiel vollkommen selbständig eine kleine Verwerfung am Boden als menschliche Fussspur identifizieren können, dieser folgen, das Haus, zu der sie führt, als Unterschlupf eines gegnerischen Anführers erkennen und zuschlagen. Ist der Roboter einmal aktiviert, braucht es kein menschliches Zutun mehr. Die Maschine wird alle weiteren Entscheide selber fällen.
Killer-Roboter kennen das Gesetz nicht
Die Unterzeichnenden der Kampagne «Stopp Killer Robots» zweifeln an der Qualität und Kontrollierbarkeit solcher selbständiger Entscheide durch Killer-Roboter. Ob ein Roboter sein Ziel korrekt identifizieren, die aktuelle Situation ausreichend einschätzen und seine Kraft angemessen einsetzen könne, sei zum heutigen Zeitpunkt mehr als fraglich. Die Wissenschaftler glauben auch nicht, dass sich autonome Tötungsmaschinen, den Gesetzen entsprechend verhalten könnten.
Videos zum Thema
Mit diesen Bedenken sind sie nicht allein. Die meisten Völkerrechtsexperten halten den Einsatz von autonomen Tötungssystemen für rechtswidrig. Das Töten ohne menschliches Zutun widerspricht auch dem humanitären Völkerrecht. Zu diesem Schluss kommt auch der südafrikanische Rechtsexperte Christof Heyns, der zuhänden des UNO-Menschenrechtsrates einen Bericht über autonome Tötungssysteme verfasst hat. Heyns schlägt dem Rat ein weltweites Moratorium für die Entwicklung und den Einsatz von Killer-Robotern vor. Der UNO-Menschenrechtsrat diskutiert am 29. Mai in Genf ein erstes Mal über den Report.
Die Befürworter eines Moratoriums oder Verbots von Killer-Robotern – dazu gehören auch Nichtregierungsorganisationen wie «Human Rights Watch» – hoffen, mit ihrer Kritik einen ähnlichen Prozess anstossen zu können wie seinerzeit die Internationale Kampagne für das Verbot von Antipersonenminen. Diese mündete bereits sechs Jahre nach ihrer Initiierung 1997 in die Ottawa-Konvention. Diesen völkerrechtlichen Vertrag haben mittlerweile 161 Staaten unterschreiben.