Die dritte Revolution
Der Robotiker Ronald C. Arkin, fotografiert von Philipp Baer. Ziel seiner Forschungen ist die Herstellung eines «künstlichen Gewissens».

Die dritte Revolution

Nach dem Schiesspulver und der Atombombe revolutionieren autonome Waffensysteme die Kriegsführung. Was können sie, und vor welche neuen ethischen Fragen stellen sie uns?

Wann ist ein Mensch ein Feind? Tödliche autonome Waffensysteme (Lethal Autonomous Weapon Systems, kurz: LAWS) identifizieren ihn anhand bestimmter Merkmale: etwa Aussehen, Bewegungsmuster oder Stimmerkennung. Sie erfassen ihre Ziele selbständig und zünden, ohne dass ein Mensch an der Entscheidung beteiligt ist. Einmal programmiert, navigieren LAWS autonom in ihrem Einsatzgebiet und steuern Maschinengewehre, Kanonen oder Raketen.

De facto begegnet man lernfähigen Waffensystemen dieser Art, von ihren Gegnern «Killerroboter» genannt, noch nicht. Oder zumindest sind es nach wie vor Menschen, die entscheiden, wann deren Waffen zum Einsatz kommen. In ferner Zukunft liegt das Eingangsszenario dennoch nicht: Rund neunzig Nationen verfügen zum heutigen Zeitpunkt über unbemannte Luftfahrzeuge oder Kriegsschiffe, beinahe dreissig über bewaffnete Drohnen. Russland besitzt mit dem Uran-9 einen autonomen Aufklärungspanzer und das US-Militär mit der Mikrodrohne Perdix fliegende Systeme, die aus Kampfflugzeugen abgeworfen werden, miteinander kommunizieren, sich koordinieren und eigenständig Aufträge erfüllen. Sie sollen laut Pentagon nur zu Aufklärungszwecken eingesetzt werden. Anders der SGR-A1: Der erste vollautomatische Kampfroboter der Welt bewacht seit 2013 koreanische Militärbasen. Und im Gegensatz zu bisherigen Selbstschussanlagen übernimmt das von Samsung entwickelte System die volle Funktion eines Soldaten: Es spürt dank Hochleistungskameras und Sensoren bewegliche Ziele in bis zu vier Kilometern Entfernung auf, erkennt Stimmen und Passwörter, unterscheidet zwischen Menschen und Tieren. Überschreitet eine Person unbefugt die Demarkationslinie und ergibt sich nicht, kann sie per Maschinengewehr oder Granatwerfer gestoppt werden. Auch das im Automatikmodus – noch erteilen allerdings Soldaten in einer Kommandozentrale den Schiessbefehl.

Sollen intelligente Maschinen töten dürfen?

Laut Kriegsvölkerrecht muss der Entscheid zur Verletzung oder Tötung im Gefecht von einem Menschen gefällt werden, der die Verantwortung für seine Handlung trägt – explizit verboten sind Kriegsroboter jedoch nirgends. Bei einem lernfähigen Waffensystem, das ohne menschliche Kontrolle agiert, wird allerdings selbst das Vorgesetztenprinzip obsolet, dem zufolge ein Befehlshaber für die Taten seiner Untergebenen zur Rechenschaft gezogen werden kann. Das betrifft besonders die sogenannten Kollateralschäden: «Angriffe sind streng auf militärische Ziele zu beschränken», heisst es in den Genfer Konventionen. Konfliktparteien müssen unnötige Zerstörungen und unnötiges Leid beim Gegner vermeiden und Zivilisten und verletzte, kampfunfähige oder gefangene Soldaten verschonen. Werden LAWS zuverlässig zwischen Soldaten und Zivilisten unterscheiden?

Es ist zu befürchten, dass das bei vielen nicht der Fall sein wird. 2015 haben deshalb über 1000 KI-Forscher in einem offenen Brief ein weltweites Verbot autonomer Waffensysteme gefordert; heute sind es bereits 4000 Unterschriften, unter ihnen auch die von Tech- und Kultur-Prominenten wie Elon Musk, Steve Wozniak, Stephen Hawking oder Noam Chomsky. Über ein Verbot berieten im August letzten Jahres auch diplomatische Vertreter aus 75 Ländern in Genf, allerdings ohne dass eine Einigung erzielt werden konnte. Insgesamt 22 Nationen befürworten die präventive Ächtung, viele weitere stimmen zu, dass die juristischen und ethischen Fragen, vor die uns diese Technologien stellen werden, dringend der Klärung bedürfen. Denn noch besteht nicht einmal Konsens in der Frage, was LAWS sind – und ob nur Systeme, die Menschen als Ziele erfassen können, oder ob autonome militärische KI per se verboten werden sollen. Gefährdet es die Würde eines Menschen grundsätzlich, wenn er den Entscheiden von Maschinen unterworfen wird? Zu diesen könnten nämlich in näherer Zukunft auch automatisierte Nachschubkonvois, Unterwasser- und Aufklärungsdrohnen oder luft- und landgestützte Mikroroboter in selbstorganisierenden Schwärmen gehören. Ob automatisierte Maschinenentscheidungen qualitativ schlechter oder besser sind als menschliche, ist in dieser Betrachtungsweise erst einmal irrrelevant. Unklar ist ebenfalls, wie eine menschliche Kontrollinstanz sinnvoll eingebunden werden kann, wenn der Zweck eines Waffensystems nicht in erster Linie in der Eliminierung feindlicher Truppen besteht, sondern in der automatisierten Abwehr wie beim israelischen «Iron Dome».

Einig sind sich die Gegner in ihren Befürchtungen: dass nämlich die Entwicklung dieser Systeme so rasant voranschreitet, dass sie bald…