Die dritte Revolution
Der Robotiker Ronald C. Arkin, fotografiert von Philipp Baer. Ziel seiner Forschungen ist die Herstellung eines «künstlichen Gewissens».

Die dritte Revolution

Nach dem Schiesspulver und der Atombombe revolutionieren autonome Waffensysteme die Kriegsführung. Was können sie, und vor welche neuen ethischen Fragen stellen sie uns?

Wann ist ein Mensch ein Feind? Tödliche autonome Waffensysteme (Lethal Autonomous Weapon Systems, kurz: LAWS) identifizieren ihn anhand bestimmter Merkmale: etwa Aussehen, Bewegungsmuster oder Stimmerkennung. Sie erfassen ihre Ziele selbständig und zünden, ohne dass ein Mensch an der Entscheidung beteiligt ist. Einmal programmiert, navigieren LAWS autonom in ihrem Einsatzgebiet und steuern Maschinengewehre, Kanonen oder Raketen.

De facto begegnet man lernfähigen Waffensystemen dieser Art, von ihren Gegnern «Killerroboter» genannt, noch nicht. Oder zumindest sind es nach wie vor Menschen, die entscheiden, wann deren Waffen zum Einsatz kommen. In ferner Zukunft liegt das Eingangsszenario dennoch nicht: Rund neunzig Nationen verfügen zum heutigen Zeitpunkt über unbemannte Luftfahrzeuge oder Kriegsschiffe, beinahe dreissig über bewaffnete Drohnen. Russland besitzt mit dem Uran-9 einen autonomen Aufklärungspanzer und das US-Militär mit der Mikrodrohne Perdix fliegende Systeme, die aus Kampfflugzeugen abgeworfen werden, miteinander kommunizieren, sich koordinieren und eigenständig Aufträge erfüllen. Sie sollen laut Pentagon nur zu Aufklärungszwecken eingesetzt werden. Anders der SGR-A1: Der erste vollautomatische Kampfroboter der Welt bewacht seit 2013 koreanische Militärbasen. Und im Gegensatz zu bisherigen Selbstschussanlagen übernimmt das von Samsung entwickelte System die volle Funktion eines Soldaten: Es spürt dank Hochleistungskameras und Sensoren bewegliche Ziele in bis zu vier Kilometern Entfernung auf, erkennt Stimmen und Passwörter, unterscheidet zwischen Menschen und Tieren. Überschreitet eine Person unbefugt die Demarkationslinie und ergibt sich nicht, kann sie per Maschinengewehr oder Granatwerfer gestoppt werden. Auch das im Automatikmodus – noch erteilen allerdings Soldaten in einer Kommandozentrale den Schiessbefehl.

Sollen intelligente Maschinen töten dürfen?

Laut Kriegsvölkerrecht muss der Entscheid zur Verletzung oder Tötung im Gefecht von einem Menschen gefällt werden, der die Verantwortung für seine Handlung trägt – explizit verboten sind Kriegsroboter jedoch nirgends. Bei einem lernfähigen Waffensystem, das ohne menschliche Kontrolle agiert, wird allerdings selbst das Vorgesetztenprinzip obsolet, dem zufolge ein Befehlshaber für die Taten seiner Untergebenen zur Rechenschaft gezogen werden kann. Das betrifft besonders die sogenannten Kollateralschäden: «Angriffe sind streng auf militärische Ziele zu beschränken», heisst es in den Genfer Konventionen. Konfliktparteien müssen unnötige Zerstörungen und unnötiges Leid beim Gegner vermeiden und Zivilisten und verletzte, kampfunfähige oder gefangene Soldaten verschonen. Werden LAWS zuverlässig zwischen Soldaten und Zivilisten unterscheiden?

Es ist zu befürchten, dass das bei vielen nicht der Fall sein wird. 2015 haben deshalb über 1000 KI-Forscher in einem offenen Brief ein weltweites Verbot autonomer Waffensysteme gefordert; heute sind es bereits 4000 Unterschriften, unter ihnen auch die von Tech- und Kultur-Prominenten wie Elon Musk, Steve Wozniak, Stephen Hawking oder Noam Chomsky. Über ein Verbot berieten im August letzten Jahres auch diplomatische Vertreter aus 75 Ländern in Genf, allerdings ohne dass eine Einigung erzielt werden konnte. Insgesamt 22 Nationen befürworten die präventive Ächtung, viele weitere stimmen zu, dass die juristischen und ethischen Fragen, vor die uns diese Technologien stellen werden, dringend der Klärung bedürfen. Denn noch besteht nicht einmal Konsens in der Frage, was LAWS sind – und ob nur Systeme, die Menschen als Ziele erfassen können, oder ob autonome militärische KI per se verboten werden sollen. Gefährdet es die Würde eines Menschen grundsätzlich, wenn er den Entscheiden von Maschinen unterworfen wird? Zu diesen könnten nämlich in näherer Zukunft auch automatisierte Nachschubkonvois, Unterwasser- und Aufklärungsdrohnen oder luft- und landgestützte Mikroroboter in selbstorganisierenden Schwärmen gehören. Ob automatisierte Maschinenentscheidungen qualitativ schlechter oder besser sind als menschliche, ist in dieser Betrachtungsweise erst einmal irrrelevant. Unklar ist ebenfalls, wie eine menschliche Kontrollinstanz sinnvoll eingebunden werden kann, wenn der Zweck eines Waffensystems nicht in erster Linie in der Eliminierung feindlicher Truppen besteht, sondern in der automatisierten Abwehr wie beim israelischen «Iron Dome».

Einig sind sich die Gegner in ihren Befürchtungen: dass nämlich die Entwicklung dieser Systeme so rasant voranschreitet, dass sie bald auch Terroristen und Kriminellen zugänglich sind. Zugleich konzentriert sich aber die militärische Macht in wenigen Händen, wenn kaum mehr menschliches Personal für kriegerische Konflikte benötigt wird.

Zwei klare Fronten

Für ein absolutes Verbot autonomer militärischer Systeme setzt sich vor allem die Internationale Kampagne gegen Killerroboter ein, gestützt von Gruppierungen, die bereits ein kriegsrechtliches Verbot von Landminen und Streubomben erreicht haben. Sie postulieren, dass autonome Waffen automatisch die Schwelle für kriegerische Konflikte senken und zu Massenvernichtungsmitteln werden könnten, im schlimmsten Fall: als wildgewordene Killerroboter durch die Lande ziehen. Dass Maschinen überhaupt einen Menschen töten, stellt eine moralische Grenze dar, die sie nicht überschritten sehen wollen.

Das opponierende Lager bilden die Grossmächte USA, China und Russland; aber auch Südkorea und Israel wollen sich in ihrer Waffenentwicklung nicht einschränken lassen. Offiziell mit der Begründung, LAWS würden weniger militärische, vor allem aber weniger zivile Opfer zur Folge haben; zudem würden die meisten autonomen KI-Systeme nur «Drecksarbeiten» erledigen wie das Räumen von Minen, monotone Patrouillen und Wachdienste oder den Transport schwerer Lasten.

Einen dritten Ansatz verfolgt Ronald C. Arkin. Der Robotiker und Professor am Georgia Institute of Technology entwickelt intelligente Systeme, die als Waffen eingesetzt werden können. Vor allem aber ist er Maschinenethiker. Das heisst, das Ziel seiner Forschungen ist die Herstellung eines «künstlichen Gewissens», also einer künstlichen Intelligenz, die in militärischen Einsätzen gemäss ethischen Prinzipien und rechtlichen Regelungen handelt. Er kritisiert die Unsachlichkeit der Debatte um autonome KI-Systeme: kaum ein Artikel zu diesem Thema ohne ein Bild vom «Terminator». Und wenn man sich nicht einmal auf eine Terminologie einigen könne, erziele man auch keine Fortschritte: «Ich weiss, was ein Verbot ist, aber was sind ‹Killerroboter›? Jeder hat eine andere Vorstellung davon, was da verboten werden sollte. Ich bevorzuge ein Moratorium. Wir sollten zudem jeweils über spezifische Systeme sprechen: Skizzieren Sie es und ich sage Ihnen, ob es meiner Meinung nach verboten oder reguliert werden sollte.» Gleichzeitig sagt er auch: Tödliche autonome Systeme werden unvermeidbar Realität werden. Arkins eigenes Ziel besteht darin, LAWS zu entwickeln, die Zivilisten besser schützen als menschliche Soldaten und die Menschenrechte re-spektieren. Verantwortlich für ihre Taten werden allerdings auch diese nicht sein: «Kein Robotiker mit Selbstachtung geht heute davon aus, dass Roboter bald die Verantwortung für das tragen werden, was sie tun. Diese Systeme mögen intelligent sein, aber sie sind nicht bewusst, nicht empfindungs- und nicht schuldfähig. Sie besitzen in ethischer Hinsicht keine menschliche Äquivalenz.»

Makellose Helden

KI befolgen Regeln – im Gegensatz zu Menschen – allerdings zuverlässig. In einem aktuellen Jagdflieger ist der menschliche Insasse unweigerlich das langsamste und störungsanfälligste Glied. So wie selbstfahrende Autos prinzipiell ein höheres Sicherheitslevel versprechen als Menschen hinter dem Steuer, sind KI selbst in Kriegssituationen nicht anfällig für Stress, Müdigkeit, Fehleinschätzungen oder unethisches Verhalten. Der perfekte Soldat, hiess es bisher abschätzig, sei eine Maschine – gehorsam, unermüdlich, skrupellos und angstfrei. Gut möglich, dass die Liste bald um einige positiver konnotierte Prädikate ergänzt werden muss. Denn: Noch vor einigen Jahrhunderten bedeuteten Kriege das unmittelbare körperliche Aufeinandertreffen mit einem menschlichen Kontrahenten. Zusammen mit der Reichweite unserer Waffen nahm seither die körperliche und psychologische Distanz zwischen den einzelnen Kriegsteilnehmern zu, insofern hat Technologie die Kriegsführung grundlegend umgekrempelt. Es ist nicht länger undenkbar, dass KI etwaige künftige Kriege zuvorderst eines machen: weniger leidvoll.

Dennoch lösen sie häufig ein intuitives Unbehagen aus, das auf dem völligen Verschwinden dieses ursprünglichen Zweikampfcharakters fusst; ersetzt wird dieser durch die tendenzielle Unsichtbarkeit und Unverwundbarkeit von Parteien, die ihre Kämpfe mit immer komplexeren und effizienteren Geräten austragen. Politologen wie Herfried Münkler warnen allerdings auch vor simplizistischer Nostalgie: In der Kritik am Einsatz halbautonomer Waffen äussere sich die Ethik einer vorbürgerlichen Gesellschaft, die sich vormache, nach wie vor nach heroischen Idealen zu leben. Im Grunde aber hätten bereits Schiesspulver und Feuergewehre dieses Ethos aufgelöst. Unbezweifelbar vergrössern vollautonome Systeme die zeitliche und kausale Distanz zwischen einer Handlung und ihren Konsequenzen massiv. Wenn wir sie selbständig und ohne Aufsicht agieren lassen, sollten wir uns davor hüten, uns auch innerlich von ihnen zu distanzieren – so als könnten wir bald auch die Ethik selbst an die Technik abgeben.

«Der perfekte Soldat, hiess es bisher abschätzig,

sei eine Maschine – gehorsam, unermüdlich, skrupellos und angstfrei.

Gut möglich, dass die Liste bald um einige positiver konnotierte Prädikate ergänzt werden muss.»

Neben einem Faible für Gewalt und Kriege selbst scheinen wir eines dafür zu besitzen, deren Ausführung zu regulieren. Seit Tausenden von Jahren denken Philosophen darüber nach, wie wir auf dem Schlachtfeld töten, seit immerhin Hunderten von Jahren wird kodifiziert, was während dieses Prozederes akzeptabel ist und was nicht. Dass wir das Töten nur in «zivilisierter» Weise dulden, geht dabei unter anderem auf Augustin und die Kriegstheorie des Mittelalters zurück. Und bei der Kriegsführung ist paradoxerweise gelungen, was bei ethischen Problemen wie der Todesstrafe, Abtreibungen oder sogar dem Rauchen in der Öffentlichkeit bislang nicht der Fall ist: Man hat sich international darauf geeinigt, dass belangt werden kann, wer Zivilisten foltert oder ermordet.

Immerhin besteht, falls sich das Zerstörungspotenzial durch autonome Waffensysteme weltweit symmetrisch erhöht, die Chance, dass wir einander, wie beim Atomwaffenpatt, gegenseitig vom Schlimmsten abhalten. Wenn das Rüstungsunternehmen Kalaschnikow heute an Gefechtsdrohnen arbeitet, die autonom feuern, ist es möglicherweise nicht das grösste aller denkbaren Übel, wenn andere dasselbe tun. Dennoch: Meist wurden neue Militärtechnologien auch mit verheerenden Folgen eingesetzt, so etwa das deutsche Maschinengewehr Parabellum MG 14 (abgeleitet aus dem römischen Sprichwort: «Si vis pacem para bellum», «Willst du Frieden, dann bereite dich zum Krieg»). Sowohl die USA als auch die Sowjetunion erhielten während des Kalten Krieges Falschmeldungen durch ihre Frühwarnsysteme, die nur dank der vernünftigen Abwägung von Einzelpersonen nicht in einem Gegenangriff endeten. Günther Anders, bei dem die Abwürfe von Atombomben auf Hiroshima und Nagasaki einen tiefen Eindruck hinterliessen, befürchtete für die Zukunft ein «prometheisches Gefälle»: Der Mensch und die von ihm geschaffenen komplexen Geräte würden in ihrer Leistungsfähigkeit immer weiter auseinanderdriften, bis uns nichts anderes zu tun bleibe, als «wie verstörte Saurier zwischen unseren Geräten herumzulungern».

Das Lügnerparadox

Terminatoren sind vermutlich dennoch keines der grossen Probleme, mit denen wir uns in Zukunft herumschlagen werden. Diese könnten viel subtilerer Natur sein: «Jede Kriegsführung beruht auf Täuschung», schrieb der chinesische Philosoph und General Sun Tzu in seinem Handbuch «Die Kunst des Krieges», das noch heute von Managern und Militärstrategen auf der ganzen Welt zitiert wird. Die oberste Maxime Sun Tzus ist der Sieg ohne Gefecht, also allein durch Täuschung des Feindes – andernfalls dessen nachhaltige Vernichtung mit allen zur Verfügung stehenden Mitteln. Vom Trojanischen Pferd bis zum D-Day finden sich Täuschungsstrategien in der gesamten Kriegshistorie der Menschheit, und eine wichtige Frage könnte heute lauten: Sollen militärische KIs täuschen und lügen dürfen, um Feinde in die Irre zu führen, der Zerstörung zu entgehen, Ressourcen zu verstecken oder Informationen zu schützen?

In ihrem Kern betrifft diese Frage nicht nur Militärroboter. Gerade bei sozialen KIs wie Hilfs- oder Pflegerobotern wird «empathisches» Verhalten die Fähigkeit erfordern, bestimmte Informationen nicht zu kommunizieren oder Menschen zu täuschen – sei es, um die Gefühlswelt eines Demenzkranken zu schonen, einen Verwundeten zu beruhigen oder nur schon um mit einem Kind Verstecken zu spielen. Damit wir uns auf soziale Roboter überhaupt näher einlassen, müssen diese vorgeben, uns in psychologischer Hinsicht ähnlich zu sein, oder einem Tier, mindestens aber: aus mehr zu bestehen als aus Metall und Plastik. Bis zu welchem Punkt sollen KIs auf diese Bedürfnisse eingehen dürfen und wie transparent wird noch sein, dass es sich um eine Maschine handelt?

Mitgefühl bedingt, dass wir uns in unserem Gegenüber erkennen. Über die Fähigkeit zu täuschen liesse sich dasselbe sagen: Bei Tieren gilt sie als positiver Indikator für soziale Intelligenz und eine Theory of Mind, also die Fähigkeit, Emotionen oder Absichten von Artgenossen nachzuvollziehen und auf sie zu reagieren. Eichhörnchen lenken ihre Konkurrenten taktisch geschickt weg von eigenen Futterverstecken, Vögel täuschen Wehrhaftigkeit vor, wo keine ist, und Menschenaffen wurden sogar beim absichtsvollen Lügen in Zeichensprache beobachtet. Den aus diesen Strategien abgeleiteten biologischen und spieltheoretischen Modellen wendet sich mittlerweile auch die Militärrobotik zu. Erste Programme, die sich gegenseitig taktisch zu täuschen versuchen, sind bereits implementiert. Was aber, wenn die Ergebnisse dieser Forschung sich ausserhalb militärischer Anwendungsgebiete verbreiten? Oder allgemeiner: Wir vertrauen Menschen, selbst wenn oder gerade weil sie in guter Absicht lügen oder uns etwas vormachen – welchen Handlungsspielraum werden wir den zunehmend intelligenteren und autonomeren Systemen der Zukunft dahingehend geben, uns in unserem besten Interesse zu täuschen?

Was eine Verständigung über all diese Fragen erschwert, ist die Diversität der Interessen. Oder nach Professor Arkin: «Die meisten Nationen sagen: Das ist wichtig. Wir müssen darüber reden. Wir müssen eine Lösung finden – und wir werden es nächstes Jahr tun.»

Menschen in Angst und Schrecken zu versetzen, ist jedenfalls kein guter Ansatz. Vor allem in ethischen Diskussionen, die auf Vernunft und nicht auf Angst beruhen sollten.

«Der Entkalker fürs Hirn:
Nicht links, nicht rechts –
einfach intelligent!»
Dominik Imseng,
Managing Partner bei smartcut consulting,
über den «Schweizer Monat»