Wer haftet für meinen Roboter?
Eric Hilgendorf, fotografiert von Eleana Hegerich / Wort und Bild Verlag.

Wer haftet für meinen Roboter?

Selbstlernende Roboter und Algorithmen stellen das Zivil- und Strafrecht vor neue Herausforderungen. Eine gezielte Anpassung der Gesetze wäre sinnvoll.

Waren Roboter noch vor 20 Jahren im wesentlichen auf den Einsatz in den Fabrikhallen beschränkt, wo sie, eingeschlossen in Käfige, schwere Lasten wuchteten und die Montage unterstützten, dringen sie heute in fast alle Bereiche des menschlichen Lebens vor, von der Freizeitgestaltung und Haushaltsführung bis hin zur Medizin und Pflege. Besonders weitgehend sind die Veränderungen im Arbeitsleben: Unter dem Schlagwort «Industrie 4.0» wird das Leitbild einer durch Roboter und vernetzte Maschinen betriebenen Fabrik beschrieben, die fast ohne Menschen auskommt. Einer der wichtigsten Treiber der Robotik ist schliesslich der zunehmende Einsatz autonomer Systeme in Personenwagen.

Roboter, die Menschen verletzen

Mit der Verbreitung «intelligenter» Maschinen steigt die Wahrscheinlichkeit, dass Roboter Menschen verletzen. Dies folgt schon aus dem Grundsatz, dass keine Technik 100prozentige Sicherheit gewährleisten kann. Im Sommer 2015 tötete in Baunatal ein Industrieroboter einen Arbeiter, indem er ihn gegen eine Wand presste. Der Fall wurde gerichtlich noch nicht entschieden. Noch komplexer ist der «Aschaffenburger Fall» von Anfang 2012, als ein automatischer Spurhalteassistent ein Fahrzeug, dessen Fahrer nach einem Schlaganfall das Bewusstsein verloren hatte, auf der Strasse hielt und mit hoher Geschwindigkeit in den Ort Alzenau in der Nähe Aschaffenburgs hineinsteuerte, wo der Wagen eine junge Frau und ihr Kind überfuhr und tötete. In beiden Fällen stellt sich die Frage, wer für die Todesfälle verantwortlich ist.

Nach unserer Rechtsordnung können nur Menschen Verantwortung tragen. Dass auch juristische Personen zur Rechenschaft gezogen werden können, steht diesem Grundsatz nicht entgegen, denn die Verantwortlichkeit der juristischen Personen ist der von Menschen, also der «natürlicher» Personen, nachgebildet. Maschinen hingegen können weder im Zivilrecht noch im Strafrecht Verantwortungsträger sein. Sie sind keine Rechtssubjekte, sondern Sachen. Deshalb ist es für Juristen (ebenso wie für Ethiker) wenig überzeugend, wenn gelegentlich in der technischen Literatur behauptet wird, ab einem bestimmten Komplexitätsgrad eines technischen Systems (zum Beispiel eines automatisierten Fahrzeugs) gehe die Verantwortung vom Menschen auf die Maschine über.

Wenn allerdings Maschinen weder zivilrechtlich auf Schadensersatz in Anspruch genommen werden können noch erst recht nicht strafrechtlich zur Verantwortung zu ziehen sind, stellt sich die Frage, wer in Fällen, in denen ein Roboter einen Menschen verletzt oder am Vermögen schädigt, für den entstandenen Schaden aufkommt. Können Geschädigte in solchen Situationen einfach auf ihren Schäden sitzengelassen werden? Oft ist es möglich, auf diejenige Person zurückzugreifen, die den Roboter eingesetzt hat. Wenn etwa ein Unternehmer Roboter ausserhalb von Schutzkäfigen einsetzt, obwohl bei diesem Einsatz schon mehrfach Menschen zu Schaden gekommen sind, handelt er fahrlässig und kann deshalb zur Verantwortung gezogen werden, wenn erneut ein Schadensfall vorkommt. Anders war die Lage im oben erwähnten Aschaffenburger Fall. Da man weder dem Fahrer noch dem Hersteller des Personenwagens vorwerfen konnte, die erforderliche Sorgfalt ausser Acht gelassen zu haben, kam hier eine strafrechtliche Verantwortlichkeit nicht in Betracht.

Etwas einfacher ist die Situation im Hinblick auf den Ersatz der entstandenen materiellen Schäden, also etwa der Arztkosten. Bereits vor vielen Jahren hat Deutschland für Personenwagen eine verschuldensunabhängige Haftung des Fahrzeughalters auf Schadensersatz eingeführt, die allein darauf beruht, dass der Schaden beim Betrieb eines tendenziell gefährlichen Geräts, nämlich des Personenwagens, entstanden ist. Man nennt dies eine «Gefährdungshaftung», weil sie allein an die Gefährlichkeit des Personenwagens für andere Verkehrsteilnehmer anknüpft. Eine Gefährdungshaftung gilt auch für den Betrieb von Eisenbahnen, und es spricht viel dafür, auch für alle gefahrträchtigen Roboter eine verschuldensunabhängige Haftung auf Schadensersatz gesetzlich einzuführen. Im Schweizer Obligationenrecht ist die Haftung des Werkeigentümers in Artikel 58 festgeschrieben, der wohl auch für Roboter gilt: «Der Eigentümer eines Gebäudes oder eines andern Werkes hat den Schaden zu ersetzen, den diese infolge von fehlerhafter Anlage oder Herstellung oder von mangelhafter Unterhaltung verursachen.» Weiter ist in Art. 59a eine «Haftung für kryptografische Schlüssel» festgeschrieben.

Strafrecht für Roboter?

Im Strafrecht ist eine solche verschuldensunabhängige Haftung ausgeschlossen. Grund hierfür ist das in der Verfassung verankerte Schuldprinzip: Strafe setzt stets persönliche Schuld voraus. Dies könnte aber dazu führen, dass bei Schäden, die durch einen hochkomplexen Roboter erzeugt werden, zwar zivilrechtlich Schadensersatz gefordert werden kann, die Bestrafung eines Verantwortlichen aber mangels Vorhandenseins einer verantwortlichen Person nicht in Frage kommt. Als der erst im Frühjahr 2016 ins Netz gestellte autonome Chatbot «Tay» binnen 24 Stunden erfolgreich manipuliert wurde und begann, sein Publikum zu beschimpfen und zu beleidigen, hätten diejenigen Personen strafrechtlich belangt werden können, die das lernfähige System zielgerichtet mit Informationen «gefüttert» hatten, also seine Wandlung vom liebenswürdigen Gesprächspartner zum «Cybertroll» in die Wege leiteten. Die Verantwortlichen waren jedoch nicht bekannt und erst recht nicht greifbar.

In einer derartigen Situation muss entweder auf eine strafrechtliche Antwort ganz verzichtet werden oder aber der Gesetzgeber schafft einen neuen Gefährdungstatbestand, der den Einsatz von gefahrträchtigen Robotern und autonomen Systemen jedenfalls dann unter Strafe stellt, wenn durch sie ein Mensch geschädigt wurde. Auf diese Weise würde für die Hersteller ein Anreiz gesetzt, die Lernfähigkeit ihrer Systeme auf einen bestimmten Möglichkeitsraum zu beschränken. In diesem Zusammenhang liesse sich auch an eine Art Sicherheitsüberprüfung für besonders schadensträchtige Algorithmen denken. Im Ergebnis läuft dies darauf hinaus, dass Chatbots wie «Tay» ein Ethik- und Rechtsmodul mit auf den Weg gegeben werden müsste, welches analog zum menschlichen Gewissen wirkt und eindeutig sozialschädliche Verhaltensweisen unmöglich macht oder zumindest erheblich erschwert.

Die Herausforderungen, die derartige Ethik- und Rechtsmodule an ihre Entwickler stellen, sind jedoch gewaltig. Es geht um nichts weniger als darum, dem Roboter moralische und rechtliche Regeln zu implantieren. Der US-amerikanische Ingenieur und Science-Fiction-Autor Isaac Asimov hat dazu bereits in den 1940er Jahren drei Regeln formuliert:

1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Aus juristischer Sicht sind diese Regeln hoffnungslos naiv; so ist weder klar, was unter «Schaden» verstanden werden soll, noch hilft Asimovs Vorschlag in Fällen einer Normenkollision weiter, also wenn ein Roboter zum Beispiel gleichzeitig die Menschen A und B retten soll, aber nur einen davon retten kann.

Möglichkeiten der Regulierung

Der technische Fortschritt zwingt dazu, uns zur Lösung derartiger Problemstellungen auf die moralischen und rechtlichen Grundlagen und leitenden Werte unserer Gesellschaftsordnung zu besinnen. Wer nicht der Prämisse folgen möchte, dass alles, was technisch möglich ist, auch ethisch und rechtlich akzeptabel sein soll, wird akzeptieren müssen, dass die neuen technischen und ökonomischen Entwicklungen kritisch zu prüfen und ihnen, soweit erforderlich, ethisch wie rechtlich Schranken aufzuerlegen sind. Dieser meist als «Regulierung» bezeichnete Vorgang steht bei manchen im Ruf, innovationshemmend zu wirken und potentielle Investoren abzuschrecken, und in der Tat gibt es zahlreiche Beispiele ideologisch angeheizter, innovationshemmender und im Ergebnis gesellschaftsschädlicher Über- und Fehlregulierung.

Es sollte aber nicht vergessen werden, dass die technische und die wirtschaftliche Entwicklung keinen Selbstzweck darstellen, sondern ihrerseits dem Gemeinwohl zu dienen bestimmt sind. Es ist deshalb nicht bloss naheliegend, sondern durchaus ethisch wie rechtlich geboten, dass die Gesellschaft über ihre demokratisch legitimierten Vertreter der technischen und der ökonomischen Entwicklung, wo nötig, Schranken auferlegt. Unterstützt wird das Recht dabei von der Technikethik, die sich ihrerseits auf eine valide empirische Technikfolgenabschätzung stützen kann.

Selbstlernende Maschinen, die sich in der Cloud austauschen

In einem ersten Schritt gilt es, sich über die verwendeten Begrifflichkeiten Klarheit zu verschaffen. Eine nicht zu unterschätzende, weil Fehleinstellungen befördernde Gefahr liegt in einer vorschnellen Anthropomorphisierung, also Vermenschlichung, der neuen Roboter. Als Grundbegriff, der auch die Roboter umfasst, bietet sich deshalb das Modell eines «autonomen technischen Systems» an, wobei mit «autonom» in diesem Zusammenhang lediglich gemeint ist, dass die Maschinen in einer Vielzahl von Fällen auch ohne menschliche Steuerung auskommen. «Autonom» in diesem Sinne ist etwa die Marssonde, die ohne einzelfallbezogenen menschlichen Input auf dem Nachbarplaneten sinnvoll ihren Aufgaben nachgehen und kleinere Herausforderungen, etwa unvorhergesehene Hindernisse, eigenständig bewältigen kann. Diese Verwendung des Wortes «autonom» hat wenig mit der Terminologie in der Philosophie oder Theologie zu tun, wo «Autonomie» häufig mit der Fähigkeit zur Selbstgesetzgebung (im Sinne Kants) gleichgesetzt wird.

Autonome Systeme funktionieren auf der Grundlage von Computerprogrammen, die in Form von Algorithmen das Verhalten der Maschine festlegen. Allerdings sind heute viele der verwendeten Algorithmen so komplex, dass es schwerfällt, das Verhalten des Roboters in einer konkreten Situation sicher vorherzusagen. Dies gilt erst recht, seitdem die Maschinen beginnen, zu lernen und ihre Programme eigenständig zu modifizieren. Diese Entwicklung steht freilich erst am Anfang. Noch komplexer – und gefährlicher – wäre es, wenn selbstlernende Maschinen über das Internet, etwa via die Cloud, verbunden wären und ihre Lernergebnisse austauschen könnten. Die damit angedeutete Möglichkeit einer in ihrer Reichweite unabsehbaren, von menschlicher Eingabe abgekoppelten maschinellen Wissensexplosion wäre wohl dauerhaft nicht mehr beherrschbar.

Bewältigung von Dilemmasituationen

Eine derzeit vieldiskutierte ethische und rechtliche Herausforderung stellt die Programmierung von Algorithmen zur Bewältigung von Dilemmasituationen dar, vor allem wenn Leben gegen Leben steht. Wie soll sich ein Fahrzeug mit automatischem Kollisionsvermeidungsassistenten verhalten, wenn es in die Situation gerät, zwischen Menschenleben entscheiden zu müssen? Ein Beispiel bilden drei Schwerverletzte, die bewusstlos auf der Strasse liegen und von einem heranfahrenden Wagen erfasst würden, wenn der nicht einen Ausweichkurs wählen würde, wodurch aber ein bisher Unbeteiligter in Lebensgefahr gebracht würde. Das Problem ähnelt den alten Weichensteller- und Trolleyfällen, in denen ein Bahnwärter die Wahl hat, mittels einer Weiche einen herabrollenden Wagen, der auf fünf Gleisarbeiter zurollt, auf ein anderes Gleis umzulenken, wo sich freilich ein anderer (einzelner) Gleisarbeiter befindet, der durch den Wagen unweigerlich getötet werden würde. Darf man einen Menschen töten, um fünf Menschen zu retten? Wie sollte der Steuerungsalgorithmus von Robotern für derartige Situationen programmiert werden?

Nach den Vorgaben unserer Rechtsordnung wäre ein Umlenken nicht zulässig. Dies ergibt sich aus dem rechtshumanistischen Grundsatz, im Recht jeden einzelnen als einen «Höchstwert» zu betrachten, so dass es ausgeschlossen erscheint, ihn von Staats wegen verpflichten zu wollen, sein Leben für das anderer zu opfern. Anders als in einer theokratisch verfassten oder totalitären Gesellschaft verfügt das Individuum nach unserem Rechtsverständnis über einen unabgeleiteten und unverlierbaren Eigenwert, der eine «Verrechnung» mit anderen menschlichen Leben ausschliesst. Es spricht alles dafür, diese Grundsätze auch in den Algorithmen festzuschreiben, die das «automatische» Verhalten von Fahrzeugen in entsprechenden Dilemmasituationen steuern.

Sind allerdings mehrere Menschen gleichermassen in Lebensgefahr, so sollte das autonome System so programmiert sein, dass es den Schaden so weit nur irgend möglich minimiert. Auch dies ergibt sich aus dem Grundsatz, dass das Individuum, sein Leben und seine Würde in unserer Rechtsordnung unbedingt zu schützende Werte darstellen. Wenn also ein vollautomatisiertes Fahrzeug in einem engen Fahrschlauch ohne Abbremsmöglichkeit drei Menschen zu erfassen droht, wäre es geboten, nach Möglichkeit durch einen Lenkimpuls nach links oder rechts die Zahl der Schwerverletzten oder Getöteten zu minimieren. Die darin enthaltene Quantifizierung von Menschenleben ist nicht bloss rechtlich zulässig, sondern auch ethisch geboten.

Datenschutz bei Pflegerobotern

Ein anderes wichtiges Rechtsproblem im Zusammenhang mit Robotern ist der Datenschutz. Dies betrifft nicht bloss personenbezogene Daten, die unsere neuen Begleiter in grossen Mengen aufnehmen, speichern und vielleicht sogar mit anderen Maschinen teilen werden, sondern auch Daten ohne Personenbezug, zum Beispiel anonymisierte Informationen über die Wirkungsweise von Medikamenten, die ein in der Pflege eingesetzter Roboter über die von ihm betreuten Patienten sammelt. Dass derartige Daten für die Arzneimittelindustrie einen gewaltigen Wert besitzen, liegt auf der Hand. Solche Daten fallen jedoch nicht unter das eigentliche Datenschutzrecht, welches einen Personenbezug erfordert. Ebenso wenig stehen sie jedoch im Eigentum dessen, auf den sie sich beziehen: Da Daten weder Sachen noch Rechte sind, können sie im juristischen Sinn niemandem «gehören». Dies bedeutet, dass derartige Daten bis heute gemeinfrei sind und fast nach Belieben abgegriffen werden können – ein Zustand, den der Gesetzgeber erstaunlicherweise nur sehr zögerlich zur Kenntnis zu nehmen scheint. Überzeugender wäre es, den Betroffenen ein originäres Recht an den am eigenen Körper entstandenen Daten zuzusprechen, selbst wenn die Daten nur in anonymer Form vorliegen.

Alles in allem bleibt noch viel zu tun, bis ein wirkungsvoller, unseren humanistischen Leitwerten gerecht werdender Rechtsrahmen für unsere neuen robotischen Begleiter geschaffen sein wird. Eine Roboterwelt ohne passenden Rechtsrahmen wird sich auf Dauer keine Gesellschaft leisten können. Gewollt ist sie aber schon heute nicht.

«Jeden Monat frische Denküberraschungen! Eine gehaltvolle und elegant gestaltete Zeitschrift.»
Francis Cheneval, Professor für politische Philosophie,
über den «Schweizer Monat»