Wir brauchen Ihre Unterstützung — Jetzt Mitglied werden! Weitere Infos
Die Maschine kann nichts dafür
Oliver Bendel, zvg.

Die Maschine kann nichts dafür

Wenn wir die Vorteile autonomer Systeme nutzen wollen, müssen wir die Verantwortung klar zuordnen.

 

Verantwortung im ethischen Sinne bedeutet, dass man seine Pflichten erfüllt sowie die Folgen seines Tuns bedenkt und auf sich nimmt. Sie ist mit Bewusstsein, Einsichtsfähigkeit und freiem Willen verbunden. Man zeigt und trägt Verantwortung, und man wird zur Verantwortung gezogen, wobei man dann vom Moralischen ins Rechtliche geraten kann. Mündige Personen vermögen Verantwortung zu tragen, Kinder, geistig kranke oder demente Personen eingeschränkt oder gar nicht. Auch Tiere nehmen, selbst wenn sie soziale Wesen sind, sich um den Nachwuchs kümmern oder sich für ihre Herde aufopfern, kaum Verantwortung auf sich.

Autonome Maschinen sind Systeme, die grössere Spielräume als Automaten haben. Nachdem sie zum Beispiel ihre Umwelt mit Hilfe von Kameras und Sensoren beobachtet haben, wählen sie unter verschiedenen Optionen, die sie mit Hilfe von Aktoren umsetzen. Serviceroboter können autonome Maschinen sein, wie etwa Transport-, Sicherheits- und Reinigungsroboter. In Kalifornien sind mir die ferngesteuerten Transportroboter des Food-Delivery-Diensts Coco begegnet. Sie sind nicht autonom, höchstens teilautonom in manchen Augenblicken. Soziale Roboter, die für den Umgang mit Menschen und Tieren gedacht sind, können wiederum autonome Maschinen sein, so wie Chatbots und Sprachassistenten, mit denen man sich in natürlicher Sprache unterhalten kann, oder andere Systeme der Künstlichen Intelligenz (KI). Sensoren und Aktoren sind hier bloss im übertragenen Sinne vorhanden.

Kein freier Wille

Der Begriff der Autonomie sollte im technischen Kontext nicht missverstanden werden. Die Maschinen geben sich nicht selbst ein Gesetz, haben kein Bewusstsein, keine Einsichtsfähigkeit und keinen freien Willen. Sie fallen diesbezüglich sogar weit hinter die Tiere zurück. Die technischen Wissenschaften adaptieren und modifizieren häufig Begriffe aus den Geistes- und Sozialwissenschaften. Mit einer Ontologie möchte man keine Lehre vom Sein aufstellen. Man spricht von sozialen Robotern, ohne dass diese die gleichen sozialen Merkmale wie Lebewesen hätten, und von moralischen Maschinen, ohne dass diese mit Bewusstsein, Einsichtsfähigkeit und freiem Willen ausgestattet wären. Denn solche Maschinen gibt es nicht.

Wenn Verantwortung im definierten Sinne verstanden wird, können Maschinen keine Verantwortung tragen – nicht einmal autonome Maschinen, die sozusagen die technische Krone der menschlichen Schöpfung sind. Autonome Systeme können insbesondere nicht die Folgen ihres Tuns auf sich nehmen. Dies hängt damit zusammen, dass sie eben kein Bewusstsein, keine Einsichtsfähigkeit und keinen freien Willen haben. Übrigens können sie genauso wenig – anders als Tiere – moralische Rechte haben, wobei hier vor allem mit Empfindungs- und Leidensfähigkeit argumentiert wird.

Ein Vorteil von autonomen Maschinen ist, dass man sie ohne ständige Aufsicht und ohne wiederholte Eingriffe betreiben kann. In geschlossenen Umgebungen wie in einem Gebäude ist das oft unproblematisch, in halboffenen oder offenen Umgebungen wie der Innenstadt oder dem Strassenverkehr dagegen nicht. Dies ist der Grund, warum Coco in Santa Monica und an anderen Orten auf ferngesteuerte Modelle setzt. Autonome Transportroboter sind noch nicht so weit, dass sie stundenlang über die Gehwege und eigenständig über sämtliche Übergänge rollen könnten.

Nehmen wir einmal an, es würden sich eines Tages doch autonome Varianten etablieren. Die Transportroboter müssten also nicht mehr von Billigkräften von zu Hause aus gelenkt werden, sondern kämen mehr oder weniger alleine zurecht. Es würden sich wahrscheinlich irgendwann Unfälle ereignen. Wer trägt dafür die Verantwortung, und wer kann zur Verantwortung gezogen werden? Die Transportroboter nicht. Vielmehr die, die sie anfertigen und einsetzen. Es gibt die Unternehmensleiter, die Führungskräfte, die Entwickler, die Programmierer, ausserdem Zulieferer von Komponenten. Es gibt die Vermittler, die Betreiber, die Anwender. So könnte man fortfahren. Auch die Verwaltung von Santa Monica und der Gesetzgeber von Kalifornien sind im Spiel.

Verantwortung verpufft

Wir sind wohlgemerkt im moralischen Raum, nicht im rechtlichen. Rechtlich kann man verschiedene Lösungen konstruieren, eine Alleinhaftung, eine Risikoverteilung. Sogar eine elektronische Person wäre denkbar, ähnlich der juristischen. Im moralischen Raum ist es komplizierter. Man kann konstatieren, dass die meisten Beteiligten eine Verantwortung tragen und man nicht ohne weiteres jemanden zur Verantwortung ziehen kann. Es scheint so zu sein, dass die Verantwortung regelrecht verpufft, wenn man sie auf Maschinen verschiebt. Natürlich kann man auch im Moralischen herausfinden, dass der eine mehr Verantwortung trägt und der andere weniger. Aber wirklich befriedigend ist das alles nicht.

Zudem sind die autonomen Maschinen oft nicht so selbständig, wie sie scheinen. Sie sind von anderen Systemen und Maschinen abhängig, interagieren und kommunizieren mit ihnen. So könnten Transportroboter, die nicht ferngesteuert sind, von einem Verkehrsleitsystem eine falsche Auskunft erhalten und mitten in eine Menschenmenge oder einen Autostau geraten. Die Unfälle würden bei einem solchen technischen Scheitern zunehmen. Wir haben singuläre Roboter vor unseren Augen, aber eigentlich handelt es sich um vernetzte Systeme mit vielen Komponenten, für die wiederum viele Menschen Verantwortung tragen. Vernetzte Systeme sprechen auch gegen eine Robotersteuer und die Schaffung einer elektronischen Person.

«Die Maschinen ­geben sich

nicht selbst ein Gesetz,

haben kein ­Bewusstsein

und keinen ­freien ­Willen.»

Autonome Maschinen können also keine Verantwortung tragen. Zugleich ist es derzeit schwierig, Personen zu identifizieren, die die Verantwortung tragen und zur Verantwortung gezogen werden können. Am einfachsten ist es noch, wenn ein grober Fehler (etwa bei der Programmierung) oder ein grober Verstoss (etwa gegen Normen) vorliegt. Was kann man nun tun? Eine naheliegende Lösung wäre das Verbot autonomer Maschinen. Damit würde man aus dem Rechtlichen heraus in einschneidender Weise auf ethische und juristische Probleme reagieren. Alternativ könnte man den Betrieb autonomer Maschinen in bestimmten Umgebungen einschränken, etwa in offenen, belebten Bereichen.

Moral simulieren

Wenn man auf der Grundlage von Sozialer Robotik und Maschinenethik (eine Disziplin zwischen KI, Robotik und Philosophie) spezielle Maschinen bauen kann, sollte es da nicht ein Leichtes sein, verantwortungsbewusste Maschinen auf die Wunschliste zu setzen? Freilich ist der soziale Roboter nur insofern sozial, als er sich in soziale Gemeinschaften einfügt und Empathie und Emotionen simuliert. Die moralische Maschine ist nur insofern moralisch, als sie moralische Regeln befolgt, die man ihr eingepflanzt hat, und moralische Fähigkeiten simuliert. All das kann wertvoll sein. So haben wir an der FHNW einen Saugroboter erfunden, der Marienkäfer verschont, und einen Mähroboter, der Igel rettet. Aus Sicht der Tiere ist das eine substanzielle Verbesserung der Maschine mit einer existenziellen Bedeutung.

Wirklich verantwortungsbewusste Maschinen sind jedoch nicht in Sicht. Denkbar sind dagegen verantwortungsvolle. Sie entstehen mit Hilfe von Herstellern, Entwicklern und Programmierern, die sich aus der Masse der Beteiligten abheben, indem sie mit ihrem Namen für ihr Produkt stehen, und die entsprechend ausgebildet werden. Sie nutzen Leitlinien, die konkret und deren Urheber bekannt sind, und ihre Projekte werden von Experten und Kommissionen begleitet. Verantwortungsvolle KI («Responsible AI») kann bedeuten, dass Entscheidungsträger und Befehlsempfänger im Entwicklungsprozess ihrer Verantwortung nachkommen und die Maschinen selbst in besonderer Weise ausrüsten. Die Ansätze der Sozialen Robotik und der Maschinenethik sind wichtig dabei. Zertifikate oder Labels können zusätzlich helfen.

Man überträgt in diesem Falle die Verantwortung nicht so, dass sie sich in Wohlgefallen auflöst, sondern man setzt gewissermassen Menschen in die Maschine, die für sie die Verantwortung tragen. Die autonome Maschine dieser Art kann zwar nicht die Folgen ihres Tuns auf sich nehmen, aber aufgrund ihrer Programmierung im übertragenen Sinne bedenken – und die Option wählen, die gut und richtig ist. Sie kann zwar keine Pflichten erfüllen, aber ihren Verpflichtungen – oder noch schwächer: ihren Aufgaben – nachkommen. Vergleichbar ist dies ein Stück weit mit dem Abrichten eines Tiers, bei höherer Variabilität und Rationalität. Es sei nochmals betont, dass dies nicht überall und lediglich eingeschränkt funktionieren wird. Aber wenn wir die Vorteile autonomer Maschinen geniessen wollen, ist das wohl die einzige Möglichkeit, die uns bleibt.

»
Abonnieren Sie unsere
kostenlosen Newsletter!