Nutzbringende Automaten

Künstliche Intelligenzen werden aktuell entweder als Abbildung des menschlichen Bewusstseins in der Maschine vergöttlicht oder als radikaler Antihumanismus verteufelt. Beides ist falsch. Ein Einwurf aus der Praxis.

Es lassen sich derzeit drei prominente Bewertungsmuster hinsichtlich der Fähigkeiten und Gefahren künstlicher Intelligenzen (KI) unterscheiden. Da sind zunächst die geisteswissenschaftlichen Radikalkritiker wie Éric Sadin: Der Philosoph und seinesgleichen gehen davon aus, dass Maschinen selbstlernend und vor allem mit Entscheidungsfähigkeit und Urteilskraft versehen sind. Sie leiten daraus bedrohlich wirkende Thesen ab, etwa die, dass ganze Lebensbereiche durch KI «kolonisiert» würden, die Condition humaine entwürdigt werde oder gar eine Zerstörung des Humanismus bevorstehe.

Dann gibt es andere Geisteswissenschafter, die mildere Kritik üben, indem sie etwa den «Dataism» der KI- und Big-Data-Anbieter direkt angreifen: «Dataism» fasse alles und jedes Ereignis der Welt nur als quantitatives Datenphänomen auf, das sich mathematisch mit KI verarbeiten lasse, ohne qualitative Bewertungen vorzunehmen. Die Kritiker fürchten nicht zuletzt um die menschliche Freiheit, weil KI-Systeme Menschen Vorschläge für einige Lebensbereiche machen (und für viele weitere: in naher Zukunft machen werden) und damit die Rolle klassischer Institutionen wie der Kirche oder des Staatsfernsehens übernehmen könnten.

Ein drittes Lager, darunter etwa der Erfinder des heutigen KI-Standardwerkzeugs (tiefe neuronale Netze) Jürgen Schmidhuber, behauptet, KI sei in der Lage, sich eigene Ziele zu setzen und kreativ zu agieren, was kaum absehbare Folgen haben dürfte – ihr Blick in die Zukunft schwankt deshalb zwischen fürchterlicher Dystopie und freundlicher Utopie. Was ist von diesen verschiedenen Lagern und ihren KI-Diagnosen zu halten?

Kritik der Kritiker

Bei den ersten beiden Varianten der KI-Kritik ist die Bewertung einfach: sowohl ihre Prämissen wie auch ihre Schlussfolgerungen sind schlicht unsinnig. «Dataismus» ist offensichtlich nur eine neue, wenig überzeugende Variante des altbekannten angelsächsischen utilitaristischen Empirismus, der noch nie dazu in der Lage war, Aufgaben der Wissenschaft jenseits naturwissenschaftlich-technischer Naturbeherrschung zu bewältigen. Sinngebung und Situierung des Geisteswesens Mensch in seinem natürlichen und mitmenschlichen Kontext ist immer noch Sache des Menschen selbst, beide sind dem «Data Mining» durch KI vollkommen unzugänglich. Ihre Beschreibung und Ergründung ist und bleibt damit Kernaufgabe der nicht mathematisierbaren Künste, der Geisteswissenschaften und der Religion. Die dritte Variante der KI-Apologeten (Schmidhuber et al.) hat vor allem ein Problem damit, eine philosophisch plausible Definition von Bewusstsein und Willen zu finden. Um das zu verstehen, muss man zunächst wissen, was KI wirklich ist.

KI sind in erster Linie Werkzeuge zur Imitation menschlichen Handelns oder zur Erzeugung eines erwünschten, synthetischen Verhaltens in spielartigen Szenarien. Alle KI-Algorithmen, über die wir heute verfügen, erzeugen mathematische Funktionen, die einen letztlich vom Menschen festgelegten Satz von Variablen als Eingabeparameter (Input) nehmen und einen – mehr oder weniger – erwünschten Output ausgeben. Dieser Output wird entweder von menschlichen Verhaltensergebnissen kopiert – das nennt man «Supervised Learning», ein Beispiel ist Ihr E-Mail-Spam-Filter, ein weiteres Ihr künftig (teil)autonom fahrendes Auto – oder in spielartigen Situationen erzeugt. Hierbei wird ein Punkte-Belohnungs-System vorgegeben, in dessen Rahmen Maschinen Aufgaben ohne menschliches Vorbild mit der Zeit immer besser zu lösen lernen. Letztere Variante nennt man «Reinforcement Learning». Ein Beispiel hierfür wäre der Go-KI-Spielautomat der Firma «DeepMind». In der Praxis ist diese Technik etwa beim Aufräumen eines havarierten Atomkraftwerks durch Roboter einsetzbar, weil man dort Belohnungspunkte für das Beseitigen von Strahlung vergeben kann. Algorithmen finden in diesem engen Rahmen, der ihnen von ihren Schöpfern mathematisch vorgegeben wird, eigene Optima, die durchaus zielführender sein können als menschliche Lösungen.

Doch selbst wenn bei diesen beiden KI-Technologien Maschinen besser und schneller funktionieren als Menschen, entsteht auf diesem Wege weder aristotelische «Entelechie», Hegelʼsches «Selbstbewusstsein» noch «freier Wille» im Sinne Kants. Das bedeutet: die Algorithmen können niemals Absichten hegen oder sich eigene Ziele setzen. KI-Wissenschafter, die das behaupten, sind sich über die Semantik und Hermeneutik dieser Begriffe nicht im Klaren, sie verwechseln die automatische Optimierung mathematischer Funktionale mit menschlicher Willensbildung. KI im heutigen Sinne ist aber…