Fürchtet euch nicht!

Robotik-Pionier Rolf Pfeifer baut Automaten, die lächeln, mitdenken und Persönlichkeit entwickeln. Können künstlich intelligente Maschinen natürlichen Menschen zu mehr Autonomie verhelfen?

Fürchtet euch nicht!
Rolf Pfeifer und Roboy, photographiert von Ethan Oelman.

Herr Pfeifer, auf der Vorderseite Ihrer Visitenkarte ist ein niedlicher Roboter zu sehen, der einen mit «Hello. My name is roboy» begrüsst. Zwei Dinge daran irritieren: Ihr Name und Ihre Profession tauchen erst auf der Rückseite auf. Und: das niedliche Gerät auf der Frontseite passt so gar nicht zum Klischee des kühl kalkulierenden Robotik-Professors. Wir nehmen an, das ist gewollt?

Oh ja. Und zwar aus folgendem Grund: Mir ist es wichtig, auch den interessierten Laien ein komplexes Gebiet wie die Robotik so zu erklären, dass es für sie verständlich und anschaulich ist. Schon eine Visitenkarte kann dazu beitragen. Dass Roboy niedlich ist, haben nun Sie gesagt. Und damit meine Erwartungen bestätigt.

Es bleibt aber auch mit hübschem Gesicht ein «totes» Gerät aus Plastik und Metall. Doch zugestanden, sein Antlitz ist vertrauenswürdiger als das eines Industrieroboters am Fliessband.  

Roboy unterscheidet neben dem Gesicht von diesen Industrierobotern, dass er sehnengesteuert ist. Normale Roboter haben die Motoren in den Gelenken, unser Roboter aber hat Sehnen und Muskeln. Damit wurde Roboy Botschafter einer neuen Generation von Robotern: freundlich und sehnengesteuert – beides macht ihn menschenähnlicher.

Mit Verlaub: Das menschliche Äussere ist klar als Hülle erkennbar. Wir sind, Sie merken es, eher misstrauisch.

Damit passt Ihre Regung zu den Ergebnissen aktueller Studien. Am besten fühlt man sich, wenn klar ersichtlich ist, dass es sich um einen Roboter handelt, unabhängig davon, ob diese Maschine menschliche Züge trägt. Es gibt die Hypothese des «Uncanny Valley», des unheimlichen Tals: Wenn die Roboter klar als solche erkennbar sind, ist die Akzeptanz gross. Wenn sie menschenähnlicher werden, fällt die emotionale Reaktion zunehmend negativ aus, und wenn die Roboter vollwertig menschlich wären, wie beispielsweise im Film «Blade Runner», dann ist auch alles wieder in Ordnung. Über diese Hypothese gibt es allerdings noch wenig empirische Untersuchungen.

Es gibt ja auch noch keine Roboter, die so menschenähnlich sind, dass sie nicht mehr als Maschinen erkennbar sind.

Nein, aber die Entwicklung geht in diese Richtung. Mein Kollege Hiroshi Ishiguro von der Osaka University hat einen Klon von sich selbst gebaut. Als wir hier in Zürich auf unserer Robotertour auftraten, schickte Ishiguro seinen Klon. So musste er selbst nicht reisen. Und die neueren Kreationen von Ishiguro sind immer schwieriger vom menschlichen Original zu unterscheiden. Wenn man mit diesen Dingen interagiert, entsteht ein sehr komisches Gefühl.

Bei Ishiguro war es offenbar die Reisefaulheit – aber wie kamen Sie dazu, intelligente Maschinen zu bauen?

Das war ein langer Weg. In den 1960ern und 1970ern gab es an der ETH Zürich und der Universität die Möglichkeit, Seminare nach dem Bottom-up-Prinzip durchzuführen. Ich hatte damals gerade mein Physikdiplom abgeschlossen und begann, als Systemingenieur für IBM zu arbeiten. Im Zuge der Studentenbewegung habe ich dann mit Kollegen ein Seminar über Kybernetik organisiert: Selbstorganisation, komplexe Systeme, verteilte Steuerung etc. Wir luden bekannte Leute ein, die in ihren Fachbereichen kybernetische Prinzipien anwendeten. Einer von ihnen war Ulrich Moser, ein klinischer Psychologe der Universität Zürich. Er sprach über Computersimulationen von neurotischen Abwehrprozessen. Ich verstand kein Wort, traf mich aber danach mit ihm zum Kaffee. Moser erzählte mir, dass er mittels Computer Träume simulieren wolle. Er fragte, ob ich ihm helfen könne. Meine Kenntnisse beschränkten sich auf Computersimulationen der Neutronenphysik. Von Psychologie hatte ich keine Ahnung. Das war Moser egal – Simulation sei Simulation, meinte er. Er offerierte mir eine Stelle, ich nahm sie an. Ein Kollege von Moser arbeitete mit den Methoden künstlicher Intelligenz; das war quasi mein Einfallstor in den Forschungsbereich der künstlichen Intelligenz.

Künstliche Intelligenz, was hiess das damals?

Es gab die klassische Sichtweise, Intelligenz als Algorithmus, als eine Art immer wieder ablaufendes Computerprogramm zu verstehen. Wir merkten dann recht bald: so statisch wie gedacht war die menschliche Intelligenz dann doch nicht. Wobei der klassische Ansatz in vielen Bereichen sehr erfolgreich funktioniert. Etwa bei Schachprogrammen mit klar begrenzten Handlungsmöglichkeiten. Der Computer kann dabei nach einem strengen logischen Muster vorgehen: Es gibt zu jeder Brettsituation eine endliche Anzahl möglicher Züge, und das einzige, was ein Spieler machen kann, ist, einen davon auszuwählen, was sich einfach in einem Computerprogramm abbilden lässt. Diese Methoden funktionieren auch hervorragend für Suchmaschinen oder für die Verarbeitung von grossen Datenmengen. Überall dort, wo Algorithmen über maschinelles Lernen zum Zuge kommen. Aber diese «traditionellen» Methoden haben wenig dazu beigetragen, menschliche Formen von Intelligenz zu verstehen. Sie spulen nämlich letztlich nur das ab, was man ihnen für einen engen Rahmen von Möglichkeiten vorgibt. Intelligenz geht aber, wie wir im täglichen Miteinander sehen, viel weiter.

Für Sie ging es in der Folge darum, natürliche Formen von Intelligenz zu verstehen. Wie zeigen sich diese?

Die Initialzündung sah wie folgt aus: Wir haben zusammen mit einer Grossbank sogenannte Expertensysteme für Kreditsachbearbeitung entwickelt und versucht, menschliche Experten durch Computer zu ersetzen, die logische Regelsätze anwenden. Das hat damals nicht funktioniert: Es fehlte die Interaktion mit der realen Welt. Die Wahrnehmung spielt also eine ganz zentrale Rolle! Wir mussten uns folglich fragen: Wie können wir mit unserer Umwelt kommunizieren? Die Antwort: eigentlich nur über unseren Körper, unsere Sensorik, unsere Motorik. Obwohl das eigentlich offensichtlich ist, wenn man darüber nachdenkt, war es uns in der Anfangsphase nicht klar; heute ist es unser zentrales Motiv beim Bauen neuer Roboter.

Roboter faszinieren Menschen seit Jahrhunderten. Was früher Phantasie war, ist teilweise zur Realität geworden. Wie oft begegnen Sie Ängsten, die Filmroboter wie HAL oder Terminator hervorgerufen haben?

In vielen Köpfen existieren vor allem Roboter wie der angesprochene Terminator, neu sind auch Ängste vor fliegenden Drohnen, die für militärische Zwecke verwendet werden, oder die Vorstellung, dass Roboter den Leuten die Arbeit wegnehmen. In der Öffentlichkeit hat Robotik ein schlechtes Image. Wir begegnen diesen Ängsten auf Schritt und Tritt. Und eines der Ziele des Roboy-Projekts war es, eine positive Message für Robotik zu erzeugen und die guten Seiten hervorzukehren.

Noch einmal: ein schönes Gesicht nimmt nicht alle Ängste. Es gibt Prognosen, dass bis Ende des Jahrhunderts ein Grossteil unserer heutigen Jobs automatisiert sein wird. Werden uns diese Roboter die Arbeit wegnehmen?

Langfristig werden wegen Robotern keine Arbeitsplätze verschwinden. Einzelne Jobs wandern vielleicht aus oder werden überflüssig, Arbeit geht aber in hochtechnisierten Gesellschaften nicht verloren – mit neuen Bedürfnissen der Menschen wächst auch die zu erledigende Arbeit. Die Leute werden dann einfach in neuen Positionen gebraucht. Und vor allem werden die Firmen im eigenen Land dadurch wettbewerbstauglicher. Wenn man dank Automatisierung vor Ort produzieren kann, wird die Herstellung von Produkten auch ökologischer, als wenn man Güter über die halbe Erdkugel transportiert. Ich bin der Meinung: was man automatisieren kann, das soll man automatisieren. Wenn wir diesen Trend verschlafen, sprich: den Automatisierungsgrad nicht ernsthaft erhöhen, haben wir im Wettbewerb keine Chance.

Das Science-Fiction-Szenario und der Umkehrschluss der völligen Automatisierung mit künstlicher Intelligenz ist: Je intelligenter Roboter werden, desto grösser ist die Chance, dass sie sich irgendwann gegen ihre Schöpfer wenden.

Das ist die populäre Lesart des europäischen Kinogängers. Ich persönlich fühle mich sicherer, wenn ich mich von intelligenten Leuten umgeben sehe, als wenn ich von dummen Leuten umringt bin. Intelligentere Leute haben vielleicht das Potential, gefährlich zu sein, aber ich glaube, es ist besser, intelligente als dumme Systeme um sich zu haben. Wie sehen Sie das?

Ganz ähnlich. Aber Hand aufs Herz: Während wir keine Probleme haben, in von Robotern erbauten Autos mit 120 Kilometern pro Stunde über die Strassen zu fahren, haben wir sehr wohl Mühe mit der Vorstellung, dass ein Flugzeug den grössten Teil eines Fluges von Robotern geflogen wird.

Ich muss Ihnen einen vermeintlichen Sicherheitstraum nehmen: 95 Prozent der Zeit, die man als Passagier in einem Flugzeug verbringt, wird das Flugzeug von Robotern gesteuert. (lacht) Es wäre auch kein Problem, ganz ohne menschliches Zutun zu fliegen. Aber das ist wahrscheinlich ein juristisches Problem. Ich habe Sie jetzt hoffentlich nicht zu sehr beunruhigt?

Nein. Aber kommen wir anhand von etwas so Urmenschlichem wie der Flugangst zurück zu Ihrer Forschung: Die zentrale Idee dieser ist, dass sich Intelligenz nur in Körpern entwickeln kann, die ihre Umwelt wahrnehmen, mit ihr interagieren und von ihr lernen. Wie aber entwickelt sich die menschliche Intelligenz in einer neuen Umwelt, die durch unsichtbare Algorithmen, künstlich intelligente Systeme und spezialisierte Roboter geprägt ist?

Das wissen wir noch nicht. Unsere Grundhypothese ist: durch meine Interaktion mit der Umwelt lerne ich über meine Umwelt. (Pfeifer greift nach der Ausgabe des «Monats», die wir ihm mitgebracht haben.) Wenn ich dieses Magazin in die Hand nehme, ist dies eine physikalische Interaktion mit meiner Umwelt. Die elektromagnetischen Wellen, ausgehend von diesem Heft, erzeugen eine visuelle Sensorstimulation in meinem Auge und meinem Gehirn. Und gleichzeitig aktiviere ich meine haptischen Sensoren: Ich spüre die Oberfläche des Materials. Und die sogenannt propriozeptive Wahrnehmung sagt mir, wie schwer der Gegenstand ist, ich spüre die Muskelspannung, die es braucht, um den Gegenstand zu heben. Erst weil ich das Heft in die Hand nehme, spüre ich es. Sie sehen: Wir Menschen handeln immer. Menschen können nicht nicht handeln. Sonst sind sie tot. Und durch unsere Handlungen erzeugen wir aktiv Sensorstimulation. Die Rückkoppelung mit unserem Gehirn erzeugt dann sensomotorische Koordination zwischen verschiedenen Wahrnehmungskanälen. Diese ermöglichen es dem Gehirn, Vorhersagen über Gegenstände und Geschehnisse zu machen. Wenn ich also das Heft anschaue, habe ich bereits eine Erwartung, wie es sich anfühlen wird. Und diese Erwartungen sind ex­trem wichtig für die Steuerung der motorischen Funktion, etwa die Berührung des Magazins. Auf der Handfläche und auf den Fingerbeeren haben wir dann eine sehr dichte Sensorik für Druck, Temperatur, Vibration und Schmerz. Der natürliche Griff mit der Handfläche erzeugt also viel interessantere Sensorstimulationen, als wenn ich mit dem Handrücken über ein Objekt fahre. Unser Körper ist so gebaut, dass die Informationsverarbeitung des Gehirns die eingehenden Impulse bestens verknüpfen kann – und aus diesem Rohmaterial dann etwas über die Umwelt lernt. Wer das versteht, baut Roboter, die dieses wunderbare System kopieren – oder sogar verbessern!

Das klingt, als bewegten Sie sich wieder in Richtung der Bauprinzipien der Natur – oder wie es ihr Kollege Rodney A. Brooks ausgedrückt hat: Zurück zur Ameise?

Man kann viel lernen von der Natur. Eines ihrer Prinzipien ist, dass jede Handlung eine Sensorstimulation zur Konsequenz hat. Wenn ich gehe, bewegt sich die Umwelt übers Gesichtsfeld – und das ist, weil ich gehe, weil ich physikalisch mit der Umwelt interagiere; ich spüre die Kräfte in der Muskulatur, meine Füsse spüren den Druck, wenn sie auf den Boden auftreten. Aus diesen Eindrücken generieren wir laufend Erwartungen, welche Sensorstimulationen kommen müssen. Wenn diese Erwartungen erfüllt werden, wissen wir gar nicht, dass wir diese Erwartungen hatten…

…erst wenn eine Stufe einer Treppe fehlt, merkt man, dass man davon ausging, dass der nächste Tritt gleich sein würde wie der vorige.

Genau: Wir realisieren die Erwartung erst, wenn sie sich nicht erfüllt. Das sind Grundprinzipien, die in der realen Welt spielen. Wenn wir Systeme für die reale Welt bauen wollen, macht es Sinn, dass wir Prinzipien der Natur verwenden. Die Evolution hat uns genau mit dieser Fähigkeit ausgestattet. Das heisst aber nicht, dass wir Sklaven dieser Prinzipien sind. Es gibt schon heute unzählige Dinge, die wir besser machen als die Natur. Man denke nur an Konstruktionsmaterialien. Die Natur verwendet beispielsweise keine Metalle – wir schon. Es ist sensationell, was man mit Metall alles machen kann. Es gibt noch viele andere Materialien und technische Lösungen, die besser sind als jene, mit denen die Natur baut.

Im evolutionären Sinne kennt die Natur auch keine Ethik. Was sich evolutionär durchsetzt, überlebt…

…die Evolution hat auch kein Ziel! Sie ist einfach. Sie ist nicht ethisch, wir Menschen schon. Auch Roboter könnten, wenn wir uns bei der Konstruktion am Menschen orientieren, einmal eine Art Ethik haben, der Natur also voraus sein.

Sie meinen: Sie könnten dem Roboter ein Programm einspeisen, das ihn realisieren lässt, dass ihm ein Stück fehlt, wenn Sie ihm den Arm abmontieren? Der Roboter könnte sich dann… beschweren?

Genau. Die Koreaner haben etwa vor fünf Jahren eine Robotercharta auf die Beine gestellt. Darin geht es nicht nur darum, wie Menschen Roboter programmieren sollen, sondern auch um die Rechte der Roboter. Wenn ich einen Roboter baue, der in der Interaktion mit der Umwelt eigenständig ist, entwickelt er eine Art Persönlichkeit. Er lernt! Das ruft ja geradezu nach einer Ethik.

Was ist der Nutzen von selbst lernenden Maschinen?

Sie sind per se nützlicher, da man sie nicht ständig umprogrammieren muss, sie sind eigenständiger. Ich gebe Ihnen ein Beispiel: Wenn wir Roboter auf eine unbemannte Raumfahrtmission senden, wissen wir nicht genau, welche Umwelt sie am Ziel – etwa auf dem Mars – vorfinden. Also muss der Roboter situativ aus seiner eigenen Sicht, mit seiner eigenen Interaktion auf die Umwelt reagieren und über sie lernen können – sonst ist er entweder nur ein ferngesteuertes Werkzeug mit beschränkter Lebensdauer oder blosser Weltraumschrott da oben. Das heisst aber auch: der Roboter gewinnt gegenüber uns zusätzliche Autonomie. Wir haben ihn dann weniger unter Kontrolle. Er bekommt durch die Lernerfahrung eine gewisse Individualität. Ist es aber dann noch ethisch vertretbar, dem Roboter den Strom abzuschalten? Ich hab hierauf keine klare Antwort. Aber wenn wir die ganze Informatik anschauen, erkennen wir, dass wir längst über den Punkt hinaus sind, an dem wir einfach den Stecker ziehen können. Wir befinden uns in einem derart symbiotischen Abhängigkeitsverhältnis von Maschinen, dass dies nicht mehr geht. Wir werden schon heute von den Maschinen dazu gezwungen, sie am Funktionieren zu erhalten. Auch ohne Terminator und bösartige Roboter sind wir längst Sklaven der Technologie, die wir produziert haben.

Finden Sie das nicht besorgniserregend? Kürzlich sind 40 Prozent des gesamten Online-Datenverkehrs zusammengebrochen, weil Google während vier Minuten offline war.

Nein. An solchen Ereignissen sieht man nur, wie wichtig es ist, dass wir diese Systeme am Leben erhalten. Ähnlich wie beim Stromnetz oder dem öffentlichen Verkehr, diese Systeme funktionieren seit Jahrzehnten ähnlich. Bedrohlich ist das nicht, sondern eine Glanzleistung!

Wenn wir über Ethik für Roboter sprechen, klingt das im Moment noch weit hergeholt. Auch wenn ein Roboter lernt, so verbucht er auf einer Festplatte Einsen und Nullen. Er lernt zu kombinieren und erkennt irgendwann Materialien wie Leder, weil er vielleicht die chemische Zusammensetzung analysieren kann. Die Sensorik wird immer besser, die Speicherkapazitäten wachsen rasant und übertreffen das menschliche Gehirn. Was unterscheidet also den Roboter vom Menschen, was können Menschen, das Roboter nie können werden?

Das ist eine gute und ungelöste Frage. Es gibt Leute, die definieren natürliche Intelligenz einfach als das, was man noch nicht automatisiert hat. (lacht) Wir Menschen können sehr viele unterschiedliche Dinge tun: lesen, rechnen, gehen, Geschirr waschen, nähen, Texte übersetzen, Tennis spielen, Schrauben eindrehen, sprechen. Aber für fast jede Einzeltätigkeit – es gibt Ausnahmen wie beispielsweise Tennis – existiert eine Maschine, die dies schneller, besser, billiger, zuverlässiger und ohne Ermüdungserscheinungen machen kann. Was es nicht gibt, ist eine Maschine, die alle Tätigkeiten des Menschen beherrscht. Also ist es die Integration all dieser Möglichkeiten, die letztlich den Menschen ausmacht: er ist ein Alleskönner. Mein Kollege Rodney Brooks antwortete auf die Frage nach dem Unterschied mit: «It’s the juice!» Es ist der Saft – oder: Keine Ahnung! (lacht) Aber irgendetwas gibt es, auch wenn wir es nicht verstehen.

Unterscheidet uns vom Roboter vielleicht die menschliche Intention beim Handeln? Wir wissen, wieso wir eine Schraube eindrehen – der Akkuschrauber, die Maschine, die das besser kann, aber nicht.

Richtig. Unsere ganze menschliche Kognition baut auf der Interaktion unseres Körpers mit unserer Umwelt mit einem bestimmten Ziel auf. Unsere spezifische Anatomie prädestiniert uns zu bestimmten Typen von Interaktionen. Dazu gehören unsere Art der Sensorik, die Verteilung der Sensorik auf dem Organismus und natürlich die Umwelt selbst. Die Objekte, die uns umgeben, bestimmen mit, was wir lernen. Wenn ich einen Roboter baue, gelten dieselben Prinzipien. Er lernt in der Interaktion mit der Umwelt; die hängt aber vom Typ seiner Sensorik, von der Art seiner Handlungen ab. Aber wenn sich die Natur der Sensoren, die Anatomie, Konstruktionsweise von jener des Menschen unterscheidet, entsteht eine andere Art und Weise der Interaktion mit der Umwelt. Roboter werden also immer anders «denken» und «fühlen» als wir. Entwickler versuchen zwar derzeit, Robotern sogenannte Wertesysteme einzupflanzen. Wenn diese Werte mit der Physiologie des Roboters zu tun haben, hat dies direkte Konsequenzen für das Verhalten des Roboters. Das ist der Fall, wenn die Werte beispielsweise mit der Batteriespannung, der Betriebstemperatur, dem Schmierzustand der Gelenke verknüpft sind. Wenn der Roboter etwa versteht, dass seine Betriebstemperatur zu hoch ist und er wegen einer ausgebrannten Platine den Arm nicht mehr bewegen kann, dann bewegt er sich in dem Bereich menschlicher Intentionen. Wir merken, wenn wir dehydrieren, und müssen trinken, und bei mangelnder Energie essen wir. Der Roboter muss eine Ladestation finden, wenn die Batteriespannung zu niedrig ist. So könnte man ein motivationales System bauen, das grosse Ähnlichkeiten mit jenem der Menschen hätte. Aber: hier begeben wir uns auf spekulatives Terrain.

Sie haben gesagt: «Die künstliche Intelligenz schlägt in Sachen Fehlprognosen sämtliche Disziplinen.»

So ist es. Der Verhaltensforscher David McFarland nannte es «anthropomorphization: the incurable disease». Wir projizieren unsere eigenen Vorstellungen und Gefühle in unsere Umwelt hinein. Das macht es wahnsinnig schwierig, den Unterschied zu machen zwischen dem, was wir hineinprojizieren, und dem, was das Verhaltenssystem wirklich kann. Meine Vision ist, dass wir irgendwann einmal Roboter haben, die uns das Leben in allen Bereichen erleichtern, solche, die nützlich und angenehm sind. Es ist dramatisch, wie sich die demographischen Strukturen verändern und unsere Gesellschaften altern. In wenigen Jahren reduziert sich das Bevölkerungswachstum vieler hochentwickelter Gesellschaften. Und dann kommen diese Maschinen genau zur richtigen Zeit, um uns ein angenehmes Leben – etwa im Alter – zu verschaffen.

Schön und gut. Aber würden Sie sich wirklich von einem Roboter pflegen lassen?

Fragen Sie sich selbst: Wenn Sie wegen eines Knieunfalls auf der Skipiste nicht mehr die Treppen hochkommen, würden Sie sich lieber von einer Person die Treppe hochtragen lassen oder den Aufzug nehmen? Unabhängig wie charmant und stark der Träger wäre, ich nehme an, dass die meisten Leute den Aufzug nähmen. Mich eingeschlossen, denn: Der Aufzug gibt einem zusätzliche Autonomie. Das Ziel aller Arten von Technologien sollte es sein, den Menschen möglichst lange möglichst viel Autonomie zu geben. Aus dieser Perspektive sind Maschinen, die uns das Leben im Alter erleichtern, eine äusserst positive Angelegenheit.

«Sympathisch elitär, aber nie hochnäsig!
Die Kollegen beim MONAT wissen,
dass der liberalen Haltung ein Schuss Ironie gut bekommt.»
Rainer Hank, «FAZ»-Kolumnist,
über den «Schweizer Monat»