«Unsere Intelligenz ist in jeder Hinsicht suboptimal»
Dileep George, fotografiert von Philpp Baer.

«Unsere Intelligenz ist in jeder Hinsicht suboptimal»

Keine Science-Fiction mehr: Was fehlt noch, um die menschliche Intelligenz künstlich zu rekonstruieren? Ein Pionier der Vereinigung von Neurowissenschaft und maschineller Intelligenz berichtet.

Herr George, wie würden Sie einem zehnjährigen Kind erklären, was künstliche Intelligenz ist?
Zehnjährige wissen das meistens schon recht genau. Mein Sohn ist acht Jahre alt und erklärt mir, was KI ist (lacht). Kinder wachsen heute mit Computern auf und gehen spielerisch mit Robotern um. Sie erkennen auch, dass diese noch nicht wirklich intelligent sind.

Kinder gehen also intuitiv an KI heran?
Ja, besonders die, die in den letzten zehn Jahren geboren wurden. Sie wachsen mit diesen Ideen auf, schauen sich Videos auf YouTube an, reden vielleicht mit Siri oder Alexa. Bevor mein Sohn zur Schule geht, fragt er Alexa nach dem Wetter, damit er weiss, ob er eine Jacke mitnehmen soll.

Gibt es für Ihren Sohn Beschränkungen, was die Nutzung moderner Technologie angeht?
Alles in Massen. Wenn er sich drei Stunden lang mit Alexa unterhalten würde, würde ich mir natürlich Sorgen machen. Aber wenn er ihr ein paar Fragen stellt, ist das kein Problem.

Und wie erklären Sie einem Erwachsenen künstliche Intelligenz?
Hardware und Mechanik funktionieren heute recht gut: Es gibt Roboterarme, die sich schneller bewegen als Menschen und Manöver ausführen, die diesen nicht gelingen. Aber es geht darum, etwas zu bauen, das so intelligent ist wie wir Menschen. Was wir nicht haben, ist die Software, die als Gehirn für diese mechanischen Bauteile fungiert. Diese Gehirne zu entwickeln, darum geht es bei KI.

Heutige KI, sagen Sie, ähnelt stark dem evolutionär gesehen ältesten Teil unseres Gehirns, dem Stamm- oder «Reptilienhirn». Können wir also die Gehirnkapazität beispielsweise eines Alligators nachbilden?
Nein, leider bei weitem noch nicht. Wenn man genügend Ressourcen einsetzen würde, könnte man vermutlich etwas bauen, das einen Alligator übertrifft. Doch vergessen wir nicht: Lebende Alligatoren sind sehr robust und durchaus smart, was Fortbewegung, Wahrnehmung und Umweltreaktionen anbelangt. Es liegt daran, dass sich ihre Körper und Gehirne evolutionär entwickelt haben. Schaut man sich die Geschichte der Evolution an, hat sich in den letzten 300 Millionen Jahren eine grosse Vielfalt an Lebewesen entwickelt: sehr simple Organismen, Dinosaurier, Reptilien, geflügelte Tiere. Sie alle waren in ihrer biologischen Nische erfolgreich. Darüber hinaus hat es die Evolution geschafft, all diese unterschiedlichen Designs als Sonderanfertigungen hervorzubringen. Ein Frosch etwa hat einen Fliegendetektor auf seiner Retina und ist darauf spezialisiert, Fliegen zu fangen. Ein Alligator dagegen wird nie gut darin sein, Fliegen zu fangen. Er überlebt aber im Sumpfland, sogar in Salzwassersümpfen.

Und wir Säugetiere?
Säugetiere sind ganz anders als diese Old Brain Animals. Die Evolution hat nämlich auch generische Strukturen geschaffen, die besonders gut darin sind, Neues zu lernen. Den Sitz der Intelligenz bei Menschen nennt man wortwörtlich neues Gehirn: Neocortex. Alle bereits existierenden erfolgreichen KI-Algorithmen sind so strukturiert, wie die Evolution diese Old Brain Animals geschaffen hat. Evolution ist ein generischer Algorithmus, der massgeschneiderte Lösungen für jedes Problem schafft. Bei menschlicher Intelligenz aber geht es immer um Universalisierung. Um menschenähnliche Intelligenz zu kreieren, müssen wir – anstatt weiterhin massgeschneiderte Maschinen zu bauen – verstehen, was an dieser Architektur das Besondere ist.

Sie versuchen also, dasselbe zu tun wie die Natur. Weil die Evolution so intelligent vorgegangen ist?
Nein, unsere Intelligenz ist in jeder Hinsicht suboptimal. Sie ist aber das einzige funktionierende Modell, das wir besitzen. Es gibt keinen anderen Weg, Intelligenz zu definieren, als sich an Menschen zu orientieren. Haben wir menschenähnliche Denkvorgänge aber erst einmal erreicht, werden wir diese Schwelle überwinden und etwas schaffen, das intelligenter ist als der Mensch. Denn Maschinen müssen nicht schlafen, können viele Prozesse parallel verarbeiten und mühelos die Gehirnkapazitäten mehrerer Menschen in sich vereinen. Während unsere Hirne fest im Schädel verankert sind, könnten Maschinengehirne ohne Probleme Daten miteinander austauschen. Wenn wir die Prinzipien des menschlichen Gehirns in Software umsetzen können, wird sie sehr viel intelligenter sein als ein Mensch. Sie wird automatisch das Web durchforsten und Informationen in wenigen Augenblicken verarbeiten.

«Unsere Intelligenz ist in jeder Hinsicht suboptimal.

Sie ist aber das einzige funktionierende Modell, das wir besitzen.»

Worin ist menschliche Intelligenz heute noch besser als KI?
In der Disziplin gesunder Menschenverstand. Wir sind in der Lage, unbewusst und intuitiv auf ein enormes Wissensarsenal zurückzugreifen. Wenn Sie beispielsweise diesen Raum verlassen wollen, gehen Sie durch die Eingangstür. Ein Roboter auf dem heutigen Stand aber wird nicht intuitiv davon ausgehen, dass das die optimale Strategie ist, um den Raum zu verlassen. Er wird stattdessen ein Fenster nach dem anderen untersuchen, ob man es öffnen und hinausklettern kann. Common Sense schafft es, nur auf relevante Informationen zurückzugreifen und alle anderen zu ignorieren. Das umzusetzen, ist der schwierige Teil, den wir noch nicht geschafft haben.

Fühlen Sie manchmal Demut, wenn Sie das menschliche Gehirn und seine Fähigkeiten betrachten?
Ja, grosse Demut. Die Lücke zwischen dem, was menschliche Intelligenz ausmacht, und dem, was bestehende Algorithmen tun, ist nach wie vor ziemlich gross. Natürlich setzen wir immer mehr KI-Systeme praktisch ein. Wir können mit Maschinen reden und selbstfahrende Autos werden Realität. Aber hinter allem steckt derselbe Algorithmus, den Forscher vor 20, 30 Jahren entdeckt haben. Seitdem haben wir nichts mehr als ein paar Tricks hinzugelernt und den Algorithmus mit stärkerer Rechenleistung und mehr Daten skaliert. Sogar Fake-KI, die menschlicher Intelligenz in keiner Weise nahekommt, ist ausserordentlich nützlich und leistungsstark. Die Frage ist doch: Was wird erst möglich sein, wenn wir eine KI schaffen, die menschenähnlich ist?

Wird in den nächsten dreissig Jahren also noch sehr viel mehr möglich werden?
Absolut, es gibt noch viel zu entdecken. Die Erkenntnisse müssen auch systematisch kombiniert werden, denn die Entdeckungen sind vielleicht schon in den heutigen neurowissenschaftlichen Studien verborgen. Es braucht aber Forscher, die systematisch danach suchen und sie in mathematische und von Maschinen erlernbare Begriffe umsetzen.

Ihre Firma reproduziert Gehirne. Wie kann ich mir das vorstellen: so wie in «Frankenstein»?
Wir haben auch Roboter, aber vor allem geht es um Software – bei uns sehen Sie nicht Menschen auf Operationstischen, sondern Menschen, die an Computern arbeiten. Genau genommen reproduzieren wir nicht Gehirne, sondern suchen in von Neuro- und Kognitionswissenschaftern erarbeiteten Studiendaten nach komputationalen Einsichten. Kann ich beispielsweise die Funktion dieses kleinen Gehirnareals in die Computerwissenschaft, auf das maschinelle Lernen1 übertragen? Wir finden die Mechanismen dahinter, modellieren sie mathematisch und implementieren sie in Software.

Was wäre ein konkretes Beispiel?
Wenn ich den Bezug eines Stuhls mit einem anderen Muster versehe, zum Beispiel mit Erdbeeren statt Bananen, werden Sie keine Mühe haben zu erkennen, dass es immer noch ein Stuhl ist. Doch aktuelle Algorithmen werden Mühe damit haben, wenn sie den Stuhl vorher nie gesehen haben. Das liegt daran, dass in menschlichen Gehirnen die Form eines Objekts anders kodiert und prozessiert wird als die Oberflächenbeschaffenheit. Deshalb sind Menschen sehr gut in «Mixing and Matching»: Weil Form und Oberfläche getrennt verarbeitet werden, können sie sich problemlos ein Pferd aus Silber vorstellen oder eben einen Stuhl mit einem bestimmten Muster.

Was ist das Intelligenteste, das Sie eine KI bislang haben machen lassen?
Eines unserer Systeme hat alle existierenden Captchas auf Buchstabenbasis überwunden, also die Rätsel oder Aufgaben, die Robotersoftware im Internet herausfiltern sollen. Gelungen ist das, weil wir uns, anders als andere Forscher, auf Dateneffizienz und logisches Schlussfolgern konzentriert haben. Ein zweites Beispiel ist General Game Playing.2 Kennen Sie etwa das Atari-Spiel «Breakout»3, wo man einen Schläger horizontal bewegt, um einen Ball nicht nach unten fallen zu lassen und mit ihm Steine zu treffen? Deep Enforcement Learning (DEL) kann dieses Spiel lernen. Wenn man jedoch das Spiel nur ganz leicht verändert, den Schläger beispielsweise drei Pixel nach oben verschiebt, so fällt das einem Menschen vielleicht gar nicht auf. Die DEL-Software versagt dann aber total, denn sie funktioniert nur mit einem stumpfen Abgleichen und Speichern von Reizen und Reaktionen. Diese Bewegung hat früher funktioniert, das System erinnert sich daran und macht einfach weiter so. Unser neues System, das Schemanetzwerk, geht ganz anders an die Aufgabe heran: Es lernt die kausale Dynamik des Spiels. Ein Objekt, der Ball, bewegt sich und ändert seine Richtung in einer bestimmten Weise, wenn es ein anderes Objekt, den Schläger, trifft. Es lernt also, die Beziehungen zwischen Ursache und Wirkung zu verstehen. Wenn es das tut, hat es keine Probleme, sich an kleine Veränderungen anzupassen. Man kann den Schläger 3 oder 13 Pixel verschieben, ein anderes Hindernis einbauen, die Ballgrösse ändern, die Steine verschieben – und es funktioniert immer noch. Das Schemanetzwerk entwirft ein kausales Modell und reagiert nicht einfach auf spezifische Inputs, so wie es das DEL-System tut.

Wenn Sie sich die Forschungsresultate der letzten zehn Jahre anschauen und die praktischen Anwendungen, welches sind für Sie die beiden wegweisenden?
Was die Neurowissenschaft betrifft, war es eine Erkenntnis über Gliazellen, die im Gehirn das Hintergrundmaterial für die Neuronen bilden. Neuronen leben in einer leimähnlichen Substanz namens Glia. Früher wurde sie weitgehend ignoriert, aber dann fand man heraus, dass sie auch beim Lernen eine wichtige Rolle spielt. Das war überraschend. Im Bereich maschinelles Lernen waren Generative Adversarial Networks4 sehr nützlich und neu. Ansätze dazu gab es schon früher, aber jetzt hat man Netzwerke trainiert, die sehr realistisch aussehende Bilder erzeugen.

Wie ist der Fortschritt in der Entwicklung von KI? Jürgen Schmidhuber sagte uns, dass neuronale Netze alle 5 Jahre 10mal billiger würden. 5
Das stimmt für Computerchips, doch bei neuronalen Prozessen gibt es keine Skalierung im Sinne von Moore’s Law.6 Komputation wird günstiger, aber das fundamentale Problem in neuronaler Intelligenz ist nicht Komputation. Es sind die Daten.

Der Fortschritt wird also nicht durch Mangel an Rechenleistung, sondern an Daten verlangsamt?
Ja. Wenn Sie darüber nachdenken, was die Evolution getan hat, dann kommen Sie darauf, dass es sich um einen Algorithmus handelt, der in der realen Welt funktioniert, die Daten beobachtet und die Gewichte ändert. Wer jedoch versucht, wie die Evolution vorzugehen, muss sehr viel Zeit aufwenden. Stattdessen kann man sich anschauen, was die Evolution hervorgebracht hat, nämlich unsere Gehirne. Wenn man deren Prinzipien durchschaut und nachbildet, ist das etwas anderes, als den evolutionären Algorithmus blind anzuwenden und zu hoffen, dass das letzten Endes Intelligenz hervorbringt.

Was halten Sie vom Silicon Valley in Kalifornien?
Ein grossartiger Ort. Das Beste daran ist die Mentalität der Menschen. Sie wagen es, Risiken einzugehen und Ideen zu verfolgen, die zunächst albern und abwegig wirken können. Wenn man sie zum ersten Mal hört, hält man sie für komplett verrückt. Das ist das Attraktive am Silicon Valley.

Sie sind auch selber ein Unternehmer. Wie läuft es?
Gut. Wir haben ein hochmotiviertes Team, das sich zum Ziel gesetzt hat, menschenähnliche Intelligenz zu schaffen. Hochkarätige Investoren wie Mark Zuckerberg und Elon Musk haben bei uns investiert.

Ist ein bedingungsloses Grundeinkommen unvermeidlich?
Ich glaube, wir werden mit dieser Idee experimentieren müssen, denn wir sollten unsere gesellschaftliche Organisation nicht als selbstverständlich betrachten. Blicken wir hundert Jahre zurück, war Arbeit etwas ganz anderes, als wir heute darunter verstehen. Nehmen wir Ihre Arbeit: Sie stellen mir Fragen und schreiben eine Geschichte daraus – früher hätte das als Vergnügen gegolten. Unsere Arbeit ist technologieorientiert. Wenn Technologie Arbeitsformen verändert, ändert sich auch das Verhältnis von Arbeit und Geld. Auch Geld ist etwas, das wir erfunden haben.

Was werden all die Menschen, die nicht so klug sind wie Sie, in der Zukunft machen?
Ein Teil der Handarbeit, zum Beispiel die Reinigung eines Hauses, ist am schwersten zu automatisieren. Programmieren aber – eine Tätigkeit, die heute als intelligent angesehen wird – könnte etwas sein, das schneller automatisiert wird als die Reinigung eines Hauses. Ich glaube, es wird beides irgendwann automatisiert werden.

Welche Jobs werden uns Menschen sicher erhalten bleiben?
Das ist wirklich schwer vorherzusagen. Zum Beispiel konnte sich niemand den Beruf des Fernsehmoderators vorstellen, bevor das Fernsehen erfunden wurde.

Stellen Journalisten die Risiken von KI verzerrt dar?
Die Medien tun das, weil sie damit Aufmerksamkeit erregen, das ist ihr Job. Terminator-Szenarien erregen nun mal Aufsehen. Wie soll man damit umgehen? Wenn man einfach sagt, dass das nicht das ist, was wirklich passiert, gilt man als langweilig (lacht).

«Haben wir menschenähnliche Denkvorgänge erst einmal erreicht,

werden wir diese Schwelle überwinden und etwas schaffen,

das intelligenter ist als der Mensch.»

Welche Gefahren sind real?
Wir sollten uns Sorgen machen über Systeme, die eingesetzt werden, ohne vorher ausreichend getestet zu werden. Ein Beispiel wären selbstfahrende Autos, die deshalb Personen- und Sachschäden verursachen.

Glauben Sie, Menschen verlieren ihre Empathiefähigkeit, wenn sie sich nur noch mit Technologie beschäftigen?
Wir sehen diesen Effekt bereits jetzt in Onlineforen. Sobald Menschen anonym unterwegs sind und vielleicht einfach nur Dampf ablassen wollen, wird das durch den Netzwerkeffekt verstärkt. Ich sehe einige weitere Nebenwirkungen kommen, aber ich denke, wir werden lernen, mit ihnen umzugehen. Früher beispielsweise klingelten im Kino während einer Filmvorstellung regelmässig Mobiltelefone. Irgendwann wurde es Teil des Prozederes, sie vor Filmanfang stummzuschalten.

Jürgen Schmidhuber befürchtet, dass KI das Universum kolonisieren und uns, ihre Schöpfer, zurücklassen wird. Ist das wahr?
(lacht) Das ist ein Science-Fiction-Szenario. Ich sehe keinen Grund, weshalb KI uns wie eine neue Spezies behandeln wird oder uns zerstören will. Es waren ja schliesslich nicht Schimpansen, die Menschen geschaffen haben. Vielleicht aber können wir das Universum kolonisieren. Erschaffen wir etwas, das wie das menschliche Gehirn denken kann, können wir es auf Raketen setzen und auf andere Planeten und in andere Galaxien schicken, um diese zu besiedeln, Informationen zu sammeln usw.

Haben Sie manchmal Angst vor Ihrer Arbeit?
Als Forscher sieht man, wie die Dinge funktionieren, viel öfters aber, wie sie nicht funktionieren (lacht). Moralische Konflikte habe ich nie erlebt. Aber Feuer ist auch eine Technologie, mit der man Furchtbares anstellen kann. Wiederum war und ist Feuer entscheidend für die Ernährung der Menschen. Ohne wäre die Menschheit nie in der Lage gewesen, so viele Individuen auf der Erde zu ernähren. Und so gehe ich mit KI um. Herausforderungen anzunehmen ist der einzige Weg, wie wir vorankommen.

Sind einige KI auch kreativ und neugierig?
In einem sehr engen Sinn. Sobald wir glauben, dass sich etwas wie ein Mensch verhält, schreiben wir ihm Emotionen und Neugier zu – während es sich tatsächlich nur um eine sehr simple Sache handelt. Denken Sie an ein Spielzeug, das auf dem Boden herumkreist und, wenn es steckenbleibt, ein süsses Geräusch macht. Die Leute werden sagen: Oh, es ist traurig. Menschen haben die Tendenz, alles da draussen zu vermenschlichen.

Big Data kann missbraucht werden als Grundlage für eine flächendeckende, anlasslose Überwachung, Wo sehen Sie hier die Gefahren?
KI kann viele Daten sehr schnell analysieren und so zu einer sehr grossen Überwachungsmaschinerie führen. Das ist bereits heute möglich, dazu braucht es keine Superintelligenz. Möglich ist es etwa, den einzelnen Menschen aufgrund der von ihm hinterlassenen Daten sozial zu bewerten. Die Frage ist: Wer würde in einer Welt wie dieser leben wollen? Die Bürger sollten sich dar-über im Klaren sein, wie viel Überwachung durchgeführt wird, wo sie durchgeführt wird, wo diese Informationen gesammelt und wie sie verwendet werden. All das sollte öffentlich bekannt sein. Es sollte Richtlinien und Beschränkungen geben, wie Daten verwendet werden. Wir sehen bereits die Konsequenzen davon, dass wir nicht sorgfältig darüber nachdenken, und sie werden zunehmen.

  1. Bei Machine Learning erkennt ein künstliches System Muster und Gesetzmässigkeiten aus Beispielen und versucht danach, diese zu verallgemeinern.

  2. General Game Playing erzeugt eine KI, die Spiele wie Schach oder TicTacToe auf adäquatem Niveau gegen einen Menschen oder eine andere KI bestreiten kann.

  3. Das Atari-Spiel «Breakout» wurde 1976 von Steve Wozniak mitentwickelt und danach einer der ersten Computerspielklassiker in Spielsalons und den ersten Personalcomputern.

  4. Generative Adversarial Networks werden etwa zur Erstellung fotorealistischer Bilder, zur Visualisierung von Gegenständen oder zur Modellierung von Bewegungsmustern in Videos verwendet.

  5. Von Menschen, Stachelschweinen und Robotern. In: Schweizer Monat 1050, Oktober 2017, S. 58 – 61.

  6. Das Mooreʼsche Gesetz besagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmässig verdoppelt.

«Ein Sprudelbad fürs Hirn!»
Monique Bär, Philanthropin und Gründerin der Arcas Foundation,
 über den «Schweizer Monat»