Wir brauchen Ihre Unterstützung — Jetzt Mitglied werden! Weitere Infos

Der lange Weg
zur Superintelligenz

Die KI, von der heute alle reden, wird ihrem Namen nicht ansatzweise gerecht. Um nur schon die Fähigkeiten eines kleinen menschlichen Kindes zu erreichen, stehen der KI-Entwicklung noch viele Schritte bevor.

Der lange Weg   zur Superintelligenz
Rodney Brooks. Foto: Science History Institute, CC BY-SA 3.0.

Gott schuf den Menschen nach seinem Bilde (Gen 1, 26 f.). Und der Mensch schuf die KI nach seinem Bilde.

Das zumindest war die Ausgangsidee der KI-Forschung. Doch nur schon herauszufinden, wie wir selber – als «Maschinen» – funktionieren, stellt sich als schwieriger heraus als erwartet. Vielleicht sind wir Wesen unterhalb einer bestimmten Intelligenzschwelle, die uns erlauben würde, unsere eigene Intelligenz hinreichend zu verstehen und eine entsprechende künstliche zu entwickeln – ganz sicher trifft das auf alle Tiere zu –, vielleicht ist es aber auch einfach nur sehr schwierig und erfordert 100 oder mehr Jahre Anstrengung. Alle Gründer der KI und die meisten Forscher seither waren dadurch motiviert, eine Intelligenz auf menschlichem Niveau zu schaffen.

Jüngst haben einige Gruppen dafür die Bezeichnung «Artificial General Intelligence» (AGI) – zu Deutsch etwa «generelle künstliche Intelligenz» (GKI) oder «starke künstliche Intelligenz» – gepachtet, was aber nichts daran ändert, dass die Bemühungen darum so alt sind wie die Bemühungen um KI. Diese Gruppierungen reden – oft im selben Atemzug – darüber, wie toll oder wie schrecklich es sein wird, obwohl sie keine Ahnung haben, wie man da hinkommen soll. Andere, die sich womöglich nicht für KI-Forscher, aber doch für KI-Experten halten, betonen, dass es jede Sekunde so weit sein könnte und dass uns die KI, sobald es so weit sei, überflügeln werde, da sie auf riesige Rechnerkapazitäten zurückgreifen könne.

Performance ist nicht dasselbe wie Kompetenz

In Wirklichkeit ist der Weg dahin noch sehr lang und wir müssen noch viele Probleme lösen, um Einheiten genereller künstlicher Intelligenz (GKI) zu entwickeln. Derzeit operieren alle KI-Systeme innerhalb einer bestimmten Struktur, aber nicht in einer Struktur konstanter Existenz. Sie operieren als Transaktionsprogramme, die Menschen ausführen, wenn sie etwas Bestimmtes wollen. Zu allem, auch nur geringfügig, anderen sind sie komplett unfähig.

Nehmen Sie eine automatische Bildbeschriftung von Google, die am 27.11.2014 für Aufsehen sorgte. Ein Google-Programm versah das folgende Foto eigenständig mit der Bildunterschrift «Eine Gruppe junger Menschen spielt eine Partie Frisbee». Zu dieser Zeit nahm die Öffentlichkeit erstmals richtig Kenntnis von «Deep Learning». Sogar KI-Forschern schien es wundersam, dass ein Programm das so gut tun konnte. Dabei verwechselten die Leute aber Performance mit Kompetenz. Hat ein Mensch die Performance, dieses Foto derart zu beschriften, dann wird man selbstverständlich von ihm erwarten, dass er auch die Kompetenz hat, die folgenden Fragen zu beantworten:

  • Welche Form hat ein Frisbee?
  • Wie weit kann ein Mensch ein Frisbee ungefähr werfen?
  • Kann man ein Frisbee essen?
  • Kann ein dreimonatiges Baby Frisbee spielen?
  • Ist heute gutes Wetter für eine Partie Frisbee?

Doch das neuronale Deep-Learning-Netzwerk, das besagte Bildunterschrift ausspuckte, kann keine dieser Fragen beantworten, ja es hat nicht einmal eine Ahnung davon, was eine Frage überhaupt ist. Es hat bloss gelernt, farbigen Pixeln Wortreihen zuzuordnen. Diese Worte gehen kaum über die anonymen Symbole der traditionellen KI-Forschung hinaus. Die Worte oder Symbole haben darüber hinaus keine Bedeutung, die das Netzwerk mit anderen Dingen in der Welt in Verbindung bringen kann.

Oder nehmen Sie AlphaGo, das Programm, das den 18maligen Weltmeister Lee Sedol im März 2016 im Brettspiel Go schlug. Das Programm hatte keine Ahnung, dass es ein Spiel spielte, dass Menschen existieren oder dass das Spiel auf einer zweidimensionalen Ebene in der echten Welt stattfand. Es wusste nicht einmal, dass eine echte Welt existiert. Ganz anders als Lee Sedol: ein lebender, atmender Mensch, der sich um die Existenz der Welt schert.

Ich erinnere mich an einen Kommentar damals: «Sedol wird von einer Tasse Kaffee unterstützt!» Ja, und AlphaGo wurde von 200 menschlichen Ingenieuren unterstützt. Sie besorgten ihm Prozessoren in der Cloud, auf denen es seine Berechnungen ausführen konnte, sie unterhielten Softwareversionen, fütterten es mit Sedols Zügen (Sedol schaute bloss mit seinen eigenen Augen auf das Brett), starteten alles neu, wenn nötig, und ermöglichten so AlphaGo, überhaupt zu spielen. Das ist keine Superintelligenz, sondern ein Schwerstbehinderter.

Auf dem Weg zur generellen künstlichen Intelligenz

Als Allererstes brauchen wir also Programme, seien sie verleiblicht oder nicht, die sich selbst um ihre Bedürfnisse kümmern können. Programme, die die Umgebung, in der sie leben, verstehen (sei es eine Cloud oder die physische Welt). Ein Roomba – also einer dieser runden selbstfahrenden Staubsauger – tut ein bisschen was davon, indem er sich an seinem Aufladegerät anschliesst, bevor ihm der Strom ausgeht, Menschen signalisiert, dass sein Staubsack geleert werden muss, oder um Hilfe bittet, wenn er feststeckt. Das ist kaum das Mass an Selbstversorgung, das zum Beispiel ein Roboter mitbringen müsste, der alte, pflegebedürftige Menschen in ihrem Zuhause oder im Altersheim unterstützt, aber es zeigt ungefähr, wovon ich spreche.

Wenn wir ein KI-System entwickeln wollen, das so gut wie der Mensch ist, das also eben z.B. als Altenbetreuungsroboter (ABR) arbeiten könnte, dann müssen wir verstehen, was KI derzeit überhaupt gar nicht kann. Daraus lässt sich folgern, in welche Bereiche wir besondere Forschungsbemühungen stecken sollten. Hier nur drei Beispiele1, um einen Eindruck meiner Überzeugung zu geben, dass es noch viel zu tun gibt.

Reale Wahrnehmung: Deep Learning hat fantastische Fortschritte in der Bilderkennung gebracht. Viele denken, computergestütztes Sehen sei heute ein gelöstes Problem. Das stimmt bei weitem nicht: Das vorliegende Foto zeigt ein unterdessen gut bekanntes Versagen eines bestimmten Deep-Learning-trainierten Sichtsystems für ein autonomes Fahrzeug. Auf dem Stoppschild wurden sorgfältig ein paar schwarze und weisse Markierungen platziert. Das System erkennt es nicht länger als Stoppschild, sondern identifiziert es als Geschwindigkeitsbegrenzung! Wie kann ein Sichtsystem, das gut genug ist, ein Auto herumfahren zu lassen, das jemals so falsch verstehen? Geschwindigkeitsbegrenzungen sind weiss, nicht rot! Das System kann doch sicher den Unterschied zwischen roten und nicht roten Schildern erkennen?

Nun, nein. Wir denken, das Rot eines Stoppschilds sei eine offensichtliche, inhärente Eigenschaft, denn unsere Sehfähigkeit hat sich so entwickelt, dass sie Farbkonstanz wahrnehmen kann. Unter anderen Lichtverhältnissen reflektiert das gleiche Objekt eine andere Lichtfarbe – zoomen wir auf ein Pixel von etwas, das «rot» ist, mag das Pixel auf dem Kamerabild keinen Rotwert haben. Unser Gehirn nutzt alle möglichen Hinweise – die Wahrnehmung von Schatten; das Wissen darüber, welche Farbe ein bestimmtes Objekt haben sollte; lokale geometrische Beziehungen zwischen gemessener Farbe –, damit es eine tatsächliche Farbe feststellen kann. Diese kann sich stark von der Farbe unterscheiden, die sich aus der simplen Betrachtung der RGB-Werte eines Pixels im Kamerabild ergibt. Die Datensätze, die verwendet werden, um das Deep-Learning-System zu trainieren, haben keine detaillierten Farblabels für kleine Ausschnitte des Bildes. Die Berechnungen für Farbkonstanz sind ziemlich komplex – sie lassen sich nicht einfach von einem Deep-Learning-System konstruieren, indem es Online-Fotos anschaut.

Reale Fingerfertigkeit: Ich kann mit meiner Hand problemlos den Autoschlüssel (z.B. neben dem Kaugummipack) aus der Hosentasche ziehen. Einen Roboter lasse ich in absehbarer Zeit nicht in meiner Hosentasche rumfummeln. Fingerfertigkeit hat sich als unwahrscheinlich komplex herausgestellt – in den letzten vier Jahrzehnten sind hier kaum Fortschritte erzielt worden. Bis heute hat man es z.B. nicht geschafft, das Greifen und Verpacken von Waren im E-Commerce zu automatisieren – obwohl viel in diesem Bereich geforscht wird, da es zu massiven Kosteneinsparungen führen würde.

«Einen Roboter lasse ich in absehbarer Zeit nicht

in meiner Hosentasche rumfummeln.»

Noch grösser sind die Schwierigkeiten mit weichen Materialien wie z.B. Stoffen oder zu tranchierendem Fleisch – oder eben mit alten Menschen, die ins Bett zu tragen wären. Ich verziehe immer mein Gesicht, wenn mir Forscher die Fähigkeiten einer neuen Roboterhand demonstrieren, die von menschlicher Hand geführt wird, statt auf einem Roboterarm befestigt zu sein – als wäre der physikalische Prozess des Greifens die grosse Herausforderung. Sie haben wahrscheinlich auch schon mal eine Greifhilfe benutzt oder zumindest jemandem zugesehen, der das gemacht hat: Mit nur zwei Plastikfingern und einer Greifbewegung werden Sie mehr Greifgeschicklichkeit haben als jeder Roboter in der Geschichte der Robotik. Sogar mit dieser simplen Greifhilfe und keinerlei Tastgefühl, aber einem menschlichen Gehirn als Steuerzentrum sind wir dem Roboter überlegen.

Ein Buch lesen: Menschen kommunizieren Wissen und Fähigkeiten über Bücher oder seit kurzem vermehrt über «How-to»-Videos. Auch wenn teilweise behauptet wird, verschiedene «Roboter» oder KI-Systeme könnten von einem Video oder von Buchlektüre lernen: Keine dieser Demonstrationen ist auf dem Niveau der Fähigkeit eines menschlichen Kindes, und die Ansätze lassen sich nicht generalisieren. Eine wesentliche Rolle beim Verständnis von Texten (und aller Kommunikation zwischen Menschen) spielt Hintergrundwissen. Man könnte das «Common Sense» nennen:

Wer ist grösser? Prince William oder sein Baby Prince George? Kann man Salat aus einem Polyester-Shirt machen? Wenn man eine Nadel in eine Karotte steckt, hat dann die Karotte ein Loch oder die Nadel?2 Solche Fragen scheinen uns unsinnig, sie sind fürs Textverständnis aber erforderlich und von KI meist nicht beantwortbar. Google Translate kann Texte nicht übersetzen, weil es sie versteht. Bei der Funktionsweise heutiger Übersetzungsdienste geht es genau darum, den Prozess des Verstehens des Textes so gut wie möglich zu umgehen.

Common Sense ermöglicht es einem Programm oder uns Menschen, irrelevante Erwägungen wegzulassen. Aus einer grossen Menge an Möglichem lässt sich schnell eine viel kleinere Menge an Plausiblem herausschälen und aus diesem wiederum das Wahrscheinliche. Das lernen Menschen schon sehr früh, Computer bisher kaum. Ein Buch zu lesen, ist für sie darum ungemein schwer, denn das Verständnis erfordert Common Sense, den sie (noch) nicht haben.

Die GKI-Ziele im Vergleich zum heranwachsenden Menschenkind

Der KI-Wissenschafter und Bestsellerautor Gary Marcus nennt die wichtigsten Module, die eine echte KI haben muss3:

  • Eine Repräsentation von Objekten
  • Strukturierte, algebraische Repräsentationen
  • Operationen über Variablen
  • Eine «Type-Token»-Unterscheidung
  • Die Fähigkeit, Sets, Orte, Wege, Bahnen sowie Hindernisse zu repräsentieren
  • Die Fähigkeit, den Anforderungscharakter von Objekten zu erfassen
  • Raumzeitliche Kontinuität
  • Kausalität
  • Translationale Invarianz
  • Die Fähigkeit zur Kosten-Nutzen-Analyse

Diese Auflistung dürfte für den Laien ziemliches Kauderwelsch sein. Ich formuliere hier deshalb stattdessen vier konkrete Ziele, und zwar definiert anhand der Kompetenzen und Fähigkeiten von menschlichen Kindern eines bestimmten Alters. Derzeit sind wir noch weit von ihnen entfernt:

  • Objekterkennung auf dem Niveau eines Zweijährigen
  • Sprachverständnis auf dem Niveau eines Vierjährigen
  • Fingerfertigkeit auf dem Niveau eines Sechsjährigen
  • Soziales Verständnis auf dem Niveau eines Achtjährigen

Diese Ziele sollen nicht durch zu bewältigende Leistungstests definiert werden, sondern sie sind als Kompetenzniveaus gemeint. Wenn wir echte Fortschritte in Richtung einer künstlichen Superintelligenz – oder auch bloss in Richtung einer GKI – machen wollen, dann ist es unbedingt nötig, dass wir uns auf generelle Kompetenzen konzentrieren statt auf angeberische, leistungsorientierte Effekthaschereien, die nur den Hype im Blick haben. Ich sage: Nieder mit Performancemassen, ein Hoch auf das weniger eindeutige Konzept der Kompetenzen!

Objekterkennung auf dem Niveau eines Zweijährigen

Ein zweijähriges Kind beherrscht bereits Farbkonstanz und es kann Dinge mindestens mit ein paar Farbworten beschreiben. Doch viel bemerkenswerter: Es kann auch mit Objektklassen umgehen, ihnen alleine durch visuelle Analyse eine Funktion zuordnen. So kann es zum Beispiel wissen, dass etwas die Funktion eines Stuhls haben soll, auch wenn es anders aussieht als alle Stühle, die es je zuvor gesehen hat. Der Stuhl kann eine andere Anzahl Beine haben, aus anderem Material sein, seine Beine können seltsam geformt sein, oder es kann sich sogar bloss um einen Spielzeugstuhl für Puppen handeln – das alles verwirrt ein zweijähriges Kind nicht. Das ist ganz anders als die Art und Weise, wie ein neuronales Netz Dinge visuell klassifizieren kann. Ein Kind kann sogar etwas sehen, das nicht als Stuhl konzipiert ist, und entscheiden, ob das Objekt als Stuhl verwendet werden kann. Es kann also entscheiden, ob z.B. ein Stein als Stuhl taugt oder ob es nach etwas Besserem Ausschau halten will, das vielleicht auch noch eine Lehnenfunktion hat.

Und mehr noch: Ein Zweijähriges kann aus verschiedenen Quellen mittels eines einzigen Kontakts visuell lernen. Angenommen, es sei noch nie einer Giraffe in irgendeiner Weise ausgesetzt gewesen. Wenn es ein handgezeichnetes Bild einer Giraffe, ein Foto einer Giraffe, eine Plüschgiraffe, einen Film mit einer Giraffe oder auch nur ein paar Sekunden lang eine echte Giraffe sieht, so wird das Konzept einer Giraffe für immer in dem Kopf dieses Zweijährigen stecken. Dieses Kind wird für immer in der Lage sein, eine Giraffe als Giraffe zu erkennen, egal in welcher Form sie dargestellt wird. Viele Menschen haben noch nie eine lebende Giraffe gesehen, und keiner hat jemals einen lebenden Dinosaurier gesehen, aber sie sind für jeden leicht zu erkennen. Versuch das mal, Deep Learning!

Sprachverständnis auf dem Niveau eines Vierjährigen

Die meisten Vierjährigen können weder lesen noch schreiben, aber sie können selbstverständlich reden und zuhören. Sie verstehen das Hin und Her des Wortwechsels, realisieren, wenn sie unterbrechen und wenn jemand sie unterbricht. Sie verstehen Satzmelodien und setzen diese effektiv ein, gepaart mit Mimik und Gestik. Dieselben Hinweise lesen sie von anderen Sprechenden, sie nehmen Blickrichtungen wahr und interpretieren sie, zum Beispiel wenn unter mehreren Personen Nebengespräche stattfinden. Vierjährige verstehen, wann sie in einem Gespräch mit jemandem sind und (üblicherweise) wann es endet oder die Teilnehmer wechseln. Wenn sich drei oder vier Personen am Gespräch beteiligen, brauchen sie weder zu benennen, an wen sie ihre Bemerkungen richten, noch müssen sie zu Beginn einer Äusserung eines anderen ihren Namen hören, um zu wissen, dass sie ihnen gilt.

Das ist ziemlich anders als heutige Gespräche mit Agenten wie Amazon Echo oder Google Home. Ein Vierjähriges hebt sich zudem dadurch ab, dass es den generierten Kontext eines Gesprächs viele Minuten behalten und später darauf Bezug nehmen kann. Es versteht auch unvollständige Sätze, und es kann kurze, sinnvolle Zwischenrufe von nur ein bis zwei Wörtern erzeugen, die das gegenseitige Verständnis erhöhen.

Vierjährige Kinder können Sprache in lauter Umgebung herausfiltern – wenigstens das ist ein Bereich, in dem auch AI dank Deep Learning in den letzten Jahren bemerkenswerte Fortschritte gemacht hat – und sich auf Gesprochenes, das an sie gewendet ist, konzentrieren oder auch aus einer Unterhaltung, die sich nicht an sie richtet, heraushören, was sie wollen. Sie können mit Akzenten umgehen, die sie vorher nie gehört haben, und daraus immer noch die richtige Bedeutung aus dem Erzählten verstehen. Sie können vom Sprachmuster auf Geschlecht und Alter schliessen, es fällt ihnen auf, wenn eine ihnen bekannte Person anders spricht als gewohnt. Sie verstehen Geschrei, Geflüster und Gesang, und sie singen, flüstern und schreien selber. Sie verstehen Hypothetisches, sie engagieren sich in Nonsense-Gesprächen und ziehen Sinnvolles daraus. Sie wissen, wann sie lügen, und versuchen, das in ihrem Sprachmuster zu verstecken.

Fingerfertigkeit auf dem Niveau eines Sechsjährigen

Ein sechsjähriges Kind kann – sofern es kein Wunderkind ist – nicht Chopin auf dem Klavier spielen. Aber es kann mit seinen Händen bemerkenswerte Dinge tun, zu denen noch kein Roboter fähig ist. Wenn es einen Gegenstand zum ersten Mal sieht, kann es ziemlich zuverlässig einschätzen, ob es ihn mit einer Hand aufheben kann, ob beide Hände oder gar der ganze Körper dafür nötig ist oder ein Aufheben gänzlich unmöglich ist. Beim einhändigen Fassen entscheidet es schon vor der Berührung des Gegenstandes, welcher Griff dafür nötig ist.

Ein Sechsjähriges kann Wasserhähne aufdrehen, Schuhe binden, einigermassen leserlich schreiben, Fenster öffnen, Jalousien hoch- und runterfahren, mit (sofern das in seinem Kulturkreis üblich ist) Stäbchen essen und vieles mehr. Sechsjährige Kinder sind ziemlich fingerfertig. Sie können (mit etwas Übung) Kleider zusammenlegen (nicht so gut wie ein geübter Erwachsener) oder sie sich oder ihren Puppen anziehen. Sie können sicher eine Katze oder einen kleinen Hund heben und zärtlich zu ihren Gross- oder Urgrosseltern sein. Sie können sich sogar (meistens) ihren Hintern säubern, ohne eine Sauerei zu veranstalten.

Ein ABR müsste all das können – wenn auch in grösserem Massstab. Für den generalisierten Fall, wenn der Roboter in eine neue Umgebung mit neuen Gegenständen, die er zuvor noch nicht gesehen hat, platziert wird, gibt es heute keinen Roboter, der auch nur eine dieser Fähigkeiten besitzt.

Soziales Verständnis auf dem Niveau eines Achtjährigen

Im Alter von acht Jahren sind Kinder fähig, ihre eigenen Ansichten, Wünsche und Absichten zu formulieren – zumindest zu konkreten Dingen auf dieser Welt. Sie verstehen auch, dass andere Menschen andere Ansichten, Wünsche und Absichten haben können.

Des Weiteren können sie darüber nachdenken, was sie glauben, im Vergleich zu dem, was eine andere Person glauben könnte, und diese Divergenz artikulieren. Ein spezifischer Test dafür ist bekannt als «False-Belief»-Aufgabe: Der Experimentsteller lässt ein Kind einer Person zuschauen, die sieht, dass in Box A beispielsweise ein Spielzeugelefant ist, während Box B leer ist. Die Person verlässt den Raum, der Experimentsteller nimmt den Spielzeugelefanten vor den Augen des Kindes aus Box A und steckt ihn in Box B. Auf die Frage, in welcher Box der Elefant sei, antwortet das Kind selbstverständlich mit «B». Die entscheidende Frage an das Kind ist aber: «In welcher Box wird die Person, die vorhin mit dir im Raum war, nach dem Elefanten suchen, wenn sie zurückkommt?» Spätestens im Alter von acht Jahren wird das Kind die richtige Antwort geben, also dass die Person in Box A nachschauen wird – im Wissen darum, dass sich die Person irren wird.

Es existiert eine breite Literatur zu diesem und vielen anderen Aspekten des Verstehens anderer Menschen, und eine breite Literatur untersucht diese Fähigkeit für sehr kleine Kinder, aber auch für Schimpansen, Hunde, Vögel und andere Tiere – wenn auch das Experimentdesign ohne Sprachfähigkeit der Teilnehmer eine grosse Herausforderung sein kann.

Soziales Verständnis hat viele, viele Aspekte – so z.B. die Herleitung der Absichten einer anderen Person aus ihrem Verhalten oder das Verständnis darüber, warum diese Person die entsprechende Absicht oder das entsprechende Bedürfnis haben könnte. Einige psychische Störungen manifestieren sich darin, dass ein Mensch zu solchen Herleitungen nicht fähig ist. Aber in unserer normalen sozialen Umwelt gehen wir davon aus, dass die Personen, mit denen wir interagieren, diese Fähigkeiten haben. Wir halten es nicht für nötig, gewisse Dinge anderen zu erklären, weil wir davon ausgehen, dass sie verstehen, was sie beobachten. Und wir verstehen auch unseren eigenen Verständnisprozess und sind daher fähig, anderen Menschen dabei zu helfen oder zu erkennen, wann sie Hilfe brauchen. Soziales Verständnis ist der Kitt, der aus uns Menschen ein kohärentes Ganzes macht. Schon Achtjährige haben davon genug.

Die Verbesserung der Kompetenz wird uns den Weg zeigen

Diese Kompetenzen von 2-, 4-, 6- und 8jährigen Kindern sind alle sehr entscheidend für einen ABR. Ohne sie werden uns unsere «intelligenten» Systeme niemals natürlich oder intelligent erscheinen. Nur mit diesen Kompetenzen – seien sie implementiert als Kopie des menschlichen Denkens oder nicht – haben intelligente Systeme eine Chance, intelligent auf uns zu wirken. Sie sind entscheidend für ein System genereller künstlicher Intelligenz (GKI).

Lasst uns also Fortschritte erzielen, echte Fortschritte, nicht banale Effekthaschereien. Zum ersten Mal seit 60 Jahren wären wir damit tatsächlich auf dem Weg zu Maschinen, die Intelligenz und Kompetenz auf menschlichem Niveau aufweisen – auch wenn dieser Weg sehr lange ist, geschweige denn für die angestrebte Superintelligenz. Es stellt sich heraus, dass die Schaffung von Göttern eine sehr, sehr schwierige Sache ist. Sogar wenn wir sie nach unserem eigenen Abbild schaffen.

Der vorliegende Text basiert auf der vierteiligen Blogserie «Steps toward Super Intelligence I–IV» von Rodney Brooks. Er erscheint hier erstmals – und in gekürzter Fassung – auf Deutsch.

  1. Anmerkung der Redaktion: In seinem Blog erläutert Brooks sieben Beispiele. Dieser Beitrag fasst die ersten drei davon zusammen.

  2. Ernest Davis und Gary Marcus: Commonsense Reasoning and Commonsense Knowledge in Artificial Intelligence. Communications of the ACM 58/9, 2015, S. 92–103.

  3. Gary Marcus: Innateness, AlphaZero, and Artificial Intelligence. Cornell University, 2018.

»
Abonnieren Sie unsere
kostenlosen Newsletter!