Propheten auf dem Prüfstand

Glanz und Elend der Zukunftsforschung

Wir danken Swiss Re für die Unterstützung dieses Dossiers.

Inhalt

Sag mir, wo die Zukunft ist

Globalisierung und technischer Fortschritt ändern unsere Wahrnehmung der Zeit: Die Dimension der Zukunft geht verloren. Trotzdem oder gerade deshalb lohnt es sich, sie zu erforschen.

Sag mir, wo die Zukunft ist
Georges T. Roos, zvg.

 

«Lässt sich die Zukunft vorhersehen?» Meine Referate beginne ich oft mit dieser Frage. Weil ich als Zukunftsforscher auf der Bühne stehe, muss ich augenscheinlich für ein Ja einstehen. Was wäre sonst meine Legitimation? (Wie so oft ist es nicht so einfach – dazu später mehr.) In der Regel recken sich nur wenige Hände zaghaft in die Höhe. Dann nehme ich mein Wasserglas und frage erneut in die Runde: «Können Sie vorhersehen, was geschehen wird, wenn ich dieses Glas loslasse?» Selbstverständlich können dies alle. Was beweist es? Wir können dann eine Prognose machen, wenn wir einerseits Erfahrungsdaten haben – wir wissen von Kindsbeinen an, was geschieht, wenn wir einen Gegenstand loslassen – und andererseits ein Modell anwenden können, das die Wirklichkeit äusserst präzise beschreiben kann. Beim fallenden Glas sind für den freien Fall die Beschleunigung g und die Fallhöhe h massgebend für die Voraussage der Aufprallgeschwindigkeit v des Glases. Auch dieses Gesetz hat Einschränkungen, ist also mit der realen Welt nicht deckungsgleich, aber der Annäherungswert ist für die meisten Fälle präzise genug, um exakte Prognosen zu erstellen. Wenn es um die Zukunft geht, sind aber nicht physikalische Gesetzmässigkeiten von Interesse, sondern soziale, ökonomische und ökologische Systeme, für die wir dummerweise keine ausreichenden Daten und schon gar nicht Modelle von physikalischer Präzision zur Verfügung haben. Zukunft ist nicht vorhersehbar.

Das Künftige auskundschaften

Zukunftsforschung ist denn auch nicht Prognostik, sondern eine Disziplin, die sich methodisch gestützt mit Zukunftsfragen beschäftigt. Die bekannteste Methode ist die Szenariotechnik.1 Zumeist in Expertenpanels wird herausgeschält, welches die wichtigsten Einflussfaktoren auf den Untersuchungsgegenstand sind (auch Treiber genannt), wie sie zueinander stehen und welche davon den entscheidenden Unterschied machen (wir nennen sie «kritische Unsicherheiten»). Diese werden dann unter Nennung der Annahmen in die Zukunft projiziert und zu verschiedenen Gesamtbildern möglicher Zukünfte ausgestaltet. Um ein Beispiel zu machen: Treiber der künftigen Entwicklung der Weltbevölkerung sind die Fertilität und die Lebenserwartung. Selbst wenn wir nicht prognostizieren können, wie diese beiden Treiber sich über die nächsten 30 Jahre exakt verändern werden, können wir doch aufzeigen, in welchem Spektrum sich die Weltbevölkerung im Jahr 2050 bewegen wird, indem wir die Treiberwerte in plausiblen Varianten annehmen.

Eine andere Methode ist die Analyse und Applikation von Megatrends. Die von John Naisbitt 1982 so bezeichneten Megatrends sind übergeordnete, langfristige, global und ubiquitär wirkende Entwicklungen. Die Methode, sie zu identifizieren, gleicht dem hermeneutischen Verfahren der Geisteswissenschaften: Es geht darum, anhand vieler beobachtbarer Phänomene die Wandlungsmuster zu erkennen und zu verstehen. Auch mit Megatrends kann die Zukunft nicht präzise beschrieben werden. Sie stellen aber den wahrscheinlichen Teil der Zukunft dar, unter der Annahme, dass keine unvorhergesehenen Störfaktoren gigantischen Ausmasses uns überraschen werden.

Was leistet Zukunftsforschung?

Zur Rolle der Zukunftsforschung gibt es innerhalb dieses Fachgebietes unterschiedliche Ansätze. Als grobe Unterscheidung gibt es eine Richtung, die deskriptiv-wissenschaftlich Zukunftswissen bereitstellt, eine andere, die normativ-gestaltend Wege für eine bessere Zukunft bereiten will.2 Methoden, die nachvollziehbar, transparent und überprüfbar sind, kennzeichnen die erste Gruppe von Zukunftsforschenden. Man darf ihr Immanuel Kants Frage «Was kann ich wissen?» zum Leitmotiv zuschreiben. Die andere Gruppe hält sich an die andere Kant’sche Frage: «Was soll ich tun?» Diese Gruppe von Zukunftsforschenden versteht die Aufgabe ihrer Disziplin nicht deskriptiv, erkenntnisgewinnend zuhanden aller gesellschaftlichen Gruppen und Institutionen, die für die Zukunftsgestaltung legitimiert sind, sondern sie will selbst Teil einer Zukunftsgestaltung sein, um aus unserer Welt eine bessere Welt zu machen. Die «Zukunftsgestalter» haben einen normativ-kritischen Ansatz, der letztendlich impliziert, dass es einen Konsens darüber gibt oder herstellbar ist, wie die ideale Welt aussehen soll. Ich will hier nicht weiter die methodischen und weltanschaulichen Prämissen meiner Zunft vertiefen. Ich will nur meine Skepsis gegenüber dem normativen Ansatz transparent machen: Die IS-Kämpfer haben bestimmt ein Ideal über die Zukunft ihrer Gesellschaft. Meines ist diametral verschieden davon. Sowenig eine Sozialwissenschafterin automatisch eine Sozialpolitikerin ist und auch der Politologe nicht automatisch zum Politiker berufen ist, so wenig ist der Zukunftsforschende der auserkorene Zukunftsgestaltende. Dass sich Sozialpolitiker bei der Soziologie, Politikerinnen bei der Politologie und Unternehmensführer, Stadtpräsidentinnen und Parlamentarier bei der Zukunftsforschung kundig machen, ist unabdingbar. Die Zukunft zu schaffen ist dann aber die Sache aller: jeder und jede in seinem Einflussbereich. Ich rechne mich der deskriptiven Zukunftsforschung zu, die der Überzeugung ist, dass die Zukunftsgestaltung weder die Prädestination noch und schon gar nicht das Privileg der Expertinnen und Experten in Sachen Zukunft ist.

 

«Wir haben die Dimension der Zukunft weitgehend verloren.

Keine grossen Visionen mehr. Keine grossen Würfe.

Wer will schon an der Zukunft planen,

wenn es schon morgen völlig  anders sein kann?»

Von der zyklischen zur linearen Entwicklung

Dafür möchte ich etwas zum Zukunftshorizont und zur Wandelbarkeit von Zukunftsvorstellungen ausführen. Beginnen wir mit den Utopien. Utopien sind holistisch-normative Vorstellungen einer Welt. Sie sind immer eine ideale Welt, eine gute, gerechte, nachhaltige Welt. Ihr Zukunftshorizont ist unbestimmt – was in der Natur der Sache liegt, sind doch Utopien schon begriffsgeschichtlich Nichtorte. Und was keinen Ort hat, hat auch keine Zeit, also auch keine Zeit in der Zukunft. Sie sind in erster Linie Gegenentwürfe zu einer konkreten sozioökonomischen, politischen, technischen und ökologischen Situation und können dazu dienen, dass Menschen sich für eine bessere Welt engagieren. Allerdings kann es auch gravierende negative Folgen haben, wenn die Utopie mit allen Mitteln angestrebt wird, wie historische Beispiele (Kommunismus, Nazismus) zeigen.

Spannend finde ich die unterschiedlichen gesellschaftlich verbreiteten Zukunftsvorstellungen verschiedener Epochen, insbesondere die Zukunftsvorstellung der vorindustriellen Zeit, der Industrialisierung und jene der vernetzten Jetztzeit. Zukunft ist eine Dimension der Zeit. Wie die Zeit vergeht, hängt stark mit den alltäglichen historisch bestimmten Lebensumständen der Menschen zusammen. In der vorindustriellen Zeit, in der die meisten Menschen in unseren Breitengraden in der Subsistenz- beziehungsweise Landwirtschaft ihr Leben verbrachten, gleicht der Zeitenlauf einem Kreis: Alles kommt wieder, die Jahreszeiten ebenso wie die kirchlichen Jahrestage. Ist eine zyklische Erfahrung der Zeit dominant, ist Zukunft dasselbe wie die Vergangenheit und damit eine im Prinzip vernachlässigbare Dimension.

Die Industrialisierung hat diese Zeiterfahrung für mehr und mehr Menschen zerstört. Der Begriff des Fortschritts impliziert, dass die Zeit einer Linie gleicht, die aus der Vergangenheit kommt, einen kurzen Augenblick der Gegenwart schafft und in die Zukunft verweist. Fortschritt und lineare Zeiterfahrung verändern die Vorstellung von Zukunft fundamental. Die Zukunft ist nun nicht nur etwas völlig anderes als die Vergangenheit, sie verspricht auch «besser» zu sein – fortschrittlicher. Wirtschaftswunder und Babyboom sind die leuchtenden Beispiele dieser Zukunftsvorstellung: Unsere Eltern waren im allgemeinen überzeugt, dass es ihre Kinder einmal besser haben würden als sie selbst.

Die aktuelle Zeiterfahrung ist geprägt von fortgeschrittener Globalisierung und dem enormen technischen Fortschritt der Kommunikation in Verbindung mit dem zunehmenden Wissen über Ereignisse auf der ganzen Welt und deren Interdependenzen mit anderen Ereignissen, die an einem völlig anderen Ort stattfinden können. In der Philosophie spricht man von der «pointillistischen» Zeiterfahrung.3 Das bedeutet, dass wir alles als Gegenwart, als Jetztzeit erleben. Alles ist gleichzeitig und immer weniger sind Abfolgeschritte, klare Ursachen-Wirkungs-Verhältnisse, lineare Entwicklungen festzumachen. Und in jedem Moment könnte alles auch ganz anders sein – disruptive Veränderungen. Gerne wird auch von der wachsenden Komplexität gesprochen. Für die Zukunftsvorstellung bedeutet dies: Wir haben die Dimension der Zukunft weitgehend verloren. Keine grossen Visionen mehr. Keine grossen Würfe. Wer will schon an der Zukunft planen, wenn es schon morgen völlig anders sein kann?

Warum es den Blick in die ferne Zukunft braucht

Die Zukunft hat sich demnach von einer vernachlässigbaren zu einer verlorenen Zeitdimension entwickelt – und nur gerade in der fortschrittsgläubigen linearen Zeitvorstellung dazwischen scheinbar ihren genuinen Platz gehabt. Die Zukunftsforschung ist davon nicht unberührt. Immer häufiger bedient sie sich der partizipativen Methode, bei der es in erster Linie darum geht, Menschen (in einer Gemeinde, in einem Betrieb) in die eigene Zukunftsgestaltung zu involvieren. Welche Zukunft wollen sie für ihre Körperschaft? Was können sie unternehmen, um ihrer Vorstellung von Zukunft näherzukommen? Dabei wird vermehrt davon abgesehen, Expertisen zu Rate zu ziehen, in welche Richtung Megatrends und technologische Trends unsere Welt verändern.

Davon betroffen ist aber auch die deskriptive Zukunftsforschung, insofern, als sie leicht in Gefahr gerät, unterkomplex zu sein. Geht man beispielsweise der Frage nach, wie sich die Zukunft der Mobilität entwickelt, und betrachtet einzig Antriebstechnologien und die Perspektiven des autonomen Fahrens, ergibt sich unweigerlich ein falsches Bild. Wir müssen die Globalisierung – und das heisst in diesem Fall den grossen Aufholbedarf der Mehrheit der Volkswirtschaften auf unserem Planeten in der menschlichen und ökonomischen Entwicklung – ebenso mit einbeziehen wie die Alterung der Bevölkerung, die denkbaren politischen Massnahmen zugunsten der CO2-Neutralität, die weltweiten Produktions- und Arbeitsbedingungen und Güterströme, die gesellschaftlichen Werte und vieles mehr. Im Kern geht es um die Schwierigkeit, adäquate Modelle der Wirklichkeit zu erhalten. Das Problem stellt sich in der ökonomischen Forschung, in der ökologischen Forschung und natürlich auch in der sozialwissenschaftlichen Forschung, deren Modelle für die Zukunftsforschung unentbehrlich sind, wenn sie aufgrund von Megatrends Zukunftsbilder entwerfen soll.

Wir fällen heute täglich Entscheidungen, welche unsere Zukunft prägen werden. Viele dieser Entscheidungen haben einen Zukunftshorizont von Jahrzehnten – z.B. die Energiewende, die Altersvorsorge, Verkehrsinfrastruktur. Es ist notwendig, bei solchen Entscheidungen sich um die wahrscheinliche Zukunft zu kümmern – nur so können solche Entscheidungen informiert gefällt werden. Daher gibt es auch kein Entrinnen für die Zukunftsforschung: Sie muss sich mit langfristigen Entwicklungen über Zeithorizonte von Jahrzehnten beschäftigen!

Wir wissen, dass wir keine Glaskugel haben; dass es keine absolute Zukunftsdetermination gibt; dass vieles in Bahnen gelenkt und ausgestaltet werden kann. Wir verstehen aber auch, dass die Welt von morgen nicht auf der grünen Wiese neu entworfen wird. Es gibt Treiber, die unsere Zukunft prägen. Sie verändern Rahmenbedingungen, sie stellen neue Herausforderungen dar: Die Weltbevölkerung wächst, sie altert, sie lebt zunehmend in Städten, sie nomadisiert; die digitale Transformation von Kommunikation, Prozessen und Geschäftsmodellen schreitet voran; die Biowissenschaften generieren neue Möglichkeiten, der Biologie ein Upgrade zu verpassen und die Evolution zu beeinflussen; Wissen und Bildung nehmen zu. Bevölkerungsexpansion, Alterung, Nomadisierung, Digitalisierung, Gesundheitsexpansion, aber auch künstliche Intelligenz, Blockchain oder Biotransformation sind Megatrends – und sie prägen unsere langfristige Zukunft, ob wir wollen oder nicht. Zukunftsforschung soll und kann diese vorhersehbaren Aspekte der Zukunft aufzeigen und in den potentiellen Auswirkungen beschreiben.4 Sie kann zudem aufzeigen, wo die Stellschrauben sind, damit diese Auswirkungen in gewissen Bahnen gehalten werden können.

Bessere Prognosen dank künstlicher Intelligenz?

Ich zähle darauf, dass wir darin besser werden können – dank Big Data, Datenanalyse und künstlicher Intelligenz (KI). Wir haben über das soziale und ökonomische Geschehen immer mehr Daten zur Verfügung. KI entwickelt sich dazu, aus all diesen Daten Muster zu erkennen. Diese Mustererkennung ist mit der Hypothesenbildung im herkömmlichen Wissenschaftsbetrieb vergleichbar. Aus Hypothesen, wenn sie sich bewähren, entstehen Theorien und Modelle. Weil mehr Daten da sind, die wir mit Hilfe der intelligenten Maschinen besser verstehen, werden wir bessere Modelle haben. Um auf das fallende Glas zurückzukommen: Auch für soziale, ökonomische und ökologische Systeme haben wir zunehmend mehr von beidem, was es für Prognosen braucht: Daten und Modelle. Ich zweifle, dass sie jemals die Präzision von Naturgesetzen erhalten. Der menschliche Faktor bleibt immer eine Spur unberechenbar. Aber Wahrscheinlichkeiten lassen sich bestimmen, denn auch Menschen handeln musterbasiert. Daher sind Tools wie Predicitive Policing nützlich, denn auch beispielsweise Einbrecherbanden folgen Mustern, etwa zur Risikominderung. Die besseren Modelle erlauben es zudem, Simulationen anzustellen – ähnlich wie in der Szenariotechnik, die Ausprägung von Treibern in Varianten zu testen. Daraus entstehen nicht punktgenaue Pro­gnosen, jedoch denkbare und wahrscheinliche Zukünfte. Das ist weniger als die naive Hoffnung, Zukunft lasse sich vorhersagen, aber mehr als nur eine aus dem Bauchgefühl heraus antizipierte Welt von morgen.

  1. Herman Kahn und Anthony J. Wiener: The Year 2000. New York: Macmillan, 1967.

  2. Elke Seefried unterscheidet in ihrem historischen Abriss der Zukunftsforschung einen «normativ-ontologischen» Ansatz, einen «empirisch-positivistischen Ansatz» und den «kritisch emanzipatorischen» Ansatz. Rolf Kreibich unterscheidet ein «exploratives empirisch-analytisches» Vorgehen, ein «normativ-prospektives» Vorgehen, ein «kommunikativ-projektierendes» und ein «partizipativ-gestaltendes» Vorgehen. Siehe: Elke Seefried: Zukünfte. Aufstieg und Krise der Zukunftsforschung 1945–1980. Berlin: De Gruyter Oldenbourg, 2015. Rolf Kreibich: Die Zukunft der Zukunftsforschung. Ossip K. Flechtheim – 100 Jahre. Berlin: Institut für Zukunftsstudien und Technologiebewertung, 2009.

  3. Zygmunt Bauman verwendet den Begriff «pointillistische Zeit» in Anlehnung an Michel Maffesoli («L’instant éternel»). Bauman schreibt in «Leben als Konsum»: «Charakteristisch für eine pointillistische Zeit sind eher ihre Inkonsistenz und der Mangel an Kohäsion (…). Pointillistische Zeit ist zersplittert, ja geradezu pulverisiert zu einer Vielzahl von ‹ewigen Augenblicken› – Ereignissen, Zwischenfällen, Unfällen, Abenteuern, Episoden –, in sich abgeschlossenen Monaden, einzelnen Fragmenten, wobei jedes Fragment so stark reduziert ist, dass es sich immer mehr dem geometrischen Ideal der Nulldimensionalität annähert.» (S. 46)

  4. Ich habe das beispielsweise im Auftrag von digitalswitzerland 2018 darzustellen versucht. Siehe: Georges T. Roos: Megatrends 2038 – Herausforderungen für die Schweiz. http://www.swissfuture.ch/de/megatrends-2018-2038/

Eine kurze Geschichte
der Zukunft

 

 

Über die Zukunft nachzudenken ist nichts Neues: Philosophen, Historiker und Dichter spekulieren seit Jahrtausenden über die Zukunft, ebenso wie die Neandertaler, als sie in den nächtlichen Sternenhimmel hinaufblickten. Aber es auf organisierte Weise zu tun und dabei systematisch Methoden anzuwenden, ohne Projektionen auf Religion, ein enges oder einzelnes Interesse oder sich auf eine Ideologie zu stützen, ist etwas relativ Neues in der Geschichte der Menschheit. So wie ein Baum von vielen Wurzeln genährt wird, so hat sich auch die heutige Zukunftsforschung aus vielen Wurzeln entwickelt: die chinesische Schriftsammlung «I Ging», Platons Diskussionen über die Ideenstadt in «Politeia», Leonardo da Vincis Vorstellungen von der Zukunft der Technologie, Jakob Bernoullis Entwicklung der Wahrscheinlichkeitstheorie in «Ars Conjectandi», Thomas Mores Spekulationen in «Utopia», H. G. Wells’ Vorstellung von der soziotechnologischen Zukunft und viele andere.

Die Amerikaner sind der Ansicht, dass die Zukunftsforschung bei der 1948 gegründeten RAND Corporation mit den Szenarien von Herman Kahn und Delphi von Olaf Helmer, Norm Dalkey und Ted Gordon begann. Die Franzosen sagen, es habe mit der «Prospektive» aus Gaston Bergers Studie über die möglichen Zukünfte am Centre d’études prospectives im Jahr 1957 begonnen, und ergänzen, dass Bertrand de Jouvenel 1967 die erste philosophische Abhandlung über das Denken über die Zukünfte in «Die Kunst der Vorausschau» veröffentlicht habe.

Alvin Tofflers «Der Zukunftsschock» aus dem Jahr 1970 verlagerte «die Zukunft» aus dem Hoheitsgebiet von Science-Fiction und Elitedenkfabriken in den zeitgenössischen öffentlichen Diskurs. Dadurch wurde es respektabel, ernsthaft über die Zukunft nachzudenken und darüber, was wir heute tun könnten, um sie besser zu machen.

Das erste Doktorandenprogramm für allgemeine Zukunftsforschung wurde 1969 an der School of Education der University of Massachusetts eingerichtet und ein spezifischeres Doktorandenprogramm für politische Zukunftsforschung an der University of Hawaii. Es gibt immer noch akademischen Widerstand gegen Zukunftsforschung, der argumentiert, dass die Zukunft nicht existiere; wie sollte man sie also studieren können? Ausserdem gibt es keine Qualitätskontrolle oder vereinbarte Standards. Man hat sich noch nicht einmal auf einen Namen dafür geeinigt. Handelt es sich um Zukunftsforschung, Projektion, Futurologie, Futuristik oder Prognostik?

Vorlaufzeit erhöhen

Die Kräfte der Natur, die gesellschaftliche Dynamik, wissenschaftliche Entdeckungen und technologische Innovationen bestimmen weitgehend unsere Zukunft. Da sich die menschlichen Fähigkeiten jedoch weiterentwickelt haben, prägen unsere Entscheidungen zunehmend die Zukunft der Menschheit. Das Tempo des technologischen und medizinischen Fortschritts wurde durch Präsident Kennedys Fernziel verändert, einen Mann auf dem Mond abzusetzen. Um dieses Ziel zu erreichen, wurde eine Reihe von Technologien erfunden, die wiederum in Satellitenkommunikation, bessere Materialien und medizinische Fortschritte mündeten, die unser Leben veränderten. Das erste Foto der ganzen Erde aus dem Weltraum veränderte unsere Perspektive. Die Gesellschaft kann die Zukunft nicht kontrollieren, aber sie kann den Lauf der Geschichte beeinflussen. Dieser Einfluss macht es die Mühe wert, die Balance zwischen dem, was wir wollen, und dem, was möglich ist, zu berücksichtigen.

Wenn ein Auto nachts langsam fährt, muss die Scheinwerferbeleuchtung nicht sehr weit reichen, um sicher zu fahren, aber wenn man schneller fährt, sollten die Scheinwerfer weiter die Strasse entlangleuchten, damit die Zeit reicht, um die richtigen Einstellungen für eine sicherere Fahrt vorzunehmen. Gleichermassen sollten wir, je schneller das Tempo des Wandels ist, umso weiter in die Zukunft schauen, um bessere Entscheidungen zu treffen. Die zunehmende Komplexität und Beschleunigung des Wandels verringert die Vorlaufzeit für Entscheidungen und macht frühere Erwartungen weniger verlässlich. Prognostik erhöht die Vorlaufzeit zwischen potentiellen Ereignissen und der aktuellen Planung.

Die Zukunft zu erforschen bedeutet, potentielle Veränderungen zu untersuchen – nicht nur Modeerscheinungen, sondern das, was wahrscheinlich in den nächsten 10 bis 25 Jahren oder länger einen systemischen oder grundlegenden Unterschied machen wird. Die Zukunft zu erforschen ist nicht einfach nur eine wirtschaftliche Projektion, eine soziologische Analyse oder eine technologische Prognose, sondern eine multidisziplinäre Untersuchung des Wandels in allen wichtigen Lebensbereichen, um interagierende Dynamiken zu ermitteln, die den Grundstein für das nächste Zeitalter legen.

Der Einsatz von Methoden der Zukunftsforschung steigert das vorausschauende Bewusstsein, was wiederum die Voraussicht verbessert, um schneller oder früher zu handeln, wodurch die Organisation oder der einzelne effektiver mit Veränderungen umgehen. Der Wert der Zukunftsforschung liegt weniger in der Prognosegenauigkeit als vielmehr in der Nützlichkeit für die Planung und die Schaffung eines Bewusstseins für neue Möglichkeiten und die Änderung der politischen Agenda. Strategisch gesehen ist es besser, den Wandel zu antizipieren, als nur auf ihn zu reagieren.

Es ist nicht vernünftig, die Menschen zur Zusammenarbeit für den Aufbau einer besseren Zukunft aufzufordern, ohne ein gemeinsames, vielschichtiges und überzeugendes Bild der Zukunft zu haben. Positive Visionen, die nicht durch eine Zukunftsanalyse getestet wurden, können destruktiv sein, indem sie Menschen zu unmöglichen Zielen oder Zeitplänen führen. Wenn es keinen allgemeinen Konsens über die zukünftige Ausrichtung einer Organisation oder Nation gibt, wie kann man dann wissen, was nützlich und was nutzlos ist? Zu welchem Zweck würde man kooperieren? Effizient sein?

Von nationalen zu globalen Herausforderungen

Was tun Zukunftsforscher? Sie lesen viel und ein sehr breites Spektrum aus vielen verschiedenen Quellen. Sie durchforsten verschiedene Medien nach neuen Ideen, Trends, Technologien, Problemen, Möglichkeiten und nach allem, was sie nicht kennen und was die Welt verändern könnte. Sie kommen in der Regel mit verschiedenen Arten von Menschen in Kontakt: Künstlern, Wirtschaftswissenschaftern, Kritikern, Start-ups aus dem Bereich der neuen Technologien. Wenn sie jedoch im Rahmen eines Vertrags einen Bericht oder ein Briefing erstellen, greifen sie in der Regel auf Methoden der Zukunftsforschung zurück. Das Millennium Project hat 37 Methoden dokumentiert, die in Futures Research Methodology 3.0 auf internationaler Ebene begutachtet wurden. Dazu gehören etwa Umweltanalyse, Futures-Polygon, Prognosemärkte und heuristische Modellierung. Bei der Anwendung dieser Methoden sind viele Variationen möglich.

In den frühen Tagen der Zukunftsforschung ging es meist um die nationale Sicherheit eines Landes ohne viel internationalen Input. Heute stehen zunehmend globale Herausforderungen im Fokus. Themen wie die globale Erwärmung, Chancen und Gefahren von künstlicher Intelligenz und synthetischer Biologie, Terrorismus, Vermögenskonzentration und organisierte Kriminalität sind globaler Natur und erfordern länderübergreifende Lösungen. Daher steht die globale Zukunftsforschung zunehmend auf der Tagesordnung von Futuristen.

Die frühe Arbeit bei der RAND Corporation konzentrierte sich auf die Vorhersage zukünftiger Erfindungen, die die militärische Planung zur Verhinderung des dritten Weltkriegs verändern könnten. Mit dem zunehmenden Verständnis der Chaostheorie und in der Vergangenheit gescheiterter Vorhersagen neigen Futuristen heute dazu, mehr über die Gestaltung der Zukunft zu sprechen als über deren Vorhersage.

Es ist populär geworden, eine «Szenarioplanung» durchzuführen, bei der in der Regel zwei Ungewissheiten über die Zukunft ausgewählt werden, wobei von hohen und niedrigen Möglichkeiten ausgegangen wird, um jeweils eine Zwei-mal-zwei-Matrix mit vier möglichen Zukünften zu erstellen. Zum Beispiel könnten zwei Ungewissheiten die Steuerung der künstlichen Intelligenz und die soziale Polarisierung sein, dann stellen Sie sich dafür hohe und niedrige Bedingungen vor, die jeweils eine einfache Matrix bilden.

Dies ist eine simple und unkomplizierte Möglichkeit, Führungskräften und Planern das Zukunftsdenken näherzubringen, aber es geht am ursprünglichen Sinn des Schreibens von Szenarien vorbei, wie sie von Herman Kahn, dem Vater der Szenarien, geschaffen wurden. Ein Szenario ist eine Geschichte, die einen zukünftigen Zustand mit der Gegenwart durch Ursache-Wirkungs-Zusammenhänge verbindet, die Entscheidungen veranschaulichen. Das wird in der heutigen Szenarioplanung üblicherweise nicht gemacht. In der Regel handelt es sich eher um die Diskussion eines Theaterkritikers über das Stück als um den Text des Stückes, wie es von dem Bühnenautor geschrieben wurde.

Das Schreiben von Szenarien, wie sie oben definiert sind, hilft uns dabei, die unbekannten Unbekannten zu entdecken, die es zu kennen gilt, anstatt einfach nur einen zukünftigen Zustand zu beschreiben. Der Versuch, plausible Ursache-Wirkungs-Zusammenhänge mit plausiblen Entscheidungen niederzuschreiben, wird den Autor früher oder später zu der Aussage veranlassen: «Ich habe keine Ahnung, wie es weitergeht.» Dies zwingt ihn dazu, mit dem Schreiben aufzuhören und neue Ideen, Dilemmas, unmögliche Bedingungen und Unbekannte in Betracht zu ziehen. Die schlichte Diskussion über eine mögliche Zukunft, ohne zu diskutieren, wie es dazu gekommen ist, wird keine so wirksame Entdeckung unbekannter Unbekannter ermöglichen wie das Schreiben von echten Szenarios.

«Wenn ein Auto nachts langsam fährt,

muss die Scheinwerferbeleuchtung nicht sehr weit reichen,

um sicher zu fahren, aber wenn man schneller fährt,

sollten die Scheinwerfer weiter die Strasse entlangleuchten.»

Neue Gefahren, neue Denkschulen

Generell nimmt das Zukunftsdenken zu. Begriffe wie Synergie (R. Buckminster Fuller) und Szenarios (Herman Kahn) haben Eingang in die Alltagssprache auf der ganzen Welt gefunden. Den potentiellen Auswirkungen von Zukunftstechnologien wird mehr Aufmerksamkeit geschenkt als in der Vergangenheit. So waren diejenigen, die in der Anfangszeit des Internets (1970er und 1980er Jahre) involviert waren, begeistert davon, das Wissen der Welt für jeden zugänglich zu machen, und wie dies zu einer besseren Welt führen würde. Ich habe in den 1980er Jahren dazu beigetragen, Packet Switching – die Technologie, die das Internet kostengünstig gemacht hat – in vielen Entwicklungsländern einzuführen. Wir haben nicht viel über ihre negativen Auswirkungen wie Kinderpornografie, Terrorismus, Deepfakes und finanzielle Cyberkriminalität nachgedacht. Heute wird hingegen den möglichen negativen Folgen zukünftiger Formen der künstlichen Intelligenz grosse Aufmerksamkeit geschenkt. Regierungen, Unternehmen, Universitäten und Nichtregierungsorganisationen führen Konferenzen und Studien durch und veröffentlichen Hunderte von Artikeln über künftige Auswirkungen und die Notwendigkeit einer breiten Beteiligung an der Festlegung von Standards.

Eine aufstrebende Schule futuristischen Denkens ist der Transhumanismus, der von F. M. Esfandiary und später von Ray Kurzweil, der Singularity University und Humanity+ propagiert wurde. Diese Schule ist davon überzeugt, dass die exponentielle Beschleunigung und Integration der technologischen Kapazität mit ihrer Verschmelzung mit dem Menschen und der generellen künstlichen Intelligenz eine Welt des Überflusses schaffen wird, die die Zivilisation in einer Weise verändert, die unsere heutige Verständnisfähigkeit übersteigt. Eine zweite Schule, die mitunter als Critical Futures bezeichnet wird, übt eher akademisch begründete Kritik an der gegenwärtigen Zivilisation, vor allem an den westlichen Missbräuchen des Kapitalismus und daran, wie die Weltanschauungen das beeinflussen, was man über die Zukunft glaubt. Eine dritte Schule konzentriert sich auf den globalen Klimawandel und andere Formen der Umweltverschmutzung als strategische Bedrohung für die Zukunft der Menschheit. Es gibt auch eine rationale Mitte, die nicht wirklich eine Denkschule ist, sondern sich mit unterschiedlicher Gewichtung auf alle drei dieser Orientierungen stützt.

Kollektive Intelligenz

Obwohl sich die meisten Futuristen von der Produktion von Vorhersagen entfernt haben, greifen sie auf die Vorhersagen anderer zurück. Futuristen werden zunehmend prädiktive Analysen unter Verwendung grosser Datenmengen einsetzen, um Trends zu erkennen, Muster zu verstehen und Erkenntnisse zur Verbesserung ihrer Arbeit zu gewinnen. Einige der oben aufgeführten Methoden der Futuristen können mit künstlicher Intelligenz automatisiert und verbessert werden. Infolgedessen könnten Organisationen beginnen, solche Cyber-Assets anstelle von menschlichen Futuristen zu nutzen. Man könnte sich eine futuristische künstliche Intelligenz vorstellen, die sich aus dem Verhalten vieler Futuristen zusammensetzt, die kontinuierlich weiterlernt und mit der Zeit immer intelligenter wird. Sie könnte von der Öffentlichkeit genutzt werden, um das Zukunftsdenken global weiterzuverbreiten und zu verbessern.

Es werden allmählich Systeme geschaffen, damit die Menschheit gemeinsam über die Verbesserung der Zukunft nachdenken kann. Der Prozess, der die UN-Ziele für eine nachhaltige Entwicklung geschaffen hat, ist ein Beispiel dafür. Derzeit wird untersucht, wie ein globales Gehirn geschaffen werden kann. Systeme wie Google und Wikipedia bieten ein enormes Wissen über die Welt, aber keine Kohärenz zwischen den Möglichkeiten der Zukünfte. Das Global Futures Intelligence System des Millennium Project, ein viel kleineres System, trägt hingegen dazu bei, ein kohärentes Verständnis des globalen zukünftigen Wandels als Beginn einer globalen kollektiven Intelligenz für die Zukunft der Welt zu schaffen.

Während der Feierlichkeiten zum 10. Jahrestag der Finland Futures Academy, die mit etwa fünfzehn Futuristen aus aller Welt die Zukunft der Zukunftsforschung erforschte, wurden zwei Schlussfolgerungen gezogen: 1. Es wird eine weitaus stärkere Beteiligung der Öffentlichkeit an Zukunftsstudien geben, die nicht länger nur die Domäne der intellektuellen Elite sein wird; und 2. es wird eine Normalisierung stattfinden – so wie jede Organisation eine Finanzbuchhaltung hat, wird sie auch eine Zukunftsbuchhaltung haben, und die Bildungssysteme werden den Unterricht über zukünftige Möglichkeiten für ein Thema vorsehen, so wie heute der Schulunterricht die Geschichte eines Themas behandelt.

In jedem Fall werden die Menschen zunehmend erkennen, dass unsere Wahlfreiheit eine Illusion ist, wenn wir die Folgen unserer Entscheidungen nicht kennen. Oder wie es Bertrand de Jouvenel in «Die Kunst der Vorausschau» auf den Punkt brachte: Es gibt keine Freiheit ohne Vorhersagen.

Das Erkennen der
ewigen Gegenwart

Klassische Zukunftsforschung ist obsolet geworden. Denn: Big Data führt immer auch zu Big Narrative. Und damit zum Heute.

 

Wer die Zukunft voraussagen kann, hat Macht, kann viel Geld machen und ist vor allem auch cool. Das zumindest war für viele Jahre die Attraktivität des «Forecasting». Dabei war und ist Zukunftsforschung nie eine einheitliche Disziplin. Zwischen klassischer, relativ wissenschaftlich betriebener Technologie- oder Gesellschaftszukunftsforschung, «Megatrends» und etwa lifestyleorientierter Trendforschung liegen Welten.

Von Big Trend zu Big Data

Doch der Reihe nach. Technologieforschung möchte antizipieren, welche Technologien die Gesellschaft in Zukunft nutzen wird. Dies ist unter anderem für Risikoabschätzungen oder Rückversicherungen interessant. Zukunftsforschung im gesellschaftlichen Bereich möchte wissen, wie Gesellschaften in Zukunft funktionieren werden: Hier liegen die Interessen bei der öffentlichen Hand, Regulatoren sowie wiederum bei Versicherungen.

Allumfassende, sexy klingende «Megatrends» sind in erster Linie Inhalte für coole Bücher und Konferenzen – sie sind bestenfalls geeignet als Übungsfelder für Grossunternehmen: Wie würden sie theoretisch auf dieses oder jenes reagieren? Trendforschung schliesslich ist ein Produkt der neuartigen Lifestylegesellschaften, der 1980er Jahre mit ihrem Boom von Marken und Superstars (Blockbusterfilme, Supermodels, Megabrands). Sie ist eine tendenziell unwissenschaftliche Grauzone mit viel Scharlatanerie und wenig seriösen Akteuren und dient in erster Linie dazu, für Konsum- und Lifestyleunternehmen die nächsten «Trends» zu identifizieren.

Doch alle diese Formen von Forecasting haben etwas gemeinsam: Sie sind in den letzten Jahren allesamt in Verruf geraten. Ein wichtiger Grund ist, dass sie sozusagen fast immer falsch lagen. Die asymmetrischen Veränderungen durch die digitalisierende Gesellschaft und Wirtschaft waren einfach zu schnell, zu heftig sowie in manchen Bereichen zu überraschend. Es stellt sich immer mehr heraus, dass klassische Zukunftsforschung ein Instrument der industriellen Moderne mit ihren linearen Entwicklungslinien war. Trendforschung wiederum ging von einer relativ homogenen, weissen Gesellschaft aus. China sowie andere sich rapide entwickelnde Regionen sowie die kalifornischen Disruptoren im Bereich von Social Media überforderten die Trendforschung; sie ist eigentlich klinisch tot und wird höchstens noch von zweitklassigen Werbeagenturen genutzt.

An die Stelle der traditionellen Zukunftsforschung ist nun seit einigen Jahren das Forecasting mittels Big Data getreten: Viele Daten lassen Extrapolationen zu, die mittels komplexer Algorithmen erreicht werden können. Je mehr Daten, desto zuverlässigere Voraussagen – das ist das Versprechen von Big Data.

Big Data, Big Problem?

In letzter Zeit sind jedoch erste Probleme aufgetaucht. Big Data ist vor allem eine Blackbox. Scheinbare Korrelationen haben nicht unbedingt eine Kausalität, das heisst, dass sie gar Zufälle sein könnten. Auch sind die programmierten Algorithmen nicht objektiv, sondern widerspiegeln etwa kulturelle Identitäten oder Präferenzen der Programmierer. Vor allem kann Big Data kein langfristiges Forecasting betreiben, da die quantitativen Daten von den Aktionen einzelner Personen oder Organisationen abhängig sind.

Genau hier liegt die Schwäche von Big Data: Es kann keine «Big Narratives» erkennen. Beispielsweise wurde die plötzlich einsetzende Massivität der Klimadiskussion im letzten Jahr von Big Data nicht antizipiert, weil Big Data katalytische Entwicklungen schwer abbilden kann. Menschen sind sehr stark kulturell beeinflusst. Menschen agieren auch oft erratisch oder unlogisch: Sie folgen oft grösseren Narrativen, seien diese politischer oder sozioökonomischer Art. Dies ist im Kern die Theorie, die von Ökonomen wie Robert Shiller mit dem Begriff der «Narrative Economy» propagiert wird oder die Rückversicherungen mit «Phantomrisiken» meinen: Risiken, die sozusagen ein Ergebnis einer sich selbst erfüllenden Prophezeiung sind und wenig bzw. zumindest nicht komplett real-rationale Grundlagen haben. Big Data und die Philosophie dahinter sind demgegenüber der gleichen technokratisch-kartesianischen Utopie erlegen wie etwa die Chicago-School-Theorie der «effizienten Märkte» und des komplett rational denkenden «Homo oeconomicus».

Reine Big Data hat noch eine weitere Schwäche oder Kon­struktionsfehler: Sie wurde und wird grösstenteils in den suburbanen Welten Kaliforniens (wo die fehlende physische Nähe dauernd mittels Telefons und später Smartphone überbrückt bzw. fehlende Urbanität elektronisch-digital simuliert werden musste) oder in den komplett mobil organisierten, stark überwachten chinesischen Städten wie Shenzhen entwickelt.

Diese Entwickler haben ihre Alltagserfahrung quasi unbemerkt mit eingebaut. Doch viele und gerade wichtige und interessante Entwicklungen passieren in den dichten, bunten, analogen Megastädten. Hier sind persönliche Interaktionen, räumliche Zufälle, «Offline»-Ereignisse an der Tagesordnung. Städte waren schon immer schwer zu kontrollieren: Das gilt sowohl für politische als auch für linearanalytische Akteure. Dies ist genau der Grund, weshalb etwa «Google Sidewalks», der Smart-City-Arm von Google, welcher die Städte intelligenter und komplett digital verwaltbar machen möchte (die Maschine ist sozusagen der perfekte Bürgermeister), so unglaublich naiv Städte liest und interpretiert und deswegen kaum vom Fleck kommt. Die massive Urbanisierung ist im Grunde genommen schlecht für Big Data, perfektes Forecasting oder absolute Kontrolle – einer der vielen Gründe, weshalb Urbanisierung gut für uns Menschen und gut für libertäre und liberale Gesellschaften ist.

Dabei sollte Big Data keinesfalls unterschätzt werden. Denn Big Data spielt eine wichtige Rolle bei der Analyse von Konsumenten, Wirtschaftsaktivitäten oder aber ist auch in neuartigen Feldern wie Verbrechensbekämpfung, Investing oder Gesundheit kaum noch wegzudenken. Es ist verblüffend, wie in manchen Bereichen Big Data exakte Voraussagen oder Einschätzungen liefern kann. Eine Kim Kardashian, Greta Thunberg oder den Gangnam-Style, aber auch neue, auf gesellschaftliche Entwicklungen basierende Politakteure oder Rückversicherungsrisiken konnte Big Data jedoch nicht sehen oder gar antizipieren. Innovation oder auch Disruption kommt oft von einzelnen Personen, die zuerst einmal scheinbar irrational handeln: Kim Kardashian war genau genommen unlogisch und antizyklisch, als sie ein Star und damit Influencer wurde. Erst im Nachhinein wird die Logik oder die Ursache einer solchen Entwicklung sichtbar – sozusagen zu spät für Big-Data-Forecasting.

«Die eigentliche Kunst besteht darin, parallele Informationen,

Phänomene und Muster so zu komponieren,

dass Signale erkennbar sind.»

Von der erhofften Zukunft zur ewigen Gegenwart

Vielleicht ist uns aber schlichtweg die Zukunft abhandengekommen und wir müssen uns mit einer ewigen Gegenwart befassen. Daher rückt eine andere Sichtweise des Forecasting in den Vordergrund: die frühe Erkennung der Latenz. Latenz meint hier, dass Entwicklungen bereits jetzt passieren, wir sie aber noch nicht in ihrer ganzen Breite sehen können und damit noch keine Sichtweise und damit Kategorisierung oder «Benennung» vornehmen können. Es geht also nicht mehr um die Voraussage einer Zukunft, sondern um die dauernde, schnelle und umfassende Erkennung der Gegenwart, um daraus sofort Produkte, Lösungen, Investmentthemen, Risikoprofile oder politische Strategien zu entwickeln. Dies sozusagen konstant und breit. Die Summe dieser Früherkennung der latenten Signale des Jetzt ergibt dann sozusagen ein Portfolio der unmittelbaren, eigentlich schon angekommenen Zukunft der Gegenwart.

Diese Signalerkennung bedingt einerseits, entstehende Narrative zu erkennen und zu analysieren und dazu ungewöhnliche Datenpunkte anzuzapfen. Denn vielleicht sind in den heutigen TV-Serien oder Computerspielen, in Anekdoten auf Social Media oder im weltweiten, beispielsweise nicht englischsprachigen Meinungsmarkt bereits Hinweise auf neue, latente Themen. Hier spielt die täglich besser werdende semantische Software (also Analyse von qualitativen Daten wie Texten oder Bildern) eine immer wichtigere Rolle. Künstliche Intelligenz bzw. lernende Maschinen sind hier besonders wertvoll.

Andererseits werden im Bereich der quantitativen Daten einige Bereiche von sogenannten alternativen Daten immer interessanter: also indirekte Daten («Proxies»), die auf Entwicklungen schliessen lassen (selbstverständlich wiederum mit der Problematik von Korrelation versus Kausalität). Dazu gehören Satellitenbilder oder Videoauswertungen; aber auch sogenannte «Bottom-up»-Daten: unstrukturierte, unscharfe Daten aus dem Alltag der Menschen. Hier ist noch viel Potenzial. Die eigentliche Kunst besteht darin, parallele Informationen, Phänomene und Muster so zu komponieren, dass Signale erkennbar sind.

Diese Signalfrüherkennung wird also in einer postfaktischen, fragmentierten, multikulturellen und urbanisierten Welt das klassische Forecasting der Zukunfts- oder Trendforschung ablösen. Wer an Big Data glaubt, muss auch an Big Narratives glauben. Das Navigieren wird schwieriger, die Notwendigkeit der konstanten Korrektur immer grösser. Damit verlassen wir auch die gemütliche Sicherheit einer scheinbar linear fortschreibbaren Zukunft. Biografien werden brüchiger, Gewissheiten erhalten eine schnellere Halbwertszeit. Vieles scheint sich parallel zu entwickeln und ist dabei widersprüchlich. Doch das ist nur die übliche Unordnung des Jetzt. Die Zukunft wird egal – was zählt, ist das schnelle Erkennen der Gegenwart. Das wiederum ist die Zukunft.

Der Welt beim
Wachsen zuhören

In der Futuristik geht es nicht um den Blick in die Glaskugel, sondern um die Früherkennung des Wandels. Grosse Erfindungen gedeihen nur auf fruchtbarem Boden.

Der Welt beim  Wachsen zuhören
Pascal Finette, zvg.

 

1993 stellte der legendäre Science-Fiction-Autor William Gibson fest: «Die Zukunft ist bereits da – sie ist nur nicht sehr gleichmässig verteilt.» In diesem einzigen Satz liegt die Grundwahrheit für jeden Futuristen. Das Handwerk, die Wissenschaft und die Kunst der Menschen, die versuchen, die Zukunft vorherzusagen, besteht darin, das zu erkennen, was zweieinhalb Jahrzehnte später die Futuristin Amy Webb beschrieb als «schwachen Signalen beim Sprechen zuhören». Es geht nicht darum, in die sprichwörtliche Glaskugel zu schauen, sondern die Welt um uns herum genau zu beobachten und von hier aus zu extrapolieren.

«Schwache Signale» erkennen

Schwache Signale sind frühe, grobe und oft zutiefst enttäuschende erste Anzeichen für eine Technologie oder einen Trend. Ich erinnere mich lebhaft an mein erstes Virtual-Reality-Spiel in einer Spielhalle Anfang der 90er Jahre. Beim dreiminütigen Spielen wurde mir übel und ich bekam starke Kopfschmerzen. Oder Googles übertriebener Versuch, die Realität mit Google Glass zu erweitern – ich habe bei Google gearbeitet, als das Produkt für vernichtende Kritiken veröffentlicht wurde. Jedes Elektroauto vor dem Tesla Modell S, die Anfänge des Internets, Solarzellenplatten, Gensequenzierung und -bearbeitung, künstliche Intelligenz, der PC, Smartphones, Handy-Apps, soziale Netzwerke, die Liste geht weiter und weiter – und ihre Gemeinsamkeit: Sie waren alle mal schwache Signale, die in ihrer Anfangszeit nicht so aussahen wie die Gamechanger, zu denen sie sich entwickelt haben.

Wir leben in exponentiellen Zeiten. Der Futurist Ray Kurzweil errechnete einmal, dass die Veränderungen, die wir in den nächsten 100 Jahren sehen werden, den Veränderungen der letzten 20 000 Jahre entsprechen. Die Vorhersage der Zukunft wird wichtiger, aber auch schwieriger.

Schauen wir zur Illustration kurz in die Vergangenheit. In der Welt von gestern dauerte es Jahrzehnte, bis neue Technologien die Massenanwendung und damit den Wendepunkt erreichten, an dem sie die Industrien neu definieren. Erfinder, Wirtschaftsführer und ihre Organisationen mussten ein Mehrgenerationenspiel spielen: Es dauerte 50 Jahre, bis das Telefon das übliche Kommunikationsmittel wurde, 48 Jahre, bis die Elektrizität die Welt veränderte, 39 Jahre, bis das Auto das vorherrschende Transportmittel wurde (was im Vergleich zu den 70 Jahren, die die Eisenbahn dafür brauchte, sehr schnell ist). Die Innovation zwischen diesen epochalen Veränderungen konzentrierte sich auf das Produkt- und Dienstleistungsniveau.

Heute, aufgrund des sich massiv beschleunigenden Tempos der Veränderungen, ist dies nicht mehr der Fall. Industrien werden geboren oder innerhalb der Amtszeit einer Führungspersönlichkeit auf den Kopf gestellt: Es dauerte nur 13 Jahre, bis das Mobiltelefon die Welt der Kommunikation veränderte, nur um dann vom Internet abgelöst zu werden, das in nur sieben Jahren die gleiche Leistung vollbrachte. Unternehmen wie Uber oder Airbnb definieren ihre jeweiligen Branchen innerhalb immer kürzerer Zeiträume neu, und die globalisierte, vernetzte Natur unserer Welt erzeugt immer mehr Druck auf diejenigen, die noch immer mental im Modell der «Bewahrung von Innovation» stecken statt im Modell «Disruption».

Der geniale Funken braucht den richtigen Resonanzboden

Um die Zukunft vorhersagen zu können, müssen wir lernen, diese Frühindikatoren zu erkennen. Wie können Sie als Leser das? Machen Sie sich eine kindliche Neugier zunutze und suchen Sie nach der Arbeit, die die Menschen an den kreativen Rändern der Gesellschaft tun: Wissenschafter, Künstler, Aktivisten und Tüftler werden alle vom Neuen – und manchmal auch Verrückten – angezogen. Entdecken diese Menschen etwas, müssen sie sich allerdings klarmachen, dass einer der menschlichen Trugschlüsse darin besteht, dass man dazu neigt, auf das «Gesetz von Amara» hereinzufallen. Roy Amara, Gründer des Silicon Valley Think Tank Institute for the Future, hat einmal beobachtet: «Wir neigen dazu, die Auswirkungen einer Technologie auf kurze Sicht zu überschätzen und auf lange Sicht zu unterschätzen.»

Es ist leicht, sich über ein schwaches Signal zu freuen und dabei zu vergessen, dass Technologien auch noch Zeit brauchen, um zu reifen, sowohl aus technologischer Sicht als auch in ihren Anwendungsfällen, ihrem Nutzen und ihrer Akzeptanz. Das Akronym STEEPS (scientific, technological, environmental, economical, political, social) dient als Mahnung, nach den Bedingungen, dem Nährboden zu suchen, der gegeben sein muss, dass wissenschaftliche und technologische Durchbrüche (für uns also noch das «schwache Signal») sich entfalten. Untersuchen Sie die Auswirkungen auf die Umwelt und die Wirtschaft sowie die politischen und sozialen Bedingungen, die wahr werden müssen oder die beseitigt werden müssen, damit das Signal zur nächsten grossen Sache wird.

Aber Ihre Arbeit endet nicht hier. So wichtig das Timing und die Einsicht in die Rahmenbedingungen sind, viele schwache Signale werden nie zu voll ausgeprägten Trends, da sie den Frequenz-/Dichte-/Reibungstest nicht bestehen. Wenn Sie ein Produkt oder eine Dienstleistung aus der Perspektive des Benutzers/Verbrauchers betrachten, beschreibt die «Häufigkeit» die Anzahl der Male, die Sie während Ihres Tages auf das Problem stossen, das die «neue Sache» lösen soll. Die «Dichte» beschreibt die Zeit und die Anstrengung, die im Inneren des Problems verbracht wird, und die «Reibung» ist der Grad der Schmerzen, die das Problem dem Benutzer verursacht. Wenn Sie nicht in jeder dieser Dimensionen eine hohe Punktzahl erreichen, verpufft Ihr schwaches Signal und wird nie zu einem wesentlichen Trend.

Nehmen Sie Microsofts weitgehend gescheiterten Versuch, eine stiftbasierte Computerumgebung zu schaffen: 1992 veröffentlichte der Software-Riese aus Redmond «Microsoft Windows for Pen Computing», ein früher Versuch, Tastaturen durch stiftbasierte Texteingabe (und damit ein wirklich schwaches Signal) zu ersetzen. Aufgrund des Mangels an leistungsfähiger Hardware und der Finesse in der Funktionsweise der Software war dieser anfängliche Versuch zum Scheitern verurteilt.

Im Jahr 2002 veröffentlichte Microsoft die zweite grosse Anstrengung, die Welt von den Tastaturen abzuwenden: Windows XP Tablet-PC-Ausgabe. Und wieder war das Unternehmen wohl zu früh dran, was die Fähigkeiten der zugrunde liegenden Hardware betraf, aber noch wichtiger war, dass Microsofts schwaches Signal einer tastaturlosen Zukunft der Informationstechnologie nicht zustande kam, da der Tablet-PC ein Problem lösen sollte, bei dem die Häufigkeit, Dichte und Reibung des Problems nicht hoch genug waren: Die Vision für den Tablet-PC war die einer Büroumgebung, in der Menschen in Besprechungen sitzen und Notizen auf ihren Tablet-PCs kritzeln, ohne ihre Tastatur zu benutzen. Wohl eine Situation und ein Problem, worüber die meisten von uns nicht stundenlang sitzen und wobei es oft genauso einfach ist, Notizen zu tippen oder Papier und Stift zu benutzen, ohne viel Aufwand zu haben.

Apple musste dieses schwache Signal für ihre Tablet-Idee später erneut aufgreifen, auf eine ausreichend leistungsstarke Hardware warten und den Nutzungsfall neu definieren – als einen Fall von einfachem Medienkonsum, gemächlichem Surfen im Web und Spielen in einer entspannten «Lean Back»-Umgebung im Gegensatz zur «Lean Forward»-Büroumgebung, um ein schwaches Signal in ein Spiel zu verwandeln, das die neue Kategorie der IT-Infrastruktur verändert.

«Suchen Sie nach der Arbeit, die Menschen

an den kreativen Rändern der Gesellschaft tun:

Wissenschafter, Künstler, Aktivisten und Tüftler

werden alle vom Neuen

– und manchmal auch Verrückten – angezogen.»

Die Welt von morgen

Wenn wir die Welt im Jahr 2020 betrachten, können wir viele schwache Signale erkennen, die das Potenzial haben, Wirtschaft, Gesellschaft und das Leben insgesamt zu verändern. Ein recht gut verstandenes Signal ist der rasche Aufstieg der künstlichen Intelligenz, der hauptsächlich durch die Durchbrüche bei den auf Grafikverarbeitungseinheiten operierenden, sogenannten «faltenden neuronalen Netzwerken» im Jahr 2011 vorangetrieben wird. Ein Ansatz, der auch als «tiefes Lernen» bekannt ist.

Laut OpenAI, einem Forschungs-Think-Tank im Herzen des Silicon Valley, haben die Systeme in den letzten sieben Jahren ihre Rechenleistung um das 300 000-Fache gesteigert und verdoppeln derzeit alle 270 Tage ihre Kapazität. Die einfache Übersetzung: Wenn Sie glauben, dass die KI nicht gut genug oder zu teuer ist, um ein Problem zu lösen, warten Sie einfach ein paar Jahre. Fügen Sie dazu die dramatischen Verbesserungen hinzu, die in einem im Entstehen begriffenen Bereich der Informatik auf Grundlage der schwer fassbaren Mathematik der Quantenmechanik gemacht wurden, und Sie können eine Zukunft sehen, in der die Informatik unglaublich billig, leistungsstark und im Überfluss vorhanden sein wird. Anders als traditionelle Computer führen Quantencomputer ihre Berechnungen nicht in Bits aus (die nur einen von zwei Zuständen haben: 0 und 1), sondern in Qubits, die jederzeit einen von einer fast unendlichen Anzahl unterschiedlicher Zustände annehmen können – was diese Maschinen aussergewöhnlich gut komplexe Simulationen berechnen lässt. Das Interesse an Quantencomputern ist bei Regierungen und ihren Geheimdiensten gross, da diese Maschinen gängige Formen der Verschlüsselung unbrauchbar machen werden, bis hin zu Pharma- und Versicherungsunternehmen.

Letztere werden ihre neu gefundenen Fähigkeiten nutzen, um schneller als je zuvor Grössenordnungen von Medikamenten zu entdecken und Risikopools mit höchster Präzision zu berechnen. Oder schliesslich die Genetik und ihren Einfluss auf Bereiche wie die Zukunft der Ernährung: In den letzten zwei Jahrzehnten ist nicht nur der Preis für die Sequenzierung eines menschlichen Genoms von 2,7 Milliarden Dollar auf weniger als tausend Dollar gesunken, sondern wir haben auch die Fähigkeit entwickelt, genetische Bearbeitungen mit der CRISPR-Technologie präzise durchzuführen. Während sich die Welt noch immer mit gentechnisch veränderten Pflanzen wie Mais arrangiert (oder auch nicht), weist die Spitzenarbeit in den Labors auf eine Zukunft hin, in der wir unsere Lebensmittel in Edelstahltanks in einem fermentationsähnlichen Verfahren herstellen werden. Durch die genetische Modifizierung von Bakterien und anderen Organismen werden wir in der Lage sein, saubere, nahrhafte Lebensmittel mit einem Bruchteil der Ressourcen zu produzieren, die beispielsweise für den Anbau einer Kuh zur Herstellung von Steaks benötigt werden. Letzteres benötigt fast 10 000 Liter Wasser, um ein Kilogramm verzehrbares Fleisch herzustellen; eine massive Verschwendung einer der wertvollsten Ressourcen unseres Planeten.

Wie beim ersten Satelliten Sputnik im Jahr 1957 senden viele weitere schwache Signale ständig ihre schwachen Pieptöne an die Zuhörer. Und die wahre Disruption geschieht am Konvergenzpunkt vieler dieser Technologien. Wenn Fortschritte in der Genetik mit Robotik, künstlicher Intelligenz und Quantencomputer kombiniert werden, verstärken sich die Signale gegenseitig und werden dramatisch schneller und lauter. Machen Sie nicht den Fehler zu glauben, die Zukunft sei eine Reihe von unendlichen Möglichkeiten, ohne dass ein bestimmter Weg vorgegeben ist. Abraham Lincoln hat einmal darüber nachgedacht, dass der beste Weg, die Zukunft vorherzusagen, darin bestehe, sie zu gestalten. In späteren Jahren wurde diese Stimmung von vielen derjenigen aufgegriffen, die an der Gestaltung unserer Zukunft beteiligt waren.

Wir schaffen unsere Zukunft

Aber was ist es, was wir heute schaffen? Schaffen wir die Zukunft, in der wir leben wollen, oder schaffen wir eher eine dystopische Welt der Überwachung, Unterdrückung und Massenarbeitslosigkeit aufgrund des Aufstiegs von Robotik und maschineller Intelligenz? Eine Welt, in der die herrschende Klasse über die technologischen Mittel verfügt, ihre Körper zu verbessern, ihre Gehirne mit Maschinen zu verschmelzen, um superintelligent zu werden und ewig zu leben?

Die heutigen Schlagzeilen schildern eine Welt, die sich scheinbar von Stunde zu Stunde verschlechtert. Trotz der Anzeichen dafür, dass die Welt tatsächlich besser geworden ist und weiterhin besser wird (wie Steven Pinker in seinem Bestsellerbuch «The Better Angels of Our Nature» skizzierte), sehnt sich unsere Amygdala – der älteste Teil unseres Gehirns, der für den lebenserhaltenden Kampf- oder Fluchtinstinkt verantwortlich ist – nach schlechten Nachrichten. Und die Medien sind mit von der Partie, von der Zeitung über das Fernsehen bis hin zum Film: Die Zukunft sieht düster aus, die Probleme sind unlösbar und der Terminator steht kurz vor dem Aufstieg.

Früher war das anders. Am 8. September 1966 debütierte «Star Trek» mit dem Slogan «Mutig dorthin gehen, wo noch niemand zuvor war». Vier Jahre zuvor hatte die Zeichentrickserie «Die Jetsons» eine Zukunft voller fliegender Autos, Küchenroboter und Hologramme dargestellt. Im selben Jahr, in dem die Jetsons ihr Debüt feierten, versammelte John F. Kennedy das amerikanische Volk für eine Mission zum Mond. Aber irgendwie haben wir und unsere Repräsentanten die Fähigkeit und den Wunsch verloren, positive Bilder unserer Zukunft zu malen. Die wenigen Ausnahmen, wie der unternehmerische Verrückte Elon Musk, fallen auf wie bunte Hunde.

«Das Interesse an Quantencomputern ist bei Regierungen

und ihren Geheimdiensten gross, da diese Maschinen

gängige Formen der Verschlüsselung unbrauchbar machen werden

bis hin zu Pharma- und Versicherungsunternehmen. »

So wichtig eine kontinuierliche Debatte über den richtigen Einsatz von Technologie und ihre Grenzen auch ist, sie sollte unsere Fähigkeit, optimistisch in die Zukunft zu blicken, nicht trüben. Der amerikanische Universalgelehrte Noam Chomsky bemerkte: «Wenn Sie nicht daran glauben, dass die Zukunft besser sein kann, werden Sie wahrscheinlich nicht die Verantwortung dafür übernehmen, dass sie besser wird. Optimismus ist eine Strategie, um eine bessere Zukunft zu schaffen.»

Die Entscheidungen, die wir heute treffen, werden den Weg unserer Zukunft prägen. Erik Brynjolfsson, Direktor der MIT-Initiative für die digitale Wirtschaft, bemerkte: «Dies ist ein Moment der Entscheidung und der Gelegenheit. Es könnten die besten zehn Jahre vor uns liegen, die wir je in der Geschichte der Menschheit hatten, oder eines der schlimmsten, weil wir mehr Macht haben als je zuvor.» Die Wahl liegt bei uns.

Homo Data: Wenn der Mensch vorhersehbar wird

Mittels massenhaft gesammelter Daten und künstlicher Intelligenz analysieren uns Tech-Konzerne und sagen unser Verhalten voraus. Sie gefährden damit das freiheitliche Men-schenbild, die Grundrechte und die Demokratie.

Homo Data: Wenn der Mensch vorhersehbar wird
Yvonne Hofstetter, imago images / teutopress.

 

Smarte Häuser, Autos und Arbeitsplätze, Online-Plattformen von Instagram bis Netflix, Siri und Alexa, die Gesichtserkennung oder die Aktiv-App für Sozialhilfeempfänger – kurz: die «Umgebungsintelligenz» – sind integraler Bestandteil unserer Existenz geworden, die heute nicht mehr nur physisch, sondern auch digital ist. Die Werkzeuge analysieren unsere Bewegungen, Interaktionen und unser Denken und erstellen daraus Erwartungen über unser künftiges Verhalten – mit dem Versprechen, uns zu optimieren. Dafür nutzt die Umgebungsintelligenz einen Koffer voller Methoden: Sensoren überall, Dauerüberwachung bis tief in unser Privatleben hinein, mathematische Analysemodelle und automatische Stimuli der Nutzer. Erst sie ermöglichen das Geschäftsmodell der Optimierung, das uns Hoffnung und Träume verkaufen will. Doch die Gefahren für die Demokratie sind nicht zu unterschätzen.

Überwachen, analysieren, lenken

Umgebungsintelligenz nutzt künstliche Intelligenz. Dabei handelt es sich nicht um eine neue Technologie. Seit fünfundzwanzig Jahren werden Systeme der künstlichen Intelligenz zur militärischen Aufklärung und Lageanalyse genutzt. Ein bekanntes Beispiel ist das Awacs-Flugzeug. Mit seinen Sensoren überwacht das «fliegende Auge» den Luftraum und sammelt Daten. Um Luftfahrzeuge als zivil oder militärisch zu klassifizieren, verbindet das System alle gesammelten Rohdaten: Fluggeschwindigkeit, Radarrückstrahlfläche, zivile Flugpläne. Zuletzt folgt eine computerbasierte Handlungsempfehlung. «Datenfusion» heisst ein solch leistungsfähiges Computerprogramm, ein anderer Begriff für «Algorithmus». Beschrieben ist jener Algorithmus in der Sprache der Mathematik und realisiert mit künstlicher Intelligenz. Nur künstliche Intelligenz kann riesige Datenmassen strukturiert analysieren. Intelligente Datenfusionssysteme mit ihrem Dreiklang «überwachen – analysieren – lenken» sind nicht nur für die militärische Aufklärung nützlich, sondern die Basistechnologie für alle autonomen Systeme, von der Industrie 4.0 bis hin zum selbstfahrenden Auto.

Doch was ausser dem überstrapazierten Hype ist neu an künstlicher Intelligenz? Seit Jahren explodiert die Menge der verfügbaren unstrukturierten Daten wie Bilder, Texte oder Videos. Die wertvollsten darunter stammen von Menschen, von Personen, und nicht nur von Objekten wie unseren Industrieanlagen oder kritischen Infrastrukturen. Sie sind persönliche Daten, selbst wenn sie maschinell von unseren elektronischen Türschlössern, vernetzten Saugrobotern, intelligenten Kühlschränken oder smarten Wasserzählern stammen. Auch rücksichtslose Geschäftemacher, die unsere Daten absaugen, obwohl wir das nicht wollen, maximieren den Datenreichtum: Mit der alten Technik des Screen Scrapings hat die Firma Clearview von Webseiten, Blogs und Online-Plattformen ohne unser Wissen drei Milliarden Gesichter kopiert und verwendet sie zur Gesichtserkennung durch Polizeibehörden oder Regierungen. Sorglos geben wir so preis, was Folgen für unsere Zukunft hat. Nicht ein demokratisch kon­trollierter Rechtsstaat, sondern mächtige Technologieunternehmen sind über sämtliche Details unseres Lebens informiert. Sie wissen, wer unsere Freunde und Arbeitgeber sind, was wir in unserer Freizeit tun, wie viel Gesundheitsvorsorge wir betreiben und, sofern sie wie Apple oder Google über Banklizenzen verfügen, wie hoch unser Finanzbedarf ist.

«Für die demokratische Herrschaftsform

ist die Digitalisierung, wie sie sich

heute vollzieht, extrem schädlich.»

Es gibt kein gläsernes europäisches Menschenbild

Die intelligenten Maschinen des 21. Jahrhunderts sind also ein Game Changer. Das Alte in unserer Gesellschaft hält dieser zweiten maschinellen Revolution schon heute nicht mehr stand. Traditionelle Geschäftsmodelle wanken über alle Industrien und Branchen hinweg. Von der übergreifenden Unruhe, vom erzwungenen Paradigmenwechsel bleibt niemand verschont. Kreative Zerstörung ist das erklärte Ziel der Digitalisierer. Aber auch kreative Zerstörung ist Zerstörung. Was wie die maximale Freiheit aussieht, zerstört bewährte Strukturen, denn die Umgebungsintelligenz greift unser Menschenbild an. Es ist das Menschenbild, das die Charta der europäischen Grundrechte in Artikel 1 festschreibt: «Die Würde des Menschen ist unantastbar.» Die Überwachungsstrukturen der Umgebungsintelligenz setzen die Menschenwürde aufs Spiel und damit die Grundlage unserer demokratisch-freiheitlichen Gesellschaftsordnung.

Dem europäischen Menschenbild hat Immanuel Kant (1724–1804) einen theoretischen Rahmen verliehen. Der Mensch sei Teil der Schöpfung, steche aber durch seine Fähigkeiten zu Verantwortung und moralischem Verhalten daraus hervor. Als «Krone der Schöpfung» sei er (Rechts-)Subjekt – Träger von Rechten und Pflichten –, die übrige Schöpfung sei Objekt und dem Menschen untertan. Ihre rechtliche Berücksichtigung findet die Subjektivität des Menschen in Begriff und Ausgestaltung der Menschenwürde. Aus ihr gehen die Freiheitsrechte hervor, wie sie die EU-Charta garantiert, darunter das Recht auf die «negative Freiheit» – das Recht, in Ruhe gelassen zu werden –, die Privatsphäre und die Selbstbestimmung.

Jener Dualismus von Subjekt und Objekt ist es, den die Digitalisierungsapostel leugnen und aufheben wollen. «(Persönliche) Daten sind der Rohstoff des 21. Jahrhunderts», das Öl, das neue Gold der Wirtschaft, sagt uns die digitale Industrie. Dem schliesst sich die Politik in den Industrieländern mit Lobpreisungen an und verspricht einen neuen Schub des Wirtschaftswachstums. Big Tech, seine Lobby und seine Anhänger in Politik und Gesellschaft nehmen den Menschen nicht als Subjekt wahr, sondern als Objekt, als Rohstoffträger, der ausgebeutet und um seine Daten gebracht werden muss. Menschen sind die Ware der Datenindustrie, nicht ihre Kunden.5 Besondere Freiheitsrechte gelte es deshalb nicht zu beachten.

Und wir begeben uns freiwillig in die digitale Abhängigkeit. Unsere Lieblingsmarken, deren Apps wir unter «Profil» oft mit «Bitte einmal alles» einstellen, stammen noch immer zum überwiegenden Teil aus den USA und sind Exporte nach Europa. Sie wurzeln in einem anderen Verständnis des Wirtschaftens, einem anderen Verfassungs- und Rechtsverständnis, das nicht so recht auf unser europäisches Verständnis von Menschenwürde und sozialer Marktwirtschaft passen will. In der digitalen Goldgräberstimmung schiessen die amerikanischen digitalen Angebote deshalb auch schnell über das Ziel hinaus, wo das Geschäftsmodell «Überwachung» millionenfach die Grundrechte europäischer Bürger verletzt. Doch solange sie Umsatz und Gewinn versprechen, werden auch nach europäischem Verständnis rechtswidrige Geschäftsideen mit grosser Leidenschaft verteidigt. Die Macht dazu schöpfen die Technologiegiganten aus ihrer enormen Liquidität. Allein die Top 5 der Internetunternehmen verfügen über freie Geldmittel in Billionenhöhe.

Wenn der Arm des Gesetzes schon präventiv zugreift

Eine Zeitenwende könnten die Ereignisse des Jahres 2016 eingeläutet haben. Im Juni 2016 erklärten die Briten den Ausstieg aus der EU, und im November 2016 wurde Donald Trump zum 45. Präsidenten der Vereinigten Staaten von Amerika gewählt. Was, so fragen sich seitdem selbst die Nerds ohne jede politische Kultur, haben Digitalisierung, die totale Vernetzung der Welt zum Internet of Everything, riesige Datenmengen und künstliche Intelligenz mit dem Populismus und der zunehmenden Wut in der Gesellschaft zu tun?

Ganz offensichtlich ist die fortschreitende Umgebungsintelligenz keine abgekapselte technologische Entwicklung mehr, die für sich alleine steht, ohne Einfluss auf die Gesellschaft zu nehmen. Statt «nur» das Grundrecht auf Privatsphäre zu verletzen, treten die neuen Technologien immer deutlicher auch in Konflikt mit anderen Freiheitsrechten der Bürger. Das datenbasierte Profiling, mit dem Menschen aufgrund ihres Verhaltens kategorisiert werden, um Mutmassungen über ihr zukünftiges Verhalten anzustellen, verletzt das Antidiskriminierungsverbot bzw. das Recht auf Gleichheit. Dabei begehen längst nicht mehr nur die privaten Wirtschaftsunternehmen den Sündenfall, sondern auch staatliche Institutionen. Polizeibehörden in Chicago und Grossbritannien greifen auf Facebookdaten der Nutzer zu, fusionieren sie mit Bewegungsdaten der Touristen-App Foursquare und eigenen Datenbeständen und berechnen daraus die Wahrscheinlichkeit, mit der ein Bürger in naher Zukunft straffällig werden wird (Predictive Policing). Betroffene erhalten die schriftliche Aufforderung ihrer Polizeibehörde, sich gesetzeskonform zu zeigen, andernfalls träfe sie der Arm des Gesetzes mit voller Wucht – wohlgemerkt, ohne dass der Betroffene eine Straftat begangen hätte. Aber vielleicht wird er ja in der Zukunft straffällig – darauf weist der Algorithmus hin. Mit dem Rechtsstaat ist ein solches Vorgehen nicht vereinbar.

Weil besonders Chicago dafür bekannt ist, auch ohne Softwareeinsatz mehr Afroamerikaner als Weisse zu inhaftieren, verfügen die Rohdaten, die einer künstlichen Intelligenz für das Profiling von Straftätern vorgelegt werden, selbst über eine Voreingenommenheit, ein Vorurteil. Die Rohdaten amerikanischer Polizeibehörden sind also keineswegs objektiv, sondern behaupten: Afroamerikaner werden häufiger straffällig als weisse Bürger. Das Vorurteil setzt sich in der Datenfusion und bis zur Bewertung des Betroffenen mit einem Score, einer zahlenmässigen Beurteilung des Bürgers, fort. Genauso richtig könnte man schreiben: mit einer zahlenmässigen Verurteilung. Umgebungsintelligenz eta­bliert also nicht nur Rassismus, sondern hebelt auch das Recht des Betroffenen auf einen fairen Prozess aus. Eine smarte Maschine hat ihr Urteil bereits gefällt. Und die Maschine, so wir Technikgläubigen, hat immer recht.

Zu weit geht vielleicht auch derjenige, der algorithmische Profile von Bürgern für eigene politische Kampagnen nutzt, weil die hohe Granularität persönlicher Daten auf das künftige Wahlverhalten der Bürger schliessen lässt. Schon unter US-Präsident Barack Obama wurden Bürger auf der Basis solch detaillierter Psychogramme in Gruppen eingeteilt, je nach der Wahrscheinlichkeit, mit der sie Obama wählen oder unterstützen würden. Eine solche Datenfusion arbeitet mit mathematischen Modellen und Variablen, die Einfluss auf eine persönliche Wahlentscheidung haben.

Dazu zählen Faktoren, die online direkt beobachtbar sind: Freizeitaktivitäten, berufliche oder private Interessen, Suchhistorien, Likes, Online-Einkäufe. Solche Daten kann man kaufen – etwa von i360, einem Unternehmen, das dem amerikanischen Milliardär Charles Koch gehört. Auf die latenten Variablen, die nicht beobachtbar sind, schliessen dann digitale Techniken, allen voran die künstliche Intelligenz. Nicht beobachtbar, aber eben dennoch neue relevante Information für den Datenanalysten sind die unbewussten Denkprozesse, Vorurteile oder Emotionen eines Wählers. Von ihnen lässt sich sein wahrscheinlichstes Wahlverhalten prognostizieren. Das gilt es dann gezielt zu beeinflussen.

2012, sagen Experten, habe Obama mit Hilfe der Datenfusion rund vier Prozentpunkte hinzugewonnen. 2016, davon gehen viele Analysten aus, habe diese Form der Datenanalyse und gezieltes Kampagnenmanagement das Brexit-Referendum beeinflusst und zur Wahl des Aussenseiters Donald Trump zum US-Präsidenten geführt. Ganz nüchtern muss man schliessen: Wenn per Datenfusion die vorausschauende Wartung von Industrieanlagen, Wettervorhersagen oder Marktprognosen möglich werden, ist der Mensch selbst nur ein weiterer Gegenstand der Prognosefähigkeit der Mathematik.

«Sie wissen, wer unsere Freunde und Arbeitgeber sind,

was wir in unserer Freizeit tun, wie viel Gesundheitsvorsorge

wir betreiben und wie hoch unser Finanzbedarf ist.»

«Tausche Wahrheit gegen Werbung»

Dass die überschiessende Umgebungsintelligenz nicht nur die Freiheit des einzelnen, sondern die gesamte freiheitlich-demokratische Grundordnung bedroht, manifestiert sich besonders deutlich in der Verletzung der Meinungsfreiheit durch die sozialen Medien. Dass soziale Medien die Meinungsfreiheit einschränken, scheint auf den ersten Blick nicht einleuchtend. Doch bei genauerem Hinsehen entpuppen sich soziale Medien als technologiebasierte Werbebühnen amerikanischer Konzerne. Nur wer sich den Regeln der Konzerne unterordnet, darf teilhaben. Werbeplattformen sind also exklusiv im Sinne von «nicht inklusiv»; sie verweigern denen die Teilhabe, die sich weigern, ihre Privatsphäre gegenüber der Plattform aufzugeben und sich durchs ganze Internet verfolgen zu lassen sowie sämtliche Rechte an allen Inhalten, also den Bild- und Sprachwerken, ohne Gegenleistung an die Technologiegiganten abzutreten. Gegen derart autoritär anmutende Teilnahmeregeln ist zunächst nichts einzuwenden, denn Wirtschaftsunternehmen sind nicht der Staat, gegen den sich das grundgesetzlich verankerte Abwehrrecht gegen Eingriffe in die Meinungsäusserungsfreiheit allein richtet.

Hochproblematisch hingegen ist der Umstand, dass wir Konsumenten in den letzten Jahren ausgerechnet die Werbebühnen amerikanischer Konzerne zum Dreh- und Angelpunkt unserer Meinungsfreiheit auserkoren haben. Gemittelt über die Weltbevölkerung suchen 55 Prozent der Onliner über Suchmaschinen, soziale Medien und Informationsportale nach Nachrichten – also bei den Anbietern, die Algorithmen für die Nachrichtenauswahl und -anzeige einsetzen.6 Allein die Maschine bestimmt, was die Nutzer auf Basis ihres Profils sehen. Künstliche Intelligenzen klassifizieren Nachrichten als relevant für einen Nutzer und zeigen ihm nur die Information an, von der sie «glauben», «denken», «annehmen» – alles kognitive Fähigkeiten –, der Nutzer interessiere sich für nichts anderes und sollte nur sie lesen. Der Effekt: die vielzitierten Filterblasen oder Echokammern. Sie sind persönliche Informationsgummizellen, in denen der Nutzer nur um sich selbst und seine eigenen Interessen kreist und aus denen kein Fenster, keine Tür nach aussen in die Wirklichkeit führen. Doch auf Werbeplattformen sind Wirklichkeit und Tatsachen ohnehin nur Störfaktoren.

Die mit Hilfe von künstlicher Intelligenz erzeugte hochgradige Individualisierung von «Nachrichten» führt zu einer fragmentierten Gesellschaft, in der jeder einzelne eine völlig andere Wahrnehmung der Wirklichkeit hat als sein Nachbar. Zwischen beiden tritt eine Kommunikationsstörung auf. Wer den gemeinsamen Blick nicht mehr hat, kann nicht mehr gemeinsam als «Welt» – so nennt die politische Theoretikerin Hannah Arendt den politischen Raum – auftreten und handeln. Soziale Medien vereinzeln die Bürger, und Vereinzelung entmachtet sie, weil gemeinsames Eintreten für gemeinsame Interessen nicht mehr möglich ist. Eine entmachtete Masse von Individualmeinungen bildet zudem die Voraussetzung für den Aufstieg autoritärer, diktatorischer Herrschaftsformen.

Die Gefahr besteht, dass aus dem Chaos der Individualmeinungen jemand hervortritt, der mit schlichten Parolen Heilung verspricht – wie es die Populisten weltweit tun, die sich besonders dadurch auszeichnen, dass sie die Klaviatur der sozialen Medien mit Klassifizierung, Individualisierung und Filterblase perfekt zu beherrschen scheinen. Die Nerds haben ein richtiges Gefühl, und die politische Theorie liefert die Begründung: Soziale Medien verändern die demokratische Gesellschaft tatsächlich, weil ihre künstlichen Intelligenzen Information stark individualisieren und auf diese Weise im politischen Umfeld Gesinnungen bewirken und verstärken. Hinzu kommen Hass, Mobbing und Drohungen, die die Pluralität der Stimmen im Netz noch weiter einschränken, weil sie Menschen davon abschrecken, ihre Meinung einzubringen und zu vertreten. Doch nur demokratisierte Medien, die auch Minderheiten zu Wort kommen lassen, verhelfen einer Gesellschaft zu einer gesunden Demokratie.

Die Politik am Scheideweg

Dringendste Aufforderung an die Politik ist, die Grundrechte der Person, ihre Würde und ihre Freiheiten auch in Zeiten zunehmender Umgebungsintelligenz zu verteidigen. Zu den besonders gefährdeten Rechten gehören die Privatsphäre und die Freiheit auf digitale Abstinenz, die nicht zu Diskriminierung führen darf. Sie ist nicht weniger als die demokratische Alternative zur digitalen Partizipation. Auch Kontrollrechte über unsere persönlichen Daten fallen in den Schutzbereich eines digitalen Grundgesetzes: Wer persönliche Daten für sein Geschäftsmodell nutzt, muss Auskunft geben, was er mit den Daten vorhat, wo und wie lange er sie speichert, welche Schlüsse er aus ihnen zieht, ob und wohin er sie weiterverkauft.

Die Europäische Datenschutzgrundverordnung, die im Mai 2018 für alle EU-Staaten in Kraft getreten ist und vom Staat Kalifornien kopiert wurde – dort ist ein ähnliches Regelwerk seit diesem Jahr in Kraft –, will digitale Grundrechte teilweise gewährleisten. Dabei ist die EU-Verordnung nur ein einzelner Regulierungsansatz und nicht in der Lage, die gesellschaftlichen Folgen der Massendatenverarbeitung durch künstliche Intelligenz vollumfänglich zu bewältigen. Man darf daher auch künftig mit schwerwiegenden Pro­blemen rechnen, besonders mit heute noch unbekannten Wechselwirkungen zwischen neuen digitalen Technologien, ihren Geschäftsmodellen und der Gesellschaft. Nach den Erfahrungen mit den Wahlen in den USA und der Brexit-Abstimmung im Jahr 2016 gilt es deshalb die Naivität gegenüber der Digitalisierung ganz abzulegen, statt ihren Begleitideologien auf den Leim zu gehen. Für die demokratische Herrschaftsform ist die Digitalisierung, wie sie sich heute vollzieht, extrem schädlich. Im Vergleich zu den Visionen und Ansprüchen einer Digitalisierungselite ist die Demokratie eine seit der Antike gereifte Entwicklung, in der sich Gesellschaften frei und ungehindert entwickeln konnten. Mit Blick auf die Geschichte Europas im 20. Jahrhundert darf man getrost sagen: Es gilt an der Demokratie festzuhalten. Deshalb hat sie trotz und gerade wegen der Umgebungsintelligenz nur die besten und leidenschaftlichsten Verteidiger verdient.

Verhaltenstips vom Versicherer

Schon heute versucht die Versicherungsbranche menschliches Verhalten vorherzusagen und Risiken zu antizipieren. Moderne Technologien und enorme Datenmengen können uns zu einer (noch) sichereren Zukunft verhelfen.

 

Seit den formellen Ursprüngen der Versicherungsbranche im 17. Jahrhundert basiert die Beziehung zwischen Versicherer und Versichertem auf dem Fremdvergleichsgrundsatz – die Versicherungsgesellschaften zahlen für entstandene Verluste, etwa nach dem Tod eines Versicherten. Die Lebensdauer seiner Kunden zu verlängern, gehörte in der Vergangenheit nicht zum Kerngeschäft eines Versicherers. Doch die Zeiten ändern sich: Dank der enormen Menge an Informationen kann die Versicherungsbranche heute in Echtzeit Verhaltensänderungen vorschlagen und damit das Risiko für den Verlust von Menschenleben oder für andere Unfälle verringern.

Neuste Entwicklungen in der elektronischen Verarbeitung wirken sich auf unser Zusammenleben und unsere Interaktion mit anderen Menschen aus. Wie in zahlreichen anderen Branchen verändert sich auch die Versicherungsbranche durch die Integration von modernen Technologien. «Predictive Analytics» sind als Innovation im früheren 21. Jahrhundert bereits ein Standardelement in jedem Finanzdienstleistungsgeschäft und beziehen sich auf die Analyse riesiger Datenmengen, um das Auftreten und die Auswirkungen von Wetter, Krankheiten, menschlichem Verhalten und anderen Faktoren, die Verluste verursachen können, vorherzusagen. «Predictive Underwriting» (deutsch: Prädikative Risikoprüfung) ist die Anwendung der «Predictive Analytics», um die Wahrscheinlichkeit des Eintretens eines Verlustes (seine «Häufigkeit») und den zu erwartenden Grad des Schadens oder der Verletzung (seine «Schwere») zu ermitteln. Für sich allein ist sie auf den menschlichen Verstand angewiesen, um die zu analysierenden Daten und die Mittel zu ihrer Analyse zu identifizieren.

Die sogenannte «künstliche Intelligenz» hingegen geht noch einen Schritt weiter: Sie ahmt die menschliche Intelligenz nach, indem sie durch ihre eigenen Operationen Muster und Korrelationen zwischen Daten ermittelt, die bestimmte Ergebnisse wie Unfälle oder Verletzungen am Arbeitsplatz vorhersagen. Und moderne Technologien können sogar noch mehr: «Maschinelles Lernen» bezieht sich auf die Fähigkeit der KI, von sich alleine Verschiebungen in den Ergebnissen und neue oder sich ändernde Faktoren zu erkennen, die zu diesen Verschiebungen führen. Wer heute im operativen Geschäft nach Innovationsvorteilen gegenüber der Konkurrenz sucht, wird in den Bereichen der künstlichen Intelligenz und des maschinellen Lernens fündig. Sowohl KI als auch maschinelles Lernen treiben mindestens drei grundlegende Veränderungen in der Dynamik der Funktionsweise von Versicherungen voran:

1. Von der demografischen zur verhaltensbasierten Risikoeinschätzung

Etwa 200 Jahre lang bestand das Versicherungsgeschäft darin, die Kunden in grosse Kategorien einzuteilen, die auf bestimmten groben Merkmalen basierten: ihr Alter, die Distanz ihres Eigenheims zum naheliegenden Spital oder zur Feuerwehr, die Konstruktion ihres Wohn- oder Geschäftsgebäudes, die Fahrbedingungen in ihrer Umgebung usw. Wenn überhaupt, wurden nur wenige Daten gesammelt, um die Risikobewertung und Preisgestaltung zu individualisieren.

In den Vereinigten Staaten wurde dieser Ansatz durch breite Gruppen für die Einstufung von Versicherungspolicen verkörpert, die sogenannten «Tiers» (deutsch: Stufe, Schicht). Ein Versicherungsnehmer wurde eingestuft in «Standard», «Substandard» oder «bevorzugt» – oder in eine betriebliche Variante dieses Systems, basierend auf der Identifizierung von Informationen über den Versicherungsnehmer, die dem Versicherer zur Verfügung gestellt wurden. Auf der Grundlage dieser Informationen gab es zwar einige geringfügige Preisschwankungen, doch die Staffelung erlaubte nur eine relativ schwache Differenzierung zwischen den besseren und den schlechteren Risiken.

Das begann sich zu ändern mit der Einführung von «Predictive Analytics», die von einem Wettbewerb um die Nutzung grosser Datenmengen zur individuellen Behandlung von Risiken angetrieben wurden. Solche Techniken können leicht die besseren von den schlechteren Risiken in jeder Stufe trennen, und eine kluge Versicherungsgesellschaft kann leicht die besten Risiken, «die Sahnehaube», von jeder Preisstufe abschöpfen und die weniger attraktiven Risiken ihren Konkurrenten überlassen. Zu diesem Zweck wurde die Granularität der Daten, die zur Kategorisierung der Risiken verwendet werden, weiter verfeinert. Beispielsweise wurden in der Hausratversicherung die Informationen zur Bewertung von Policen über Sturmgefahren, die früher auf der Ebene der Bundesstaaten oder Bezirke bereitgestellt wurden, jetzt bis auf die Ebene der Postleitzahlen definiert, die in den USA als «Zip Codes» bekannt sind. Ausserdem wurden Online-Datenbanken für Baugenehmigungen integriert, um eine genauere Bewertung des gefährdeten Baugrundstücks zu ermöglichen. Sehr schnell konnte gezeigt werden, dass «homogene» Risiken in Tat und Wahrheit gar nicht so homogen sind.

Die meisten Verbraucher wurden erstmals auf einen neuen Ansatz bei der Versicherungseinstufung aufmerksam, als ihnen ein Telematikgerät angeboten wurde, das in einen Anschluss an ihrem Fahrzeug gesteckt wurde und ihr Fahrverhalten aufzeichnen und melden sollte. Das Gerät notierte, wie schnell die Konsumenten fuhren, wie abrupt sie beschleunigten oder bremsten, wie viele Linkskurven sie nahmen und zu welcher Tageszeit sie unterwegs waren. Die bereitgestellten Informationen würden sich direkt auf die Kosten ihrer Autoversicherung auswirken. Zum ersten Mal berücksichtigten die Versicherer systematisch, was ihre Versicherungsnehmer tatsächlich taten, und gingen bei der Risikoprüfung nicht von der allgemeinen Annahme aus, dass Personen mit geteilten Merkmalen ähnliche Risiken aufweisen würden. Es war der erste weitverbreitete Kontakt der Öffentlichkeit mit der ersten oben genannten Transformation: Versicherung aufgrund des Verhaltens und nicht nur durch demografische Informationen.

«Dank der enormen Menge an Informationen

kann die Versicherungs­branche heute in Echtzeit

Verhaltens­änderungen vorschlagen und damit das Risiko

für den Verlust von Menschen­leben

oder für andere Unfälle verringern.»

2. Von gelegentlichen Transaktionen hin zu konstanter Einbindung

Während Konsumenten monatlich Dutzende von Transaktionen mit Banken, Einzelhändlern und anderen Unternehmen tätigen, beschränkte sich ihre Interaktion mit den Versicherern in der Vergangenheit oftmals auf die jährliche Vertragsverlängerung, die Beitragszahlungen und den hoffentlich seltenen Schadensfall. Das ist heute Geschichte: Fahrzeugmonitore sind nur die ersten einer Welle von Sensoren, die mit dem «Internet of Things» (IoT) verbunden sind und zur Erfassung von Informationen in Wohnungen, Autos, Unternehmen und allen möglichen Orten und Geräten eingesetzt werden. Diese Sensoren sammeln fast unvorstellbare Datenmengen über Beweglichkeit, Bewegung, Hitze, Feuchtigkeit, Wasser, Luftdruck und andere Bedingungen im Zusammenhang mit Schadens- und Verletzungsrisiken.

Mit den IoT-Sensoren werden Versicherer, die in Verbindung mit Instandhaltungsdiensten für Immobilien tätig sind, rund um die Uhr mit ihren Versicherungsnehmern in Kontakt stehen, Informationen für die Tarifierung jedes Risikos erfassen und bei der Verwaltung jedes Risikos helfen, indem sie automatisierte oder persönliche Warnmeldungen zu Situationen senden, die einen Verlust zu verursachen drohen. Diese Fahrzeugsensoren teilen dem Versicherer nicht nur mit, wie Sie fahren, sondern Sie können auch Warnungen des Versicherers (oder des IT-Dienstleisters) erhalten, die auf Gefahren im Strassenverkehr und die Verkehrsbedingungen aufmerksam machen.

Das ist ein magischer Wendepunkt: Versicherungsunternehmen schaffen einen Mehrwert für den Alltag ihrer Kunden, indem sie nicht mehr nur auf Verluste reagieren, sondern den Versicherten aktiv helfen, Risiken zu erkennen und die Wahrscheinlichkeit zu verringern, dass Verluste überhaupt erst entstehen. Dieselben Analysen, die die vorausschauende Risikoprüfung beim Kauf von Versicherungen nutzen, können nun täglich genutzt werden, um das Schadensrisiko zu reduzieren. Damit wird die Beziehung zwischen Versicherer und Versicherungsnehmer von einer jährlichen Transaktion in ein laufendes Risikomanagement umgewandelt.

Nennen wir es «Little Brother»: ein gewisses Mass an Aufsicht, das die Verbraucher scheinbar zu akzeptieren bereit sind im Austausch für Sicherheit und geringere Kosten für den Versicherungsschutz. Die Bereitstellung von Sensordaten, kombiniert mit der Fähigkeit, diese schnell zu analysieren, bringt eine grundlegende Veränderung im Versicherungsgeschäft mit sich. Wir können jetzt das Verhalten – menschliches, natürliches und mechanisches – sofort verstehen und in Echtzeit ansprechen.

3. Eine neue Art der Abschätzung von Verlusten

In Wirtschaftskreisen ist die Versicherung dafür bekannt, dass sie ihre «Kosten des Umsatzes» sozusagen nicht kennt, wenn das Produkt verkauft wird. Wenn Policen verkauft werden, müssen die Versicherer abschätzen, wie hoch die Verluste ihrer Meinung nach sein werden, und eine riesige Naturkatastrophe oder eine unerwartete Änderung des Haftungsrechts kann diese Prognosen leicht umkehren.

Angesichts der Einschränkungen der demografischen Daten über Risiken beschränkten sich die Versicherungsgesellschaften meist auf einen «Top-down»-Ansatz bei der Verlustschätzung, bei dem die endgültigen Kosten für bestehende Ansprüche, sowohl bekannte als auch vermutete, durch die Anwendung eines Faktors vorausberechnet wurden, der aus hochkarätigen Erfahrungsberichten über die Jahresabschlüsse abgeleitet wurde.

Auf grosse Datenmengen angewendete KI und maschinelles Lernen haben eine Umkehrwirkung und ermöglichen «Bottom-up»-Schätzungen darüber, wie sich individuelle Verluste «entwickeln» werden, um den von den Versicherern verwendeten Begriff zu verwenden. Die KI-Algorithmen analysieren im wesentlichen die an einzelnen Schadensfällen vorgenommenen Änderungen und lernen, wie die Ansprüche im Laufe der Zeit wachsen. Das Endergebnis ist eine weitaus präzisere Projektion der künftigen Verluste, die auf den individuellen Ansprüchen jedes einzelnen Schadensfalls beruht, und eine wesentlich genauere Zuweisung der Mittel zur Begleichung dieser Verluste. Davon profitiert auch der Konsument: Die Versicherungsgesellschaften können ihr Kapital effizienter einsetzen und so ein wachsendes Spektrum an immateriellen und wirtschaftlichen Verlusten abdecken, darunter Cyberverluste, Rufschädigung und emotionale Traumata.

Sicherheit geht vor!

Menschen, die auf eine Versicherung vertrauen, dürfen sich aus gutem Grund geschützt fühlen: Ihre Versicherer verfügen über leistungsstarke Mittel für Risikomessung und Risikomanagement. Ihre Beziehung zu Ihrem Versicherer wird zu einer Partnerschaft, in der Ihnen ein Versicherer Daten über Ihren aktuellen Zustand oder Ihre Handlungen mit anderen umfangreichen Datenbeständen kombinieren kann, um Ihnen dabei zu helfen, wichtige bevorstehende Risiken zu antizipieren, und Massnahmen zur Vermeidung dieser Risiken vorzuschlagen.

Wie das konkret aussehen könnte? Vielleicht erhält ein versicherter Autofahrer eine alternative Fahrroute vorgeschlagen, wenn plötzlich heftige Regenfälle die vorausliegende Strasse unter Wasser setzen. Oder vielleicht empfiehlt eine Smartphone-App, das tägliche Trainingspensum zu erhöhen, um das Risiko einer Herzerkrankung um 45 Prozent zu reduzieren. Beide Beispiele sind Situationen, in denen das Verständnis dafür, wer Sie als Einzelperson (oder als Mitarbeiter eines Unternehmens) sind, in Kombination mit granularen Daten über Ihre Handlungen und leistungsstarken Algorithmen für maschinelles Lernen sowohl das Risiko vorhersagt, dem Sie ausgesetzt sind, als auch Optionen zur Risikominderung vorschlägt. Entscheidend ist, dass der Versicherer auf ein breites Spektrum an Erfahrungen zurückgreifen kann, um einen Kunden über seine Risiken zu informieren und ihn seine Möglichkeiten zur Risikominderung sorgfältig bewerten zu lassen. Diese Partnerschaft wird zu besser informierten und besser geschützten Verbrauchern führen.

Der talentierte Herr Somary

Die Schweiz nannte vor 100 Jahren mal einen grossen Futurologen ihr Eigen: einen universell gebildeten, österreichischen Bankier.
Eine Erinnerung.

 

Der Graf Schwerin von Krosigk (Finanzminister in Deutschland von 1932–1945) beschreibt in seinem Buch «Es geschah in Deutschland» eine Begegnung mit Felix Somary Anfang der 1930er Jahre. Auf die Frage, wann denn die Krise überwunden sei, soll Somary geantwortet haben: «Drei Dinge müssen geschehen: Erst müssen die deutschen und österreichischen Banken umstrukturiert werden; dann muss sich das britische Pfund vom Goldstandard lösen; schliesslich muss das Zündholzmonopol von Kreuger untergehen.»

Im Sommer 1931 crashten die deutschen und österreichischen Banken. Kurze Zeit später löste sich England vom Goldstandard. Graf Schwerin von Krosigk fragte bei Somary nach, ob es wirklich auch noch auf das dritte Ereignis ankomme. Somary nahm nichts zurück und beharrte darauf, dass der Kreugerkonzern untergehen werde. Vier Wochen später erschoss sich Kreuger in Paris.

Es waren Vorhersagen von gespenstischer Präzision wie diese, die Felix Somary den Spitznamen «Der Rabe von Zürich» eingetragen haben. Er sagte selbst von sich, er wisse nicht, warum, aber er spüre die Zukunft ein stückweit «in den Knochen». Heute würden wohl viele in ihm einen der vielen Crashpropheten sehen und auch einen Pessimisten – wobei Somary keinesfalls nur Katastrophen vorhersah. Woher aber nahm Somary sein Wissen und sein Gespür?

Es waren wohl vor allem vier Dinge: breite Bildung, Sinn für historische Zusammenhänge, beste Kenntnis der Ökonomie und der Finanzwelt sowie der stete Kontakt mit Menschen, die selbst historische Figuren waren und die Zeitläufte mit in der Hand hielten.

Geschichte ist eine gute Lehrmeisterin, denn sie vermittelt Kenntnis von Mustern, die sich womöglich wiederholen können. Mit dem Wissen aus Ökonomie und Bankenwesen hatte er, wie ein Arzt, Einblick in die Eingeweide der Gesellschaft. Wer schuldete wem wie viel und wer vertraute wem oder auch nicht? Er las aus Geldflüssen, Zinsfüssen und Verschuldungsquoten schon vorab heraus, was später in der Zeitung stand, nachdem es sich ereignet hatte. Und sicher war auch der Kontakt zu führenden Köpfen (er kannte u.a. Max Weber und Joseph Schumpeter) und Entscheidungsträgern (er traf u.a. auf den österreichischen Staatspräsidenten Karl Renner, den Reichsbankpräsidenten Hjalmar Schacht, General Ludendorff oder John Maynard Keynes) einer gewissen Weitsicht nicht abträglich.

Somary wuchs in Wien auf, in einem liberal-bürgerlichen Elternhaus. Sein Vater war Rechtsanwalt, am Tisch wurde schon mal über römische Geschichte oder griechische Philosophie diskutiert. Seine Mutter fiel mit ihrem Klavierspiel dem Pianisten Arthur Rubinstein auf. Gehobenes Wiener Bürgertum also, breite Allgemeinbildung war geschätzt. Doch wie gut Somary war, merkte er erst, als er als Erstsemestler im Büro des damals bedeutendsten österreichischen Ökonomen Carl Menger stand (u.a. Lehrer von Ludwig von Mises), der dem siebzehnjährigen Wirtschaftsstudenten prompt einen Job anbot. Er hatte ein Pamphlet Somarys in die Hände bekommen, in welchem dieser als Gymnasiast kenntnisreich über die Unternehmenslandschaft Österreichs berichtete (das Buch hatte zuvor der Ökonom Luigi Einaudi gelobt, der später Präsident Italiens werden sollte). Man merkt schon an dieser Episode: Die Wege für Somary waren kurz, er war eingebunden in eine Art unsichtbares Kollegium kluger und gebildeter Menschen, und das sollte auch später in seinem Leben nicht anders sein.

«Mit dem Wissen aus Ökonomie und Bankenwesen hatte er,

wie ein Arzt, Einblick in die Eingeweide der Gesellschaft.»

Zwischenstation Zürich, Paradeplatz

1919 kam Somary, der inzwischen Banker geworden war und auch ein Buch über Bankenpolitik geschrieben hatte, unter abenteuerlichen Umständen – Deutschland war mitten im Revolutionsgewirr – nach Zürich. Er deponierte seine Habe erst einmal «im bescheidenen Stauraum» der Schweizerischen Nationalbank an der Bahnhofstrasse – und atmete tief durch. Bis 1926 leitete er die kleine Privatbank Blankart & Cie. am Paradeplatz. Mit dem Umzug in die Schweiz folgte er seinem eigenen Rat, denn er sah die Schweiz als einziges Land der Welt an, wo Vermögen noch vor Wertverlust geschützt war. Dies erreichte er auch für die Kunden, die auf ihn hören wollten.

Auch hier lag er richtig. Schon bald grassierte die Inflation in Deutschland und Österreich. Somary scheute sich im Vorfeld nicht, die Alarmglocke zu läuten – auch auf das Risiko hin, verlacht zu werden. Er sah in Österreich einen Staatsbankrott nahen, der nur entweder durch einen Schuldenschnitt oder durch eine massive Abwertung der Währung ausgeglichen werden würde.

Der Ökonom Joseph Schumpeter selbst wollte ihm nicht glauben – und sah sich erst dann eines Besseren belehrt, als er seinen Posten im Finanzministerium aufgab und zu einer Bank wechselte – die alsbald kollabierte. Somary half hier wieder der Blick in die Geschichte. Jedes staatliche Geld ist irgendwann untergegangen. Während Rom noch 400 Jahre gebraucht hatte, um die eigene Währung zu ruinieren, genügten Deutschland und Österreich dafür neun Jahre, Russland schaffte es sogar in fünf. Doch Somary blickte schon weiter. Wer, wenn nicht autoritäre Kräfte, sollte nach der Inflation an die Macht kommen? Sowohl die Bolschewiken in Russland als auch Hitler bestätigten ihn letztlich in seiner Befürchtung, dass Inflation der ideale Nährboden für Gewalt- und Willkürherrschaft war.

Heute und hinterher ist man dementsprechend schlauer, doch eine weitere Episode zeigt, wie isoliert Somary damals bisweilen war: 1924 traf er auf John Maynard Keynes, der in Berlin in seiner Rede «Das Ende des Laisser-faire» gegen freie Märkte argumentierte und dafür viel Beifall erhielt. In einer privaten Unterredung fragte Keynes, was Somary denn seinen Kunden gerade rate. Dieser erwiderte: «Sich gegen die nahende Krise wappnen und von den Märkten fernhalten.» Keynes antwortete, er sehe zu Lebzeiten keine Crashs mehr nahen, zudem seien die Preise an den Börsen gerade günstig. Keine fünf Jahre später kam – nach einer zwischenzeitlichen Erholung – der grosse Crash von 1929. Der einsame Rufer in der Wüste hatte wieder einmal recht behalten.

Felix Somary ist eine Ausnahmeerscheinung gewesen, wie man sie sich heute in stürmischen welt- und finanzpolitischen Grosswetterlagen nur wünschen könnte. Er war Historiker, Philosoph, Soziologe, Privatbankier, Futurologe – wer ist das alles heute noch? Sicher war er auch ein Kind seiner Zeit, aufgewachsen in einer Epoche, die Stefan Zweig mal als «die Welt von gestern» beschrieben hat. Doch er wäre auch heute noch ein wertvoller Begleiter durch unbekanntes Terrain. Auch wenn er als Vertreter der «österreichischen Schule der Nationalökonomie» von den «Wirtschaftsweisen» und Hofökonomen vermutlich nur als origineller, aber nicht ernstzunehmender Vogel aus Zürich belächelt werden würde.

Ein Universalgelehrter der «Welt von gestern»

Der Historiker und Diplomat Carl J. Burckhardt meinte einmal in der NZZ über das Buch Somarys «Krise und Zukunft der Demokratie», dass Somary irgendwann genauso hochgeschätzt werden würde wie Alexis de Tocqueville. Otto von Habsburg sah in ihm einen Universalgelehrten unserer Zeit, der mit seinem Wissen zudem keine Publicity suchte, sondern sich bescheiden im Hintergrund hielt. Somary hätte heute sicher kein LinkedIn-Profil mit der Beschreibung «Futurist, Berater, Coach, Speaker», wie man das heute so häufig liest.

Aus heutiger Sicht war Burckhardt wohl zu optimistisch: Felix Somary scheint fast nur Experten ein Begriff zu sein. Dabei gehört er zu den Autoren, die auch heute wieder dringend gelesen werden sollten, denn auch schreiben konnte er, wie seine glänzend geschriebenen Memoiren «Erinnerungen aus meinem Leben» und das Buch «Krise und Zukunft der Demokratie» zeigen. In letzterem stellt er zwanzig «Sozialgesetze» auf, die sich auch heute noch zu lesen lohnen.

Das erste «Gesetz» lautet zum Beispiel: «Je stärker Gewalt zentriert wird, desto geringer ist die Verantwortung.» Und er erlaubt sich den Zusatz: «Je höher der Platz auf der hierarchischen Stufenleiter, desto unzulänglicher wird er ausgefüllt» – ein wohl eherner Grundsatz jeder Organisationsform, der später als sogenanntes «Peter-Prinzip» bekannt wurde. Hellsichtig auch für unsere Zeit ist das Gesetz Nr. 13: «Ein Tyrann erregt Widerstand, mehrere erregen Nachahmung.» Hoffen wir, dass Somary nicht immer recht behält.

Die Literatur hat es
längst erahnt

Die Relation von Möglichkeitsraum und Wahrscheinlichkeitsraum: Weshalb Dichter oft die besseren Prognosen machen.

Die Literatur hat es  längst erahnt
Die «Épouvante» aus Jules Vernes Roman «Maître du monde» aus dem Jahr 1904 ist Flugzeug, Auto und U-Boot in einem. Bild: imago images / KHARBINE-TAPABOR.

 

Der britische Schriftsteller Herbert George Wells ist zu Beginn des 20. Jahrhunderts ein bekannter Autor, dessen Romane, darunter «Die Zeitmaschine» (1895) und «Der Krieg der Welten» (1898), nicht nur in der englischsprachigen Welt gelesen werden. Fünf Jahre nach dem ersten Motorflug der Wrights, also 1908, erscheint sein Roman «Der Luftkrieg» («The War in the Air»). In dem Roman entwirft der Autor das Szenario eines Weltkriegs und verwendet zu Recht diesen Begriff, denn der Krieg wird tatsächlich rund um den Globus geführt. Im Fokus seines Romans stehen die Luftstreitkräfte der Gegner, die sich Luftkämpfe liefern und Städte bombardieren. Die deutsche Luftwaffe, der Luftschiffe und Flugzeuge zur Verfügung stehen, greift sogar New York an, stellt doch die Überquerung des Atlantiks keine Herausforderung dar.

Eine Antwort auf diese Horrorvision folgt prompt, und zwar aus profundem Munde. Wilbur Wright höchstpersönlich äussert sich 1909 unmissverständlich gegenüber der Presse: «Kein Luftschiff wird jemals von New York nach Paris fliegen. Das scheint mir unmöglich zu sein.» Auch der Möglichkeit, Bomben und Waffen tragen zu können, erteilt er eine Absage: «Das Luftschiff wird immer ein besonderer Bote sein, niemals ein Lastschiff.»

Damit scheint das Horrorszenario vom Tisch zu sein, denn Wright ist ein sogenannter involvierter Experte, also jemand, der unmittelbar in einen Inventions- oder Innovationsprozess involviert oder als Wissenschafter an entsprechenden Forschungsprojekten beteiligt ist. Als solcher geniesst der involvierte Experte in der Öffentlichkeit einen grossen Vertrauensbonus, den Wells als Autor fantastischer Literatur nicht für sich in Anspruch nehmen kann. Wright ist ein anerkannter Experte, Wells ein literarischer Fantast.

Und dennoch kommt es nur fünf Jahre nach Erscheinen von Wellsʼ Buch und der Verlautbarung von Wilbur Wright zum Ausbruch des Ersten Weltkriegs mit Luftkämpfen und Bombardierungen aus der Luft, während die erste Atlantiküberquerung im Nonstopflug am 14. und 15. Juni 1919 durch John Alcock und Arthur W. Brown absolviert wird. Wells ist beim Beginn des Ersten Weltkriegs bereits mit dem nächsten beschäftigt. 1914 erscheint sein Roman «Befreite Welt» («The World Set Free»), in dem er detailliert die Entdeckung der Atomenergie schildert, die schliesslich zum Bau einer neuartigen Superwaffe führt, die Wells «Atomic Bomb» tauft, womit er zum Namensgeber jener Waffe wird, wenn auch mit zeitlicher Verzögerung. Denn seine neue Horrorvision wird von der Fachwelt komplett ignoriert oder ins Reich der Fantasie verwiesen. Noch 1932 schliesst Albert Einstein jede denkbare Nutzung oder Anwendung von Atomenergie kategorisch aus.

Lediglich dem aus Ungarn stammenden Kernphysiker Leó Szilárd, einem namhaften Mitarbeiter des 1942 initiierten Manhattan-Projekts und Entdecker des Potenzials der kritischen Masse, kommt der Roman 1933 wieder in den Sinn, als er in London über die atomare Kettenreaktion spekuliert: «Dies war, glaube ich, das erste Mal, dass das Konzept der kritischen Masse entwickelt wurde und dass eine Kettenreaktion ernsthaft diskutiert wurde. Da ich wusste, was dies bedeuten würde – und ich wusste es, weil ich H. G. Wells gelesen hatte – ich wollte nicht, dass dieses Patent öffentlich wird.»

«Wir leben in einer Welt, die von Literaten für möglich,

aber vom Gros der Experten für unmöglich gehalten wurde.»

Drohnen, soziale Medien, Elektroautos, Solarenergie

Diese Geschichte ist exemplarisch und wiederholt sich, ob als Tragödie oder als Farce, wie Karl Marx zu wissen glaubte, ist nicht immer leicht zu entscheiden, zumal auch noch die Ideengeschichte oft genug der Geschichte vorauseilt. Die Definition der Erstmaligkeit eines Ereignisses bleibt eine Herausforderung.

So haben etwa Autoren wie Kurd Lasswitz, Carl Grunert oder Friedrich Thieme noch vor dem Ersten Weltkrieg den Cyberspace literarisch ausgelotet, ohne dass das plausible Zu-Ende-Denken medientechnologischer Entwicklung von wissenschaftlicher Seite reflektiert wird. Der englische Autor Edward Morgan Forster schildert in seiner 1909 erschienenen Erzählung «Die Maschine steht still» («The Machine Stops») eine künftige Welt, in der die Erde zur nahezu unbewohnbaren ökologischen Wüste verkommen ist, während die Menschen sich in kleine, weitgehend automatisierte Wohneinheiten zurückgezogen haben, um dort mit «unzähligen Freunden» sozial zu netzwerken. Das Internet wird 1909 ebenso thematisiert wie das Taschentelefon und andere Inventionen späterer Dekaden. Der Nürnberger Autor Ludwig Dexheimer liefert 1930 in seinem Roman «Das Automatenzeitalter» eine noch umfassendere Beschreibung des Internets. Und die Nanotechnologie, inklusive Nanoroboter, «Mikrohomaten» genannt, wird von ihm auch gleich überzeugend in Szene gesetzt.

Die Energieversorgung basiert selbstverständlich auf erneuerbaren Quellen, allen voran die Solarenergie. Aber die ist längst Standard in der neuen Gattung, die seit 1929 Science-Fiction heisst. Im Roman «Im Reiche der Homunkuliden» des Österreichers Rudolf Hawel, 1910 erschienen, erleben Zeitreisende die Versöhnung von Natur und Industrie: «Wir haben ja keine Dampfmaschinen, wozu brauchen wir denn Schlote und Essen, die die Luft verpesten und den Umwohnern tausendfach Krankheit und Verderben bringen?» Dass die Autos elektrisch angetrieben werden, versteht sich von selbst. Aber das ist auch in anderen Romanen wie etwa in Hugo Gersbacks Roman «Ralph 124C 41+» von 1911 der Fall. Längst kämpfen Drohnen, erfunden von Jules und Michel Verne für den Roman «Das erstaunliche Abenteuer der Expedition Barsac» (1919), auf den imaginären Schlachtfeldern der Literatur und fliegen Raumschiffe zu Mond und Mars.

Und wieder folgen ihnen nur wenige, die als Raketenpioniere alles daransetzten, die literarischen Entwürfe zu realisieren. Das ist hinlänglich bekannt. Doch als die Pioniere die Schwelle zur Realisierung tatsächlich überschreiten, verweisen namhafte Vertreter der Scientific Community das Projekt weiterhin ins Reich der Fantasie. So versichert Sir Harold Spencer Jones, Königlicher Hofastronom in Greenwich, im Wissenschaftsmagazin «New Scientist» vom 10. Oktober 1957 in einem Beitrag unter dem Titel «How Soon to the Moon?», dass trotz des Sputnik-Erfolgs der Sowjetunion weiterführende Pläne als illusorisch zu bezeichnen seien: «Ich bin der Meinung, dass Generationen vergehen werden, bevor der Mensch überhaupt auf dem Mond landet.» Lee De Forest, Erfinder der Audionröhre, schliesst im selben Jahr in einem Interview mit der «Lewiston Morning Tribune» eine bemannte Mondlandung ebenfalls aus: «All das ist ein wilder, Jules Verne würdiger Traum. Ich bin alt genug, um zu sagen, dass eine solche von Menschen gemachte Mondreise ungeachtet aller künftigen wissenschaftlichen Fortschritte niemals stattfinden wird.»

De Forest setzt auf ein seinerzeit allgemein akzeptiertes Argument: Die in den Visionen der Science-Fiction implizierten Prognosen dienen als Beleg ihrer Nichtrealisierbarkeit aufgrund ihrer literarischen Provenienz. Eine bemannte Landung auf dem Mond ist schon allein deshalb unmöglich, weil ein Schriftsteller sie imaginiert hat. Die literarischen Visionen dekuvrieren sich quasi selbst. Mit Science, so die Prämisse dieser Argumentation, hat Science-Fiction nichts zu tun, denn deren Basis ist weiter nichts als «ein wilder Traum», dem bekanntlich keinerlei adäquate wissenschaftliche Methoden zugrunde liegen. Zwei Jahre später, 1959, erscheint C. P. Snows Analyse «Zwei Kulturen» und unterstreicht die Dichotomie der literarischen und der naturwissenschaftlichen Welt.

Die Realität entwickelt sich unabhängig von der Prognose

Die Prognose, und das ist nicht nur die Intention von Jones und De Forest, sondern von grossen Teilen der Scientific Community, soll ein Ressort involvierter Experten, Naturwissenschafter und Mathematiker bleiben. Sie definieren mit ihrem Expertenwissen und der Wahrscheinlichkeitsrechnung den limitierten Wahrscheinlichkeitsraum. Demgegenüber steht der letztendlich unlimitierte Möglichkeitsraum der Literatur, in dem Lukian von Samosata in seinen «Wahren Geschichten» bereits um 150 n.Chr. Menschen auf den Mond schickt.

Doch in der zweiten Hälfte des 20. Jahrhunderts triumphiert der Möglichkeitsraum immer öfter über den Wahrscheinlichkeitsraum, nicht nur in bezug auf die Mondlandung. Ob Cyberspace, Robotik, Internet oder Nanotechnologie: Die oft schon betagten Zukunftsbilder aus dem Fundus der Science-Fiction werden nach und nach Realität. Und das trotz einer Vielzahl an Unmöglichkeitsprognosen involvierter Experten und exakt berechneter Wahrscheinlichkeiten, wie zuletzt Joachim Radkau in seinem Buch «Geschichte der Zukunft» so umfassend dargelegt hat. Der Wahrscheinlichkeitsraum produziert reihenweise pro­gnostische Irrtümer, die sogar zum Problem von Ethikkommissionen werden, wie der Philosoph Bernward Gesang darlegt: «Dass man 1974 die Sequenzierung des gesamten menschlichen Genoms noch für unmöglich erklärt hatte, gibt Grund zur Vorsicht gegenüber Prognosen, auch Unmöglichkeitsprognosen. Hinter Schutzwällen der (angeblichen) technischen Unmachbarkeit darf man sich nicht verschanzen, sonst fehlen ethische Massstäbe, sobald uns die Technik ein weiteres Mal vor vollendete Tatsachen stellt. Vielmehr muss offensiv gefragt werden: Was wäre, wenn…?»

Das mitunter verblüffend hohe Irrtumspotenzial hat indes auch objektive Gründe, allen voran die Offenheit der Zukunft, die auch die Mathematik nicht zu überlisten vermag. Die italienische Soziologin Elena Esposito weist 2007 überzeugend nach: «Wahrscheinlichkeiten lassen sich berechnen, man kann auf ihrer Grundlage Prognosen erstellen. Dabei ist jedoch vollkommen klar, dass es sich um reine Fiktionen handelt, denn die zukünftigen Gegenwarten werden nicht mehr oder weniger wahrscheinlich sein, sie werden sich nicht zu 40 oder 75 Prozent verwirklichen, sondern genauso, wie sie sein werden. Die Dinge entwickeln sich völlig unabhängig von allen Prognosen.»

Man kann auch sagen, sie entwickeln sich unabhängig vom limitierten Wahrscheinlichkeitsraum, aus dem Konvergenzen, Emergenzen, Diskontinuitäten und andere Zukunftsfaktoren so gerne ausgeschlossen werden. Genau mit diesen Unwägbarkeiten aber gehen die Literaten geradezu verschwenderisch um, um den Möglichkeitsraum mit opulenten Zukunftsbildern aller Art auszustatten. Gerade weil ihre künstlerische Fantasie das Unwahrscheinliche nicht ausblendet und dafür das Ausdenkbare impliziert, sind uns so viele (wissenschaftlich unmögliche) Zukünfte vertraut, in denen kleine Taschentelefone, Raumflüge, das Internet, soziale Medien, Avatare, Datenklone, ubiquitäre Observationstechnologie, Nanoroboter, Drohnen, Exoplaneten, maschinelle Sprachübersetzung und virtuelle Realitäten längst zum Alltag gehören. Wir leben in einer Welt, die von Literaten für möglich, aber vom Gros der Experten für unmöglich gehalten wurde.

«Ob Cyberspace, Robotik, Internet oder Nanotechnologie:

Die oft schon betagten Zukunftsbilder aus dem Fundus

der Science-Fiction werden nach und nach Realität.»

Wissenschaftliche Publikationen zitieren Science-Fiction

Natürlich waren die beiden Räume nie ganz getrennt, sondern interferierten immer, sonst hätte es keine Raumfahrtpioniere gegeben, die sich Verne anvertraut hätten, oder Atomphysiker, die Wells beherzigt haben. Immer gab es Wechselwirkungsprozesse. Doch war die Interferenz zu Beginn des technischen Zeitalters geringer als heute. Inzwischen taugt der Hinweis auf Science-Fiction nicht mehr, um die Unmöglichkeit einer Realisierung zu untermauern. Im Gegenteil, der Verweis auf Science-Fiction dient heute dazu, das Gegenteil zum Ausdruck zu bringen. Als in den letzten Jahren Technologien entwickelt wurden, die Menschen oder Dinge unsichtbar erscheinen lassen, wie etwa Quantum Stealth, fehlte auch in wissenschaftlichen Publikationen der Hinweis auf Science-Fiction nicht. Es ist möglich, denn das literarische Zukunftsbild existiert ja bereits.

Doch auch für unsere möglichen Zukünfte und die literarische Fantasie hat die zunehmende Interferenz Folgen. So stellt der Ingeborg-Bachmann-Preisträger Peter Glaser die treffende Frage: «Wenn die Gegenwart immer mehr dem ähnelt, was vor noch nicht allzu langer Zeit pure Science-Fiction war – was hält dann die Zukunft noch bereit?» Diese Frage richtet sich nicht nur an die literarische Fantasie, an sie jedoch explizit.

Archäologen, die uns erforschen

Wie gut beschreibt Science-Fiction die Zukunft? Der Versuch einer Antwort – in Form einer Science-Fiction-Geschichte.

 

«Einfach absurd! Wie abgefahren! Total exklembiert!»Kopfschüttelnd stehen die drei Archäologen an der Grabungsstätte. Sie haben urbane Sedimente untersucht und in einem Hohlraum die Überbleibsel einer Bibliothek entdeckt. Die Regale sind längst zusammengekracht, von Schutt und Staub bedeckt liegen Bücher über den Boden verstreut. Zum Glück ist kein Wasser eingedrungen. Miniaturdrohnen schwirren insektengleich über die papiernen Fossilien und zeichnen alles auf. Einige Bücher tragen längst vergangene Jahreszahlen im Titel, andere enthalten dem zerschlissenen Schutzumschlag zufolge hellsichtige Antizipationen oder entwerfen düstere Roadmovies vom Ende der Welt.

«Faszinierend!», meint der dienstjüngste Archäologe. «Eigentlich müssten wir Beschreibungen unserer Epoche hier auffinden.» Man könnte die Geräusche, die er von sich gibt, als nervöses Lachen deuten.

 Die Zukunft abwenden

Nein, keiner der drei Archäologen erwartet ernsthaft, dass die längst verblichenen Autoren die aktuelle Gegenwart im Detail getroffen haben. Der zweite Archäologe, vom Rang her in der Mitte, kann sogar darauf verweisen, dass die Verfasser von «Zukunftsliteratur» sich meist entschieden dagegen verwahrt hätten, Zukunft schildern zu wollen. Einer dieser Autoren habe sogar vollmundig getönt: «Wir beschreiben die Zukunft nicht, wir wenden sie vielmehr ab.» Und doch schwingt selbst bei Nummer zwei eine verhaltene Hoffnung mit: Vielleicht hat der eine oder andere doch ein Zipfelchen der künftigen Realität erhascht? Das wäre wirklich total exklembiert!

«Immerhin», wendet der Dienstjüngste ein, «der eine – wie sagte man damals: Gründervater? – dieser Zukunftsliteratur, Jules Verne, hat eine Menge vorweggenommen: den Flug zum Erdtrabanten, Unterseeboote, Kinematografie, Fluggeräte. Nur eben nicht, wie sich die Gesellschaft verändert.»

«Kein Wunder! Als er lebte, war der Fortschritt noch jung und kraftvoll», sagt Nummer zwei. «Und er hat heftig bei seinen Zeitgenossen geborgt, war über technische Entwicklungen, selbst über Patente informiert… Der grosse Kater kam doch erst später. Im Jahrhundert 20 nach alter Rechnung.»

«Angeblich hat Jules Verne die Raketenpioniere auf die Spur gesetzt», kontert der Dienstjüngste. «Die sollen es dann wirklich bis zum Erdtrabanten geschafft haben. – Falls die Spuren dort nicht von den Marsianern stammen.»

«Mit Beispielen kannst du alles beweisen.» Nummer zwei kramt eine halbe Sekunde in den Datenarchiven. «Ein anderer Gründervater, Herbert G. Wells, hat 1914 im Roman ‹Befreite Welt› die Atombombe mit ihren politischen Folgen vorweggenommen, ein Stanley G. Weinbaum hat 1936 in ‹Die Insel des Proteus› Genmanipulation beschrieben und ein John Brunner hat 1968 in ‹Morgenwelt› eine durch und durch globalisierte, beschleunigte Erdzivilisation ausgemalt.»

«Alles Zufall.» Archäologe Nummer drei, der Chef, beobachtet, wie sich die Minidrohnen in eine Art Roboterkäfer verwandeln und sich auf der Suche nach ungewöhnlichen Informationen durch die Bücherhaufen wühlen. «Im Rückblick kannst du immer geniale Ideen erkennen. In der Vorausschau müsstest du selbst ein Prophet sein, um die hellsichtigen Spekulationen von den abwegigen Visionen unterscheiden zu können.»

«Einige haben sogar Begriffe in Umlauf gebracht», sagt Archäologe Nummer zwei. «Karel Čapek ist dies mit dem Wort ‹Roboter› geglückt, William Gibson mit ‹Cyberspace›. Und wenn ich auf das Gebiet der Kinematografie abschweifen darf: Viele Filme haben Wunschtechnik vorgeführt, die dann tatsächlich realisiert wurde, wie die Datengerät-Tablets, die Stanley Kubrick 1968 in ‹2001: Odyssee im Weltraum› nebenbei und unauffällig zeigte. Später gab es sogar ein Wort für dieses Vorauseilen: Design Thinking.»

Wieder bringt der Dienstjüngste ein nervöses Lachen hervor. Er mag es nicht, mit Datenhappen belehrt zu werden, die er selbst recherchieren könnte. Gerade ist er in einem der Bücher auf eine Frage gestossen, die, wie es scheint, häufig gestellt wurde: «Also den Kommunikator aus ‹Star Trek› haben wir jetzt. Wann kommt endlich das Beamen?» – «Vorstellungen hatten die damals!»

Weltuntergänge, so weit das Auge reicht

Nummer zwei lässt das nicht auf sich sitzen. Er zitiert Jules Verne: «Ce quʼun homme imagine, un autre peut le réaliser.» – Unfug! Hiess diese Gattung nicht «Fiction», um anzudeuten, dass man es mit der Wirklichkeit nicht so ernst nahm? Vieles war physikalisch unmöglich oder einfach technisch nicht realisierbar – wie überlichtschnelle Raumflüge, wie Zeitreisen, wie Download von Bewusstseinsinhalten und wie eben das Beamen. Was die Autoren nicht hinderte, Märchen im Gewand einer weit fortgeschrittenen Wissenschaft zu erzählen.»

«Keine Märchen!», widerspricht der Dienstjüngste. «In jedem dieser Bücher steckt doch ihre Gegenwart. Wenn man das statistisch analysiert: Fast alle nehmen an, dass sich die Spaltung der Gesellschaften in Verfügungsmächtige und Existenzminimalisten immer weiter verschärft. Dass das Klima rauher, heisser, stürmischer, trockener, extremer, katastrophaler wird. Und in vielen Büchern werden die Menschen dataparent – durchsichtige Datenerzeuger, wie man es damals nannte.»

«Wissen wir doch! Nach dem Zweitmillennium enthielt die Hälfte des futuristisch bedruckten Papiers Weltuntergangszeugs. Und wie sie die Technik malten…»

«Klar, dass Warnungen im Vordergrund standen. Sie hatten damit recht: Was schiefgehen kann, geht auch mal schief, was missbraucht werden kann, wird auch irgendwann missbraucht, was Macken hat…»

«Das sind blosse Wellen. Zeitgeistwellen.» Nummer zwei bekommt wieder Oberwasser. «Kaum geriet das Klonen in die Schlagzeilen, vermehrten sich auch Romane um die Vervielfältigung von Organismen wie geklont. Wenig später folgte die Invasion der Nano-Romane, mit Naniten, den winzigen Nanorobotern, die zu allem fähig sind, praktisch alles aus dem Nichts produzieren können und am Ende alles zersetzen, auffressen. Auch die Handlung.»

Das Silicon Valley bestimmt das Bewusstsein

Vorsichtig ergreift Nummer zwei ein unansehnliches Buch, dessen Seiten unwiederbringlich zusammenkleben, und legt es in den portablen Durchsichter. «Und meist ging es gleich darum, dass irgendwer oder irgendwas die Weltherrschaft übernehmen will. Was sie zuerst den Elektronengehirnen, dann den Robotern, dann den künstlichen Intelligenzen andichteten. Die Weltherrschaft an sich reissen! Jede künstliche Intelligenz, die einigermassen bei Verstand ist, hat Besseres zu tun. Da wartet die grosse Frage nach dem Leben, dem Universum und dem ganzen Rest…»

«Immerhin hat einer der Autoren herausgefunden, woran das liegt», hält der Dienstjüngste tapfer dagegen. «In den Büchern verfolgen die künstlichen Intelligenzen genau dieselben Ziele wie in der Realität diese Firmen aus dem sogenannten Silicon Valley, das unsere Kollegen kürzlich ausgegraben haben. Prinzip: der Schnellste sein, alle Wettbewerber überflügeln und in den Abgrund stossen…»

«Aber immer noch sind diese Texte der beste Zugang zum damals herrschenden Zeitgeist», mischt sich nun der Chefarchäologe ein. «Neunzig Prozent der anderen Literatur drehte sich primär ums Geschlechtsleben, um Mord und Totschlag.»

«Findet man hier auch.» Archäologe Nummer zwei weist auf einen hohen Haufen von Büchern, bei denen sich bisweilen sogar die grellen Farben des Umschlags erhalten haben: «Ich habe hier die Weltraumkriege aussortiert. Erst müssen sie mit Überlichtgeschwindigkeit durch die leere Schwärze fliegen, um zu irgendeinem exotischen Schauplatz zu gelangen, dann beharken sie sich mit Lichtschwertern oder sprengen ein paar Planeten ins Nichts. – Wenn das der Zeitgeist war… Entzückende Zeiten!»

«Was hätten sie denn schon über unsere Epoche herausbekommen können?» Wenn der Archäologenchef diese Tonlage wählt, grenzt es an Zurechtweisung. «Man wusste doch damals weder, was knurxen ist, noch, wie die Panflation abläuft, ihnen fehlten einfach die Wörter, da mussten sie umschreiben – so wie in uralten Texten das, was später das Internet hiess (falls ihr euch erinnert), noch als internationale Computerverständigung bezeichnet wurde. Und gestehen wir es uns ein: Auch wir sprechen nicht die Idiome der Zukünfte.» Er hält einen Moment inne. «Habt ihr alles virtualisiert? – Dann können wir die Zellulosebestandteile ja der Reinventarisierung zuschieben.» Schon fahren die Roboterinsekten ihre Zängelchen aus und machen sich an die Arbeit.

Die Archäologen aber haben genug Zeiteinheiten investiert. Der Chef knurxt sich in einen anderen Teil des Kontinuums, Nummer zwei lädt sein neustes Gedächtnis um, und womit sich der Dienstjüngste abgibt, nachdem er sich asymmetrisch geteilt hat, darüber schweigen wir lieber.