Das Erkennen der
ewigen Gegenwart

Klassische Zukunftsforschung ist obsolet geworden. Denn: Big Data führt immer auch zu Big Narrative. Und damit zum Heute.

 

Wer die Zukunft voraussagen kann, hat Macht, kann viel Geld machen und ist vor allem auch cool. Das zumindest war für viele Jahre die Attraktivität des «Forecasting». Dabei war und ist Zukunftsforschung nie eine einheitliche Disziplin. Zwischen klassischer, relativ wissenschaftlich betriebener Technologie- oder Gesellschaftszukunftsforschung, «Megatrends» und etwa lifestyleorientierter Trendforschung liegen Welten.

Von Big Trend zu Big Data

Doch der Reihe nach. Technologieforschung möchte antizipieren, welche Technologien die Gesellschaft in Zukunft nutzen wird. Dies ist unter anderem für Risikoabschätzungen oder Rückversicherungen interessant. Zukunftsforschung im gesellschaftlichen Bereich möchte wissen, wie Gesellschaften in Zukunft funktionieren werden: Hier liegen die Interessen bei der öffentlichen Hand, Regulatoren sowie wiederum bei Versicherungen.

Allumfassende, sexy klingende «Megatrends» sind in erster Linie Inhalte für coole Bücher und Konferenzen – sie sind bestenfalls geeignet als Übungsfelder für Grossunternehmen: Wie würden sie theoretisch auf dieses oder jenes reagieren? Trendforschung schliesslich ist ein Produkt der neuartigen Lifestylegesellschaften, der 1980er Jahre mit ihrem Boom von Marken und Superstars (Blockbusterfilme, Supermodels, Megabrands). Sie ist eine tendenziell unwissenschaftliche Grauzone mit viel Scharlatanerie und wenig seriösen Akteuren und dient in erster Linie dazu, für Konsum- und Lifestyleunternehmen die nächsten «Trends» zu identifizieren.

Doch alle diese Formen von Forecasting haben etwas gemeinsam: Sie sind in den letzten Jahren allesamt in Verruf geraten. Ein wichtiger Grund ist, dass sie sozusagen fast immer falsch lagen. Die asymmetrischen Veränderungen durch die digitalisierende Gesellschaft und Wirtschaft waren einfach zu schnell, zu heftig sowie in manchen Bereichen zu überraschend. Es stellt sich immer mehr heraus, dass klassische Zukunftsforschung ein Instrument der industriellen Moderne mit ihren linearen Entwicklungslinien war. Trendforschung wiederum ging von einer relativ homogenen, weissen Gesellschaft aus. China sowie andere sich rapide entwickelnde Regionen sowie die kalifornischen Disruptoren im Bereich von Social Media überforderten die Trendforschung; sie ist eigentlich klinisch tot und wird höchstens noch von zweitklassigen Werbeagenturen genutzt.

An die Stelle der traditionellen Zukunftsforschung ist nun seit einigen Jahren das Forecasting mittels Big Data getreten: Viele Daten lassen Extrapolationen zu, die mittels komplexer Algorithmen erreicht werden können. Je mehr Daten, desto zuverlässigere Voraussagen – das ist das Versprechen von Big Data.

Big Data, Big Problem?

In letzter Zeit sind jedoch erste Probleme aufgetaucht. Big Data ist vor allem eine Blackbox. Scheinbare Korrelationen haben nicht unbedingt eine Kausalität, das heisst, dass sie gar Zufälle sein könnten. Auch sind die programmierten Algorithmen nicht objektiv, sondern widerspiegeln etwa kulturelle Identitäten oder Präferenzen der Programmierer. Vor allem kann Big Data kein langfristiges Forecasting betreiben, da die quantitativen Daten von den Aktionen einzelner Personen oder Organisationen abhängig sind.

Genau hier liegt die Schwäche von Big Data: Es kann keine «Big Narratives» erkennen. Beispielsweise wurde die plötzlich einsetzende Massivität der Klimadiskussion im letzten Jahr von Big Data nicht antizipiert, weil Big Data katalytische Entwicklungen schwer abbilden kann. Menschen sind sehr stark kulturell beeinflusst. Menschen agieren auch oft erratisch oder unlogisch: Sie folgen oft grösseren Narrativen, seien diese politischer oder sozioökonomischer Art. Dies ist im Kern die Theorie, die von Ökonomen wie Robert Shiller mit dem Begriff der «Narrative Economy» propagiert wird oder die Rückversicherungen mit «Phantomrisiken» meinen: Risiken, die sozusagen ein Ergebnis einer sich selbst erfüllenden Prophezeiung sind und wenig bzw. zumindest nicht komplett real-rationale Grundlagen haben. Big Data und die Philosophie dahinter sind demgegenüber der gleichen technokratisch-kartesianischen Utopie erlegen wie etwa die Chicago-School-Theorie der «effizienten Märkte» und des komplett rational denkenden «Homo oeconomicus».

Reine Big Data hat noch eine weitere Schwäche oder Kon­struktionsfehler: Sie wurde und wird grösstenteils in den suburbanen Welten Kaliforniens (wo die fehlende physische Nähe dauernd mittels Telefons und später Smartphone überbrückt bzw. fehlende Urbanität elektronisch-digital simuliert werden musste) oder in den komplett mobil organisierten, stark überwachten chinesischen Städten wie Shenzhen entwickelt.

Diese Entwickler haben ihre Alltagserfahrung quasi unbemerkt mit eingebaut. Doch viele und gerade wichtige und interessante Entwicklungen passieren in den dichten, bunten, analogen Megastädten. Hier sind persönliche Interaktionen, räumliche Zufälle, «Offline»-Ereignisse an der Tagesordnung. Städte waren schon immer schwer zu kontrollieren: Das gilt sowohl für politische als auch für linearanalytische Akteure. Dies ist genau der Grund, weshalb etwa «Google Sidewalks», der Smart-City-Arm von Google, welcher die Städte intelligenter und komplett digital verwaltbar machen möchte (die Maschine ist sozusagen der perfekte Bürgermeister), so unglaublich naiv Städte liest und interpretiert und deswegen kaum vom Fleck kommt. Die massive Urbanisierung ist im Grunde genommen schlecht für Big Data, perfektes Forecasting oder absolute Kontrolle – einer der vielen Gründe, weshalb Urbanisierung gut für uns Menschen und gut für libertäre und liberale Gesellschaften ist.

Dabei sollte Big Data keinesfalls unterschätzt werden. Denn Big Data spielt eine wichtige Rolle bei der Analyse von Konsumenten, Wirtschaftsaktivitäten oder aber ist auch in neuartigen Feldern wie Verbrechensbekämpfung, Investing oder Gesundheit kaum noch wegzudenken. Es ist verblüffend, wie in manchen Bereichen Big Data exakte Voraussagen oder Einschätzungen liefern kann. Eine Kim Kardashian, Greta Thunberg oder den Gangnam-Style, aber auch neue, auf gesellschaftliche Entwicklungen basierende Politakteure oder Rückversicherungsrisiken konnte Big Data jedoch nicht sehen oder gar antizipieren. Innovation oder auch Disruption kommt oft von einzelnen Personen, die zuerst einmal scheinbar irrational handeln: Kim Kardashian war genau genommen unlogisch und antizyklisch, als sie ein Star und damit Influencer wurde. Erst im Nachhinein wird die Logik oder die Ursache einer solchen Entwicklung sichtbar – sozusagen zu spät für Big-Data-Forecasting.

«Die eigentliche Kunst besteht darin, parallele Informationen,

Phänomene und Muster so zu komponieren,

dass Signale erkennbar sind.»

Von der erhofften Zukunft zur ewigen Gegenwart

Vielleicht ist uns aber schlichtweg die Zukunft abhandengekommen und wir müssen uns mit einer ewigen Gegenwart befassen. Daher rückt eine andere Sichtweise des Forecasting in den Vordergrund: die frühe Erkennung der Latenz. Latenz meint hier, dass Entwicklungen bereits jetzt passieren, wir sie aber noch nicht in ihrer ganzen Breite sehen können und damit noch keine Sichtweise und damit Kategorisierung oder «Benennung» vornehmen können. Es geht also nicht mehr um die Voraussage einer Zukunft, sondern um die dauernde, schnelle und umfassende Erkennung der Gegenwart, um daraus sofort Produkte, Lösungen, Investmentthemen, Risikoprofile oder politische Strategien zu entwickeln. Dies sozusagen konstant und breit. Die Summe dieser Früherkennung der latenten Signale des Jetzt ergibt dann sozusagen ein Portfolio der unmittelbaren, eigentlich schon angekommenen Zukunft der Gegenwart.

Diese Signalerkennung bedingt einerseits, entstehende Narrative zu erkennen und zu analysieren und dazu ungewöhnliche Datenpunkte anzuzapfen. Denn vielleicht sind in den heutigen TV-Serien oder Computerspielen, in Anekdoten auf Social Media oder im weltweiten, beispielsweise nicht englischsprachigen Meinungsmarkt bereits Hinweise auf neue, latente Themen. Hier spielt die täglich besser werdende semantische Software (also Analyse von qualitativen Daten wie Texten oder Bildern) eine immer wichtigere Rolle. Künstliche Intelligenz bzw. lernende Maschinen sind hier besonders wertvoll.

Andererseits werden im Bereich der quantitativen Daten einige Bereiche von sogenannten alternativen Daten immer interessanter: also indirekte Daten («Proxies»), die auf Entwicklungen schliessen lassen (selbstverständlich wiederum mit der Problematik von Korrelation versus Kausalität). Dazu gehören Satellitenbilder oder Videoauswertungen; aber auch sogenannte «Bottom-up»-Daten: unstrukturierte, unscharfe Daten aus dem Alltag der Menschen. Hier ist noch viel Potenzial. Die eigentliche Kunst besteht darin, parallele Informationen, Phänomene und Muster so zu komponieren, dass Signale erkennbar sind.

Diese Signalfrüherkennung wird also in einer postfaktischen, fragmentierten, multikulturellen und urbanisierten Welt das klassische Forecasting der Zukunfts- oder Trendforschung ablösen. Wer an Big Data glaubt, muss auch an Big Narratives glauben. Das Navigieren wird schwieriger, die Notwendigkeit der konstanten Korrektur immer grösser. Damit verlassen wir auch die gemütliche Sicherheit einer scheinbar linear fortschreibbaren Zukunft. Biografien werden brüchiger, Gewissheiten erhalten eine schnellere Halbwertszeit. Vieles scheint sich parallel zu entwickeln und ist dabei widersprüchlich. Doch das ist nur die übliche Unordnung des Jetzt. Die Zukunft wird egal – was zählt, ist das schnelle Erkennen der Gegenwart. Das wiederum ist die Zukunft.

«Unverzichtbare Lektüre:
eine intellektuelle Zündkerze, die das
Weiterdenken in Gang bringt.»
Wolf Lotter, Autor und Mitgründer von «brand eins»,
über den «Schweizer Monat»