Stau im System

Koordination, grosse Datenmengen und intelligente Maschinen: Gedanken zur Gesamtarchitektur einer vernetzten Welt.

Ein Freitagnachmittag in Zürich: trotz vielzitierter protestantischer Arbeitsethik staut sich der Feierabendverkehr bereits um halb fünf rund um den See, auf der Hardbrücke – und an den meisten Orten dazwischen. Trotz vorbildlicher und vielgepriesener Verkehrsleitsysteme steht am Central zu solchen Stosszeiten weiterhin ein Verkehrspolizist in einer Kanzel und regelt den Verkehr. Er winkt den Strom nach hier und dort, hält ihn an, reagiert auf den Bus, der Vorfahrt hat. Unser Verkehrspolizist verrichtet hier mit Überblick seine Arbeit; will er aber wirklich effizient sein, muss er seine Anweisungen auf die Handlungen der Kollegin auf der darauffolgenden Kreuzung oder auf die Kapazität der zuführenden Strassen abstimmen. Vielleicht schafft er es intuitiv, aufgrund seiner Erfahrung, aber es ist anzunehmen, dass Maschinen den Menschen diesbezüglich überlegen sind.

Liessen sich die beschriebenen Engpässe im Verkehr also unter Einbezug intelligenter Maschinen, intelligenter Netze und Big Data vermeiden? Und wenn ja: was sagt uns dies über die Anforderungen an die Gesamtarchitektur unserer zunehmend vernetzten Welt?

Die Vorteile intelligenter Maschinen

Die Alltäglichkeit des Strassenverkehrs erweist sich als besonders nützlich, um die Funktionsweise intelligenter Maschinen und Netze1 auf pointierte Weise aufzuzeigen. Wollten Menschen allein das Verkehrsaufkommen in Grossstädten koordinieren, wäre das für alle Beteiligten unzumutbar und letztlich viel zu teuer. Die Maschinen tun deshalb längst ihren Dienst: Die meisten Automaten – Navigationssysteme, Verkehrsleitsysteme etc. – sind heute kommunikationsfähig, vermögen Rückkoppelungseffekte zu verarbeiten oder je nach Komplexitätsgrad auch das Programm, nach dem sie funktionieren, anzupassen. Vielleicht kennt das Rotlicht der Ampel die Uhrzeit und wie viele Fahrzeuge von welcher Seite eintreffen – und verändert das Programm entsprechend. Dies führt zu einem höheren Grad an Adaptions- und Interaktionsfähigkeit mit der Umwelt. Die besonders intelligenten Maschinen können ihre Fehler auch selbständig reparieren oder weisen eine Gestaltungs- und Steuerungsfähigkeit gegenüber ihrer Umwelt auf: Das Leitsystem schlägt mir aufgrund des Verkehrsaufkommens vor, an der nächsten Ampel eine andere Route zu wählen, und korrigiert mich, wenn ich das nicht tue.

Eine besondere Dimension der Kommunikationsfähigkeit von Maschinen, die aus systemischer Sicht von zentraler Bedeutung ist, liegt nun in der Koordination von Handlungen: die Akteure können in vielen Situationen ihre Entscheidungen nicht unabhängig voneinander treffen, sie müssen aufeinander abgestimmt werden. Der Grund kann beispielsweise in Kapazitätsengpässen der Netze (Strassennetz), bei den Rechenleistungen der Maschinen (GPS), in gesetzlichen Begrenzungen (Höchstgeschwindigkeit) oder natürlich auch in Budgetrestriktionen liegen (ein GPS kann nicht beliebig teuer sein).

Unkoordinierte Handlungen führen zu Störungen im System, im Strassenverkehr zu Staus. Entscheidend ist: eine intelligente Maschine muss den kollektiven Effekt des von ihr erzeugten Outputs abschätzen und ihr Programm darauf ausrichten und anpassen können. Dies erfordert einen komplizierten Rückkoppelungsmechanismus. Wenn ein GPS den Verkehrsfluss auf Autobahnen verarbeitet, müsste das Programm des Systems darauf ausgerichtet sein, das erzeugte kollektive Verhalten der Verkehrsteilnehmer (Routenänderungen) unter den geltenden Restriktionen in die Empfehlungen einzubeziehen. Wenn das Ziel eines GPS also darin besteht, Staus zu vermeiden, macht es wenig Sinn, Anweisungen zu erteilen, die den Stau nur auf eine Nebenstrasse verlagern. Welche Fahrzeuge sollen auf den Umweg geschickt werden, welche nicht?1 Wer soll diese Koordination bewerkstelligen? Entsteht hier – in Zeiten von Big Data – nicht ein endloser Rückkoppelungsprozess, der sich gar nicht managen lässt?

Big Data, Smart Data?

Um diese Fragen zu beantworten, müssen wir uns zunächst vergegenwärtigen, was grosse Datenmengen eigentlich sind. Bei näherer Betrachtung handelt es sich bei Big Data, dem Internet der Dinge oder den tiefen Suchmaschinen vornehmlich um Maschinen, die mit Hilfe intelligenter Rechenmodelle unvorstellbare Datenberge aufzeichnen, speichern, durchsuchen, nach Mustern analysieren, sortieren, aggregieren, modifizieren, löschen und daraus Feedbacks «erster Ordnung» erzeugen: Personenprofile, Kaufempfehlungen, Steckbriefe, Zugsverbindungen und Routenpläne, Abrechnungen, Kurs- und Wetterprognosen, Ratings usw.

Der daraus gewonnene Nutzen ist nahezu unbestritten und führt zum Glauben, dass man bei den Abermilliarden von Daten – beispielsweise zum Kaufverhalten – praktisch alles weiss: «So viele Daten sprechen doch für sich!» Weniger bekannt ist, dass aus diesem Datenberg vor allem auch Fehlschlüsse und Falschinterpretationen gezogen werden, wenn man ihm mit den falschen Fragen begegnet: Unterscheidet sich die Grösse von Mietwohnungen zwischen Frauen und Männern? Natürlich – bereits bei einer Million Beobachtungen, was weit entfernt ist von «Big Data» – ist der Unterschied zwischen durchschnittlich 2,2 und 2,3 Zimmern hochsignifikant; die Hypothese, dass kein Unterschied vorliegt, muss mit praktisch 100prozentiger Wahrscheinlichkeit verworfen werden.3 Aber ebenso ist ein Unterschied zwischen 2,2 und 2,02 Zimmern statistisch hochsignifikant, und selbst der Unterschied zwischen 2 und 2,002 Zimmern wäre es noch.4 Eigentlich sind bei diesem Datenumfang nahezu alle Vergleiche statistisch signifikant: unter dem Elektronenmikroskop von Big Data erscheinen völlig unwichtige Dinge und Unterschiede als wichtig und signifikant. Aber: wäre es nicht vielmehr das Einkommen oder das Alter, die die Wohnungsgrösse erklären?

Das Risiko liegt bei so riesigen Datenmengen nicht mehr im Stichprobenfehler, der praktisch auf null geschrumpft ist, sondern in der Relevanz der vorgegebenen Fragestellung. Können nicht durch gescheite Algorithmen unsichtbare und wertvolle Zusammenhänge entdeckt werden? Durchaus – es gibt beliebig viele davon, alle statistisch hochsignifikant –, doch welche sind wichtig? Muss unser Verkehrsleitsystem auf das blaue Auto achten, das von links langsam einbiegt – oder ist das grüne Auto, zwei Kilometer weiter die Strasse hinauf, viel relevanter im Hinblick auf die Stauentwicklung? Die Daten allein, also zu wissen, dass es ein blaues Auto und ein grünes Auto gibt, die beide auf ihre Art auf die Kreuzung zusteuern, helfen nicht bei der Beantwortung der Frage, was das Leitsystem aus diesen Informationen machen soll.5

Wenn gleichzeitig also alles und nichts wichtig ist, läuft man Gefahr, wichtige Unterschiede (statistisch gesprochen: zu testende Hypothesen) zu übersehen. Big Data, so können wir zusammenfassen, verführen zur Überschätzung des Wissens – man ist zugemüllt mit signifikanten, aber letztlich irrelevanten Unterscheidungen.

Hochfrequenzhandel: Effizienz schlägt Relevanz

Beispiele dafür gibt es zuhauf, interessanterweise auch auf einem Parkett, das einmal einem Leidensgenossen unseres durch Maschinen verdrängten Verkehrspolizisten gehörte: dem Börsenhändler. Elektronische Informations-, Handels- und Abwicklungssysteme haben sich vor rund einem Vierteljahrhundert schnell verbreitet, und intelligente Rechensysteme waren – gerade im Zusammenhang mit Finanzderivaten – eine Voraussetzung dieser Entwicklung. Mit dem Hochfrequenzhandel (HFT) wird heute schätzungsweise rund die Hälfte des Aktienhandels über Algorithmen abgewickelt. Diese ermöglichen es, Signale über Latenzzeiten6 von mittlerweile etwa 20 Nanosekunden (also rund 50 Millionen Signale pro Sekunde) zu verarbeiten oder Blitzaufträge im Millisekundenbereich abzuwickeln:7 Sind die Börsen aber dadurch intelligenter, d.h. die Preise informativer und die Liquidität grösser, geworden?

Die Antwort ist schwierig. Die meisten Studien kommen zum Schluss, dass die Mikroinformationseffizienz der Märkte8 gestiegen und die Spanne zwischen den Geld- und Briefkursen (welche als Indikator für die Illiquidität gelten) abgenommen hat – also eigentlich Good News: mehr Daten, mehr Handlungsmöglichkeiten, mehr Information, bessere Preise.9 Die Verbesserung der Markteffizienz ist wenig überraschend, denn durch HFT gelangen neue Informationen schneller in den Preisfindungsprozess und reflektieren sich schneller in den Preisen. Aber es gibt auch Vorbehalte: HFT kann die Börsengeschäfte wie auch das Market Making für «normale» Investoren riskanter und damit unattraktiver machen, diese aus dem Markt drängen und ihm, zumindest bei gewissen Preis- und Auftragskonstellationen, Liquidität entziehen: die Staugefahr auf der Autobahn der Auftragsbücher steigt, was für die Preisbildung nicht vorteilhaft ist.

Eine weitere Frage liegt im sozialen Nutzen der rascheren Informationsverarbeitung: gelangen durch HFT nicht einfach Informationen in den Markt, die sonst einfach etwas später eingetroffen wären, und sind diese kurzen und kürzesten Zeitspannen überhaupt noch ökonomisch relevant? Verbessert sich damit die Makroeffizienz der Märkte? Die Frage ist aus zweierlei Hinsicht bedeutungsvoll: Erstens sind die Fixkosten von HFT riesig, die Gewinnmarge je Transaktion dagegen verschwindend klein, so dass sich das Geschäft nur mit riesigen Volumen rentabel betreiben lässt und die Konzentration der Marktteilnehmer begünstigt. Die Auswirkungen auf die Sicherheit (institutionelle Klumpenrisiken) und die Wettbewerbsstruktur im Börsenhandel dürften gravierend sein. Zweitens weiss man seit einer bahnbrechenden Arbeit von Jack Hirshleifer10, fern jeglicher Vorahnung hochfrequenter Märkte oder Big Data, dass in einer Marktwirtschaft mit kompetitiver Informationsverarbeitung der private Nutzen, den die Akteure aus der Verarbeitung von Informationen ziehen, grösser ist als der gesellschaftliche Wert dieser Informationen.

Erzeugt HFT damit eine Müllhalde von Börsendaten ohne gesellschaftlichen Nutzen oder wirtschaftlichen Bezug? Lassen sich daraus mit intelligenten Maschinen (Algo-Trading) relevante Informationen ableiten, welche die Kapitalanlage verbessern? Für alle oder nur für einige? Ist es eine Verbesserung oder primär Umverteilung?

Systemische Intelligenz erfordert Koordination

Was passiert, wenn eine immer grössere Zahl intelligenter Maschinen ein System, beispielsweise den Börsenhandel, bestimmt? Die Elektronisierung der Finanzmärkte lehrt uns, dass die Interaktion zwischen menschlichen Handlungen, Maschinen und Netzen nicht nur unter Daten- und Kommunikationsaspekten, sondern ebenso unter dem Gesichtspunkt der Koordination zu betrachten ist. Der dafür erforderliche Rückkoppelungsprozess funktioniert dabei umso besser und effizienter, je umfassender das betreffende System konzipiert ist. Dies erhöht jedoch gleichzeitig das systemische Risiko für den Fall, dass die Maschinen nicht fehlerfrei operieren oder durch einen fehlerhaften Koordinationsmechanismus gesteuert werden.

Ein Beispiel dafür ist der Aktienmarkteinbruch im Oktober 1987. Intelligente Maschinen, die dynamische – sprich aktienkursabhängige – Absicherungsstrategien ausführten,11 waren damals weit verbreitet. Geringfügig schlechtere Wirtschaftsaussichten haben dazu geführt, dass die intelligenten Programme unabhängig voneinander, aber aufgrund ähnlicher Algorithmen und Kalibrierung dieselben Aktienverkäufe auslösten. Ein Koordinationsmechanismus fehlte weitgehend: Hätten die Investoren gewusst, wie gross die geplanten Verkäufe der anderen Akteure bei einem Preiszerfall ausfallen (und welche Preiseffekte sich daraus ergeben), hätten sie ihre Strategie im Vorfeld geändert; das gilt für alle Akteure gleichermassen und es stellt sich hier genauso die Frage, welche Investoren die Autobahn frühzeitig hätten verlassen sollen – um den Stau nicht nur zu vermeiden, sondern ihn gar nicht erst mitzuverursachen: Das Fehlen koordinierender Information erzeugt neben dem individuellen Schaden stets auch externe Kosten.12 Wie liesse sich das vermeiden? Oder handelt es sich beim Verkehrsstau weniger um ein Koordinations- als vielmehr um ein Kapazitätsproblem?

Optimale Ineffizienz durch Dezentralisierung

Das Problem der Fehlkoordination lässt sich ökonomisch in unterschiedlicher Weise lösen: etwa durch erhöhte Transparenz über beabsichtigte Transaktionen, wie sie heute durch offene Auftragsbücher an Börsen- und Handelssystemen (Lit Markets) verbreitet sind (im Verkehr: die Information darüber, dass der Lenker im blauen Auto beabsichtigt, an der nächsten Kreuzung abzubiegen). Oder über den Handel spezieller Finanzderivate wie beispielsweise Optionskontrakte, deren Preise Aufschluss über sich abzeichnende Marktungleichgewichte geben (im Verkehr: ein Real-Time-Road-Pricing-System hält Onkel Werner aufgrund der hohen Tarife davon ab, seine Einkäufe im Stadtzentrum zu tätigen) und es den Akteuren erlauben, ihre Aufträge frühzeitig anzupassen – also den Stau rechtzeitig zu vermeiden. Friedrich August von Hayek13  hat das Preissystem – als Kontrast zu einer staatlichen Kontrollbehörde – als Suchprozess beschrieben, der diesen komplexen Rückkoppelungsprozess in einem dezentralen Wirtschaftssystem in effizienter Weise bewerkstelligt.

Es ist zu vermuten, dass es bei zunehmender Verbreitung und Vernetzung intelligenter Maschinen zwar weniger, bei Vernachlässigung der Koordinationsproblematik aber dafür grössere, also systemisch relevante Störungen gibt. Dezentrale Systeme wären weniger störungsanfällig – gehen aber auf Kosten der Effizienz. Gibt es einen Kompromiss?

Finanzmärkte zeigen, wie Märkte operativ getrennt, aber informationell verbunden werden können: Die elektronischen Wertschriftenmärkte präsentieren sich zwar als ein schier unüberblickbares Netz aus traditionellen Börsensystemen (Regulated Markets), börsenähnlichen Handelssystemen (MTFs, OTFs) oder dunklen und intelligenten Liquiditätsquellen (Dark und Smart Pools).14 Diese Fragmentierung führt nicht notwendigerweise zu einer Verzettelung der Marktliquidität und Beeinträchtigung der Preisfindung: Algorithmische Handelsplattformen optimieren die Börsenaufträge zwischen Dutzenden von Systemen. Dies bewirkt nicht nur die Integration des Informationsflusses zwischen den fragmentierten Systemen, sondern führt auch zur bestmöglichen Nutzung der verstreuten Liquiditätsquellen. Natürlich wird die Fragmentierung des Systems damit nicht aufgehoben, aber immerhin können die Friktionen minimiert werden. Darüber hinaus zeigen die elektronischen Handelsplattformen, dass ein integrierter Informationsfluss keine zentralisierten Abwicklungsstrukturen erfordert: das Clearing und Settlement der Geschäfte wird von eigenständigen, in gegenseitigem Wettbewerb stehenden Einheiten (Central Clearing Parties, CCP) abgewickelt, was das systemische Risiko erheblich einschränkt – ausser natürlich, wenn die Marktstruktur der CCPs ihrerseits ein Systemrisiko begründet.

Von den Finanzmärkten lernen

Unsere kleine Reise hat gezeigt: Staus gibt es in Städten und auf Finanzmärkten. Sie liessen sich umso eher vermeiden, je besser die Koordination der Akteure ausgestaltet werden kann: dies erfordert intelligente Informationssysteme, die umso effizienter funktionieren, je umfassender das betreffende System konzipiert ist. Dem damit verbundenen systemischen Risiko kann begegnet werden, indem die Architektur der Leitsysteme dezentral organisiert wird.

Schliesslich sollte das systemische Risiko intelligenter Systeme aus einem einfachen Grund nicht überschätzt werden: sie dürften sich wirtschaftlich nur selten lohnen. Wenn die Risiken systemischer Abstürze von privaten Firmen zu tragen sind und nicht versichert werden können, ist Vorsicht der erste betriebswirtschaftliche Ratgeber. Intelligente Systeme im vorher definierten Sinn, mit Koordinationsmechanismen ausgestattet, sind schon bei einfachen Umweltzuständen hochkomplex, und der kommerzielle Nutzen steht in den Sternen. Die intelligentesten Maschinen und Systeme werden in Zukunft wohl am stärksten in jenen Bereichen forciert, wo der wirtschaftliche Nutzen sekundär ist und die Risiken von der Allgemeinheit getragen werden: beim Staat, bei der Überwachung und beim Militär. Diese Perspektive ist wenig beruhigend.

Vielleicht bleiben wir also noch eine Weile bei den einfachen Verkehrsampeln (wohl bald nicht mehr physisch, sondern über das Display im Fahrzeug) oder beim Polizisten – beide sind zwar nicht besonders effizient, bergen jedoch überblickbare systemische Risiken.


Weiterführende Lektüre:
Florian Sprenger: Eine Geschichte der Unruhe. Ross Ashbys Homöostat und die Umgebungen der Kybernetik. In: Nervous Systems / Nervöse Systeme. Herausgegeben von Anselm Franke u.a. Berlin: Matthes & Seitz, 2017.

Felix Stalder: Kultur der Digitalität. Berlin: Suhrkamp, 2016.

Heinz Zimmermann: Effektenhandel im technologischen und regulatorischen Umbruch. In: Finanzmärkte im Banne von Big Data. Herausgegeben von Brigitte Strebel. Zürich: Schulthess, 2012, S. 95–136.


1  Mit «Maschinen» wird nachfolgend die etwas veraltete kybernetische Metapher der heutigen Smart Gadgets gemeint, also jene intelligenten Automaten, welche durch ihre komplexe Funktionsweise die menschliche Intelligenz – also ihre Erbauer – zu übertreffen versuchen. Mit «Netz» wird die Infrastruktur bezeichnet, über welche die Interaktion der Maschinen innerhalb des Systems erfolgt.
2  Erstaunlicherweise wird der Koordinationsaspekt, der dieser Frage zugrunde liegt, bei der Diskussion intelligenter Maschinen kaum je erwähnt; eine Ausnahme ist Felix Stalders «Kultur der Digitalität» (Suhrkamp, 2016) bei Fussnote 110, wo dieselbe Metapher Verwendung findet.
3  Unterstellt wird eine Standardabweichung der Zimmeranzahl von 0,5 sowie eine Normalverteilung (was natürlich unrealistisch ist, da die Anzahl der Zimmer positiv ist).
4  Die Hypothese, dass keine Differenz vorliegt, wird mit rund 98prozentiger Wahrscheinlichkeit verworfen. Alle Aussagen zur statistischen Signifikanz beziehen sich auf das übliche Vertrauensniveau von 95 Prozent.
5 Im Dezember 2013 wurde in Jemen eine US-Drohne auf eine Hochzeitsgesellschaft abgefeuert, die als Terroristenkonvoi identifiziert war: Offenbar können selbst die allergescheitesten Algorithmen dieser Welt die «feinen», aber wichtigen Unterschiede nicht erkennen.
6 Es ist die Zeitspanne zwischen dem Eintreffen eines Signals im System und dem Matching des Auftrags.
7  Sogenannte Flash-Trades ermöglichen es, die Warteschlangen der Auftrags-bücher kurzzeitig zu überspringen und Aufträge früher – vor den regulären Limit Orders – auszuführen.
8 Der Ökonom Paul A. Samuelson unterscheidet zwischen Mikro- und Makroeffi-zienz der Märkte, d.h. der Informationsverarbeitung zwischen einzelnen Finanzanlagen (z.B. über Arbitragegeschäfte) und der Verarbeitung makroökonomischer Informationen auf der Ebene des Gesamtmarktes. Die beiden Ebenen seien unabhängig voneinander. Vgl. Paul A. Samuelson: Summing up on Business Cycles. Conference Series-Federal Reserve Bank of Boston 42 (1998), S. 33–36.
9  Albert J. Menkveld bietet eine aktuelle Übersicht zu HFT: The Economics of High-Frequency Trading: Taking Stock. In: Annual Review of Financial Economics 8 (2016), S. 1–24.
10  Jack Hirshleifer: The Private and Social Value of Information and the Reward to Inventive Activity. In: American Economic Review, 61 (1971), S. 561–574.
11  Die Strategie bestand resp. besteht darin, Aktien (resp. Aktienindexfutures) bei sinkenden Kursen zu verkaufen und bei steigenden hinzuzukaufen.
12  Auf diesen Aspekt hat Sanford J. Grossman wenige Monate vor dem Crash aufmerksam gemacht: An Analysis of the Implications for Stock and Futures Price Volatility of Program Trading and Dynamic Hedging Strategies. In: NBER Working Paper 2357, August 1987.
13 Friedrich August von Hayek: The Use of Knowledge in Society. In: American Economic Review 35 (1945), S. 519–530.
14  Vereinfacht gesprochen handelt es sich bei Liquiditätsquellen (Liquidity Pools) um pendente Börsenaufträge, welche Kaufabsichten bei fallenden Preisen und Verkaufsabsichten bei steigenden Preisen verkörpern.

«MONAT für MONAT
eine sinnvolle Investition.»
Heinz Zimmermann, Professor für Finanzmarktökonomie,
über den «Schweizer Monat»