Judo fürs Leben

Warum ständiges Lernen so wichtig für den Umgang mit Risiken ist.

Sie streben nach absoluter Sicherheit. Wenn es um den Umgang mit Risiken geht, versuchen Individuen, Unternehmen und Staaten oft, möglichst alle Faktoren zu kontrollieren und sämtliche Risiken auszuschliessen. Sie wickeln sich in eine Art Kokon ein. Natürlich bringt eine solche Strategie viele Vorteile. Dadurch, dass wir heute zahlreiche Stressfaktoren kontrollieren können, denen unsere Vorfahren noch hilflos ausgeliefert waren, Wetterkatastrophen beispielsweise, leben wir länger und komfortabler. Doch der Versuch, sämtliche Unregelmässigkeiten unserer Existenz auszuglätten, ist nicht nur illusorisch. Er birgt auch Gefahren. Wenn sich Kontrollfreaks nämlich auf einmal mit einem völlig unkontrollierbaren systemischen Risiko konfrontiert sehen, sind sie überfordert. Sie haben nämlich nicht gelernt, flexibel zu sein. Dabei wäre es genau das, was uns am besten gegen das grosse Unbekannte schützt: Beweglichkeit, ständiges Lernen, auch ein gewisses Mass an Ineffizienz.

Wer ein solches Gegenmodell sucht, tut gut daran, nach Osten zu blicken. In Asien geht man mit Risiken anders um. Japan ist das beste Beispiel. Der Inselstaat verfügt nicht nur über begrenzte Ressourcen, er wird auch regelmässig von grossen Erdbeben, Tsunamis und Stürmen heimgesucht. Diese fundamentale Unsicherheit schlägt sich im japanischen Denken nieder. Während sich in der westlichen Philosophie kaum etwas bewegt und sich die Dinge und Verhältnisse als permanent und fest verankert darstellen, befindet sich für die Japaner alles immerzu im Fluss. Diese Beweglichkeit und Flexibilität wirkt sich auf alle Lebensbereiche aus. Im Judo beispielsweise, aber auch in der Architektur. Während die Europäer riesige Kathedralen errichteten, die solider und massiver nicht sein könnten, bestehen die traditionellen japanischen Häuser aus Papier, wodurch sie leicht abgerissen, umgebaut oder repariert werden können. Wenn man jedes Jahr von Beben und Stürmen heimgesucht wird, lernt man, flexibel zu sein. Zwar wäre es falsch zu behaupten, dass es sich bei der japanischen Strategie in jedem Fall um die bessere handle. Doch es schadet nicht, von ihr zu lernen.

Effizienz birgt auch Gefahren

Europäer sind es gewohnt, dass ihre Infrastrukturen und ihre Gesellschaft so gut funktionieren, dass auch Naturkatastrophen, ein grosser Schneesturm etwa, sie nicht ernstlich bedrohen. Also neigen sie dazu, anzunehmen, es gäbe kaum mehr echte Risiken und Gefahren. Doch paradoxerweise sind es gerade diese Sicherheitsstrukturen, die wieder neue Gefahren mit sich bringen. Systemische Risiken entstehen gerade dadurch, dass wir jedwedes Risiko vermeiden wollen. Smartgrids, also intelligente Stromnetze, wurden beispielsweise entwickelt, um den Stromkonsum besser zu kontrollieren und Stromausfälle zu vermeiden. Dazu sind sie zwar gut geeignet, doch leider sind sie gleichzeitig anfällig für Cyberattacken, die wiederum neue Stromausfälle erzeugen können. Das ist eine Regel, die sich oft beobachten lässt: Optimieren wir ein System in einem Bereich und machen es effizienter, schwächen wir es in anderen Bereichen.

Leider ist dieser Trade-off vielen Politikern nicht bewusst. Darum treffen sie keine Massnahmen, um uns vorzubereiten. Oft bleiben Systemen die grossen Risiken für 10 oder sogar 20 Jahre erspart. Doch ab und zu kommt es eben doch zu einem Unfall. Was passiert dann? Es ist schwierig, grosse Ereignisse, die irgendwo in der Zukunft liegen und von denen wir nicht wissen, in welcher Form sie auftreten, in die heutigen Überlegungen miteinzubeziehen. Politiker, die in Wahlperioden denken, kümmern sich lieber um die Bewältigung kurzfristiger Risiken und Probleme und schaffen dadurch im schlimmsten Fall Strukturen, die für noch grössere Risiken sorgen – allerdings nur im 20-Jahres-Rhythmus.

Hier wäre es angezeigt, Systeme mit mehr Redundanz, ja sogar etwas Ineffizienz auszustatten. Redundanz ist nämlich nichts Schlechtes, im Gegenteil. Hierzu ein Beispiel aus der Biologie: oft wird fälschlicherweise behauptet, wir würden nur 10 Prozent unseres Gehirns benutzen. Dem ist nicht so. Wir benutzen 100 Prozent. Allerdings sind grosse Teile des Hirnes redundant. Das zeigt sich darin, dass es möglich ist, bestimmte Teile des Gehirns zu entfernen, ohne dass dabei wirklich Wesentliches verlorengeht. Auch wenn das Gehirn gerne mit einem Computer verglichen wird: 1 Bit Information oder Energie, das in einem Computer gespeichert ist, ist verschwunden, sobald Sie den Transistor entfernen. Im menschlichen Hirn sind Informationen dagegen viel dezentraler verteilt. 1 Bit Information wird von 100 000 Neuronen getragen, die gleichzeitig alle noch zahlreiche andere Informationen enthalten. Die Stärke und Resilienz des menschlichen Hirnes liegt gerade in seiner Redundanz.

Stufen des Unwissens

Es ist allerdings für die Teilnehmer eines politischen Systems nicht leicht, zu entscheiden, wie viel Redundanz und wie viel Risiko sie zulassen sollen. Denn wir wissen nicht über alle Risiken gleich viel. Manche kennen wir sehr genau, von anderen ahnen wir nicht einmal, dass es sie gibt. Im Grunde können wir Risiken in fünf Stufen aufteilen, je nach unserem Wissen über sie.

– Stufe eins sind deterministische Systeme mit schwach chaotischen Eigenschaften. Wir sind beispielsweise mittlerweile in der Lage vorherzusagen, wie unser Sonnensystem in den nächsten paar Millionen Jahren aussehen wird.

– Stufe zwei sind deterministische Systeme mit stark chaotischen Eigenschaften. Ein Beispiel dafür ist die Meteorologie, mit deren Hilfe sich das Wetter in den nächsten zwei Wochen relativ genau vorhersagen lässt. Versucht man jedoch vorherzusagen, wie es sich in drei Wochen entwickelt, verliert man einiges an Vorhersehbarkeit. Immerhin: früher war es nicht einmal möglich, das Wetter mehr als zwei Tage oder, wenn man noch weiter zurückgeht, zwei Stunden in die Zukunft vorherzusagen.

– Stufe drei bildet die Stochastik. Hier sind viele Faktoren nicht festgelegt, doch immerhin sind die Wahrscheinlichkeiten bekannt. Der Aktienmarkt ist hierfür ein Beispiel. Er verfügt über zahlreiche Teilnehmer, die die Dynamik beeinflussen, doch im Grunde sind alle möglichen Zustände und Ergebnisse bereits bekannt. Dadurch lässt sich quantifizieren, wie wahrscheinlich ein bestimmter Ausgang ist. Es handelt sich dabei übrigens um ein Theorem der ETH. In diesem Bereich, dem Bereich des quantitativen Risikomanagements, können Mathematiker und Ingenieure Berechnungen anstellen. Diese Stufe bildet gewissermassen das «bekannte Bekannte», das «known known».

– Stufe vier bringt das «bekannte Unbekannte», das «known unknown». Dabei handelt es sich um einen stochastischen Prozess, bei dem die verschiedenen möglichen Zustände (states of the world) bekannt sind. Man kann nicht von einem völlig unvorhergesehenen und unvorstellbaren Ereignis überrascht werden. Allerdings sind die Wahrscheinlichkeiten dieser Zustände nicht bekannt. Ein Beispiel stellen Finanzkrisen dar, also Crashes, bei denen der normale Markt zusammenbricht. Wir wissen zwar, dass sie immer wieder vorkommen, wir kennen ihre Grösse (Amplitude), aber es ist sehr schwer, die Wahrscheinlichkeit einer Krise an sich zu berechnen.

– Die letzte Risikostufe stellt dann das «unbekannte Unbekannte» dar, das «unknown unknown», von dem wir nicht einmal wissen, dass es als Möglichkeit überhaupt existierte. Diese Art der Risiken wurde von Nassim Nicholas Taleb in seinem Buch «Der schwarze Schwan» popularisiert.

Beweglichkeit ist gerade im Umgang mit unbekannten Risiken essenziell. Man könnte denken, dass man sich mit der letzten Stufe gar nicht erst auseinandersetzen muss, da es hier sowieso nicht möglich ist, etwas zu wissen. Das ist ein Irrtum. Es ist eine gute Idee, sich immer wieder zu vergegenwärtigen, dass es Dinge gibt, die man sich nicht einmal vorstellen kann. Das macht widerstandsfähiger. Manche Organisationen und Individuen können besser mit «schwarzen Schwänen» umgehen als andere – weil sie eben doch auf Unvorhergesehenes vorbereitet waren.

In meinen Kursen zum Thema Risikomanagement versuche ich meinen Studenten oft beizubringen, wie man Risiken entdecken kann. Dabei betrachten wir vor allem die Vorhersagen und Einschätzungen der WEF-Experten. Betrachtet man diese sich widersprechenden Behauptungen, zeigt sich, dass ihnen allen derselbe Fehler unterläuft: Sie arbeiten mit einem statischen Bild. Ihre Prognosen, welche Risiken zukünftig wichtig werden, ergeben sich aus dem, was früher war, und aus dem, was sich gerade auf ihrem Radar befindet. Das ist ein Schnappschuss der aktuellen Lage. Doch Risiken sind kein statischer Zustand. Sie sind ein dynamischer Prozess. Also sollten wir sie auch so betrachten: wie einen Film, nicht wie ein Foto.


 

Didier Sornette
ist Professor für Entrepreneurial Risk an der ETH Zürich, wo er auch Direktor des Financial Crisis Observatory ist. Er ist Mitglied des Swiss Finance Institute und zählt zu den weltweit führenden Risikoforschern.