Wir brauchen Ihre Unterstützung — Jetzt Mitglied werden! Weitere Infos

Was, wenn ich falsch liege?

Gefahr geht von dem aus, was wir nicht wissen – über einige folgenschwere Annahmen der Risikoforschung.*

Risikomanagement ist eine ernsthafte Sache. Deshalb verlangt das Erstellen einer «Risikobewertung» eine Antwort auf die Frage: «Wie wissen wir, was wir zu wissen glauben?» Es geht also um Epistemologie. Feststellungen, die das Risiko betreffen, lassen sich nicht ohne rigorose Überprüfung ihrer Gültigkeit machen. Es bedarf kritischer Untersuchungen darüber, wie man zu einer Risikobewertung gelangte und wie daraus eine Meinung entstand.

Ökonomie, Finanz- und Versicherungswissenschaft haben bislang, trotz ihrer Mathematikabhängigkeit, bloss unzulängliche Risikobewertungen geliefert – besonders mit der höchst quantitativen Modern Portfolio Theory [wonach es darum geht, eine möglichst hohe Rendite bei möglichst geringem Risiko zu erzielen; Anmerkung der Redaktion]. Sowohl Forscher als auch Praktiker haben sich sehr wenig um die theoretische und praktische Tauglichkeit ihrer Vorgaben gekümmert. Was zudem die Statistik mit ihrer Bestätigungslastigkeit betrifft, fällt sie dem Problem der Induktion zum Opfer – der Beweis der einen Wahrscheinlichkeitsstufe wird als Beweis einer andern angenommen.

Während es nun auf dem Gebiet der Risikostudien und des quantitativen Risikomanagements an angemessener Überprfung fehlt, so bietet die Mainstream- Epistemologie dem Entscheidungsträger in seiner Ungewissheit ebenfalls keine Hilfe (wir haben’s ausprobiert!). Erstens ist diese Epistemologie zu theoretisch und konzentriert sich auf Paradoxa bar jeden praktischen Nutzens für die Entscheidungsträger; ihre Veröffentlichungen scheinen es bloss auf eine Komplizierung dessen abgesehen zu haben, was eine «gerechtfertigte wahre Ansicht» («justified true belief») bildet. Die Veröffentlichungen mögen alle «streng» sein, für uns jedoch folgenlos. Zum zweiten befasst die Mainstream-Epistemologie sich traditionell mehr mit der Frage, ob eine Behauptung wahr und gerechtfertigt sei, als mit derjenigen, ob ihre Unrichtigkeit einen Einfluss oder irgendwelche Folgen haben würde: «Wie gross ist mein Schaden, wenn ich falsch liege?»

Eine Fehlerquote von 1 Prozent mag unter gewissen Umständen erträglich sein, aber nicht, wenn der Ausnahmefall – wie wir sehen werden – die statistischen Eigenschaften beherrscht. Das Problem der Induktion besteht in folgendem: Wie kann ich gestützt auf Gesehenes über Ungesehenes folgerichtig etwas behaupten? In der Philosophie wird dies durch die Ausnahmeerscheinung des «schwarzen Schwans» illus-triert, der bei denen Erstaunen hervorruft, die – gestützt auf ihre Erfahrung – dachten, alle Schwäne seien weiss. In der Logik mag das folgenlos sein: die Farbe eines Vogels wird unser Leben kaum gross ändern. Im Risikomanagement dagegen haben wir es mit «schwarzen Schwänen» zu tun, die Folgen zeitigen. Ferner fördert eine Literatursuche auf dem Gebiet der Wahrscheinlichkeitsphilosophie und -geschichte die niederschmetternde Tatsache zutage, dass das Grossereignis als solches in den Diskussionen überhaupt nicht vorkommt – das Interesse ist ausschliesslich auf casinoartige Spiele gerichtet, denen jeder Bezug zur Wirklichkeit abgeht.

Der vorliegende Aufsatz bespricht zwei mit dem Risikomanagement zusammenhängende epistemologische Probleme und versucht, für diese eine mögliche einfache Lösung aufzuzeigen, die darauf ausgerichtet ist, im Fall seltener Ereignisse den Verlass auf Induktionsschlüsse zu minimieren.

Das erste epistemologische Problem

Im Sommer 1982 erlebten die amerikanischen Banken einen schlechten Monat. Sie verloren mehr Dollars, als sie je verdient hatten, und wären bankrott gegangen, wenn ihre Wertschriftenportefeuilles zu Marktpreisen berechnet worden wären oder sie selbst nicht Hilfe von der Federal Reserve erhalten hätten. Die Verluste rührten von Krediten an «wachsende» interna-tionale Märkte her. Die Spar- und Darlehenskassen («Savings and Loan») blieben verschont, da ihre Kredite nur ans Inland gegangen waren… bis etwa ein Jahrzehnt später ihre Branche verschwand. Dies machte einen durch die Regierung bezahlten Bailout von einigen hundert Milliarden Dollars notwendig (mit der Gründung der Resolution Trust Corporation). So kostete ein einziger Abschwung in den frühen 1990er Jahren mehr, als jemals in den USA im Immobilienkreditgeschäft verdient worden war. Oder um ein britisches Beispiel zu nehmen: nach Jahren komfortabler Prämie-n-einnahmen wurden viele der «Namen» von Lloyds in London plötzlich insolvent, nachdem das, was wie ein Supergeschäft ausgesehen hatte (Investition in Asbestproduktion), sich in Wirklichkeit als stochastische Zeitbombe erwiesen hatte.
Es kommt also nicht auf Wahrscheinlichkeiten als solche an. Diese mögen sehr gering sein, doch ihre Folgen sind es nicht. Worauf es im wirklichen Leben ankommt, ist die Formel «Wahrscheinlichkeit mal Folgen». Dieser Umstand scheint simpel zu sein, seine Konsequenzen jedoch sind es keineswegs.

Nehmen wir an, dass wir Wahrscheinlichkeiten künftiger Ereignisse aus bestehenden Daten ableiten, wobei wir unterstellen, die Vergangenheit sei massgebend für die Zukunft. Ein Ereignis kann in einem Erdbeben bestehen, einem Börsenkrach, explosionsartiger Inflation, Orkanschäden in einer Region, einer Überschwemmung, Schäden durch eine Getreidekrankheit, einer Epidemie, Zerstörungen durch Terrorismus usw. Dabei wird klar, dass die Schwere des Ereignisses in fast allen Fällen umgekehrt proportional zu seiner Häufigkeit ist: die Zehnjahresüberschwemmung ist häufiger als die Jahrhundertüberschwemmung – die Jahrhundertüberschwemmung jedoch viel verheerender.

Wenn wir nun etwa annehmen, ein Ereignis trete alle 1000 Tage ein, benötigen wir wesentlich mehr Daten als von 1000 Tagen, um seine Häufigkeit abzuschätzen – sagen wir 3000 Tage. Was ist nun, wenn das Ereignis lediglich alle 5000 Tage eintritt? Die Einschätzung der Wahrscheinlichkeit erfordert eine grössere Zahl, 15’000 oder mehr. Je geringer die Wahrscheinlichkeit, desto mehr Beobachtungen sind notwendig und desto grösser ist die Fehlerquote bei einer gegebenen Anzahl von Beobachtungen. Deshalb braucht es bei der Einschätzung eines seltenen Ereignisses eine Masse, die grösser und grösser sein muss – umgekehrt proportional zum Eintreten des Ereignisses.

Fassen wir zusammen: wenn Ereignisse von geringer Wahrscheinlichkeit grosse Folgen nach sich ziehen und ebendiese wenig wahrscheinlichen Ereignisse (gleichzeitig) schwieriger aus vergangenen Daten zu berechnen sind, dann ist unsere empirische Kenntnis über die potentielle Auswirkung – oder Rolle – seltener Ereignisse (Wahrscheinlichkeit mal Folgen) umgekehrt proportional zu deren Schwere.

Wir verstehen so wenig von katastrophalen Ereignissen, und doch sind es gerade sie, über die wir am leichtfertigsten sprechen. In Begriffen des Risikomanagements ausgedrückt: je grösser das Ereignis, desto weniger haben wir eine Ahnung davon.
Diesem Problem wurde scheinbar begegnet, indem man den Begriff der «fix-und-fertigen» Wahrscheinlichkeitsverteilung verwendete. Eine Wahrschein-lich-keits-verteilung ist ein Modell, das dem Unsichtbaren Wahrscheinlichkeiten zuschreibt, auf der Basis irgendeiner A-priori-Darstellung – also etwas, das für uns vorgekocht wurde, um in verdaulicher Form in einer Statistikvorlesung serviert zu werden.
In anderen Worten, man kann nun verlässlich das Ungesehene aus dem Gesehenen extrapolieren: man beobachtet eine Reihe von Ereignissen und schliesst daraus – im Rahmen irgendeiner mathematischen Struktur – auf diejenigen, die wir nicht gesehen haben. Aber Verteilungen bergen Probleme. Sie sind selbstreferentiell.

Das zweite epistemologische Problem

Wer solche Wahrscheinlichkeitsverteilungen benutzt, vergisst gerne, dass die Verteilungen nicht unmittelbar beobachtbar sind, was jede Risikoberechnung verdächtig macht, da sie auf einem vorausgesetzten Wissen beruht. Wie wissen wir, ob wir genug Daten haben? Wenn die Datenverteilung zum Beispiel der Glockenkurve folgt, mögen wir imstande sein zu sagen, wir hätten genügend Daten – die Glockenkurve selbst sagt uns, wie viel Daten wir benötigen. Wenn hingegen unsere Verteilung nicht zu einer so wohlerzogenen Familie gehört, kann es sein, dass wir nicht genügend Daten haben. Woher können wir wissen, was für eine Verteilung wir in Händen haben? Nun, von den Daten selbst.

Wir können das Problem der Selbstreferenzialität so formulieren: wenn man Daten braucht, um eine Wahrscheinlichkeitsverteilung zu erhalten, mit deren Hilfe das Wissen über das künftige Verhalten ebendieser Verteilung aus vergangenen Resultaten hergeleitet werden soll, und wenn man gleichzeitig eine Wahrscheinlichkeitsverteilung benötigt, um zu messen, ob die Daten genügen und ob sie Aussagekraft für die Zukunft haben, dann drehen wir uns in einer ernsthaften Endlosschleife. Wir haben es mit dem Problem der Selbstreferenzialität zu tun, das jenem des Kreters Epimenides und seiner Aussage darüber ähnelt, ob alle Kreter Lügner seien oder nicht. Das Problem kommt in der Tat jenem des Epimenides sogar ungemütlich nahe, da eine Wahrscheinlichkeitsverteilung dazu verwendet wird, einen Wahrheitsgrad zu bestimmen – ohne dass sie aber ihrerseits etwas über ihren eigenen Wahrheits- und Gültigkeitsgrad aussagen könnte. Im Gegensatz zu vielen anderen Selbstreferenzialitätsproblemen haben die mit Risikomanagement zusammenhängenden gravierende Konsequenzen.

Unternehmen und Branchen sollten nicht davon abgehalten werden, Risiken einzugehen – man muss sich nur dessen bewusst sein, dass jene, die sich keinen seltenen Ereignissen aussetzen, epistemologisch gesehen robuster sind. Wir können Unternehmen und Branchen nach ihrer Robustheit einteilen. Bei einem Unternehmen, das dem seltenen Ereignis gegenüber zurückhaltend agiert, kann man davon ausgehen, dass gut ist, was die Geschichte nicht offenbarte. Wenn wir beispielsweise vergangene Einkünfte von Biotechfirmen betrachten, finden wir keine kommenden Verkaufsschlager unter ihnen, und hinsichtlich der Heilungschancen für eine bestimmte Krankheit ist die Wahrscheinlichkeit gering, dass die Verkaufszahlen in dieser Industrie enorm oder zumindest wesentlich höher ausfallen werden als erwartet. Dagegen betrachte man Branchen, die seltenen Ereignissen unvorteilhaft ausgesetzt sind. Die Erfolgsgeschichte wird höchstwahrscheinlich dazu führen, dass deren Aussichten überschätzt werden. Man denke an die Bankenkrise von 1982: dem unbedarften Beobachter schienen die Banken weitaus profitabler, als sie es waren. Oder die Versicherungsgesellschaften: gemäss den Daten haben die Rückversicherer über die letzten beiden Jahrzehnte im Underwriting Geld verloren; dabei hätte es noch weit schlimmer kommen können, denn die letzten zwanzig Jahre waren von einer grossen Katastrophe verschont geblieben, und alles, was es braucht, ist eine Jahrhundertkatastrophe, und die Branche ist weg vom Fenster.

Die Lösung besteht darin, mit den Risiken, die einem selbst vertraut sind, aggressiver umzugehen als mit andern und ein gesundes Misstrauen zu bewahren, wenn es darum geht, Wissen über Risiken zu klassifizieren. Die Epistemologie kann uns leicht dabei helfen, Situationen aufgrund ihrer Robustheit gegenüber folgenschweren Schätzungsfehlern einzustufen.

Auch eine aktive Lösung ist zur Hand. Wir können entweder die Finger von einer gewissen Risikokategorie lassen, weil wir diese nicht verstehen, oder wir können uns finanziell vertraglich absichern, um die Gefährdung durch Grossverluste aus seltenen Ereignissen zu begrenzen, sozusagen eine Art «Schwarzer-Schwan-Versicherung» – falls verfügbar.

*Der Text entstand in Zusammenarbeit mit dem israelischen Wissenschaftsphilosophen Avital Pilpel von der Universität Haifa und wurde in der Zeitschrift «Risk & Regulation» des Centre for Analysis of Risk and Regulation der London School of Economics abgedruckt. Wir danken Nassim Taleb für die Genehmigung.

»
Abonnieren Sie unsere
kostenlosen Newsletter!