Fehlerquelle Mensch

Risikoinformationsdefizite sind oft die Ursache von menschgemachten Katastrophen. Wie es dazu kommt, und was zu ändern wäre.

 

Es passierte im Stillen, vor der Katastrophe: Die Entwickler der im Atomkraftwerk Tschernobyl verbauten RBMK-Reaktoren hielten einige kleinere Konstruktionsfehler mehrerer sowjetischer AKWs vor Entscheidern des Politbüros geheim. Im Jahr 1986 flog die Sache auf: Es kam zu einer Situation, in der die Leitung der Anlage von Tschernobyl und ihr Personal den Reaktor Nr. 4 einem extremen Belastungstest unterwarfen, in dessen Verlauf die Konstruktionsfehler des RBMK-Reaktors zuerst offenbar wurden, dann zu einem Leistungsexkurs führten und dieser wiederum einen unkontrollierbaren Brand im Reaktor auslöste. Als wäre das noch nicht genug gewesen, kam hinzu, dass das Management der Anlage den Zustand des Reaktors während der ersten Stunden nach der Katastrophe gegenüber dem Politbüro herunterspielte. Dadurch wurde der Einsatz des Krisenmanagements verzögert, was einerseits wertvolle Zeit kostete und andererseits dazu führte, dass fehlerhafte Informationen an die Opfer der Katastrophe, die sowjetische Öffentlichkeit und die internationale Gemeinschaft kommuniziert wurden. Die Sowjetunion gab insgesamt etwa 27 Milliarden US-Dollar aus, um der unmittelbaren und kurzfristigen Folgen des Super-GAUs Herr zu werden. Gemäss einer Schätzung belief sich der Gesamtschaden auf etwa 450 Milliarden US-Dollar. Und das alles, weil eine einfache, an und für sich auch wenig dramatische Information nicht kommuniziert worden war.

Tschernobyl ist kein Einzelfall. Menschen managen mit Hilfe von Informationen, egal ob sie ein ganzes AKW leiten, eine Abteilung einer Firma oder einen Kleinbetrieb. Wo immer Menschen entscheiden, also managen, erhalten sie Informationen aus verschiedenen Quellen, verarbeiten sie, wählen aus ihren Optionen aus und kommunizieren die Wahl an ihre Mitarbeiter. Klar ist: Die Qualität der Informationen über die interne und externe Umwelt beeinflusst die Qualität der zu treffenden Entscheidungen – und in der Folge die Qualität der Reaktion der ganzen Organisation oder des Unternehmens.

Schaut man sich nun verschiedene Katastrophen von kritischer Grösse (Atom-, Öl- und Chemieunfälle usw.) während der letzten hundert Jahre an, an denen Menschen unmittelbar beteiligt waren, so stellt man fest: Vor und während grösserer Kata­strophen fanden immer sowohl unabsichtliche als auch gezielte Verzerrungen von Risikoinformationen statt. Analysiert man diese Defizite in der Verfügbarkeit und Qualität von Informationen, wird klar, dass sie die Katastrophen entweder verursacht oder verschlimmert haben. Das heisst: Teils waren sich Mitarbeiter betroffener Unternehmen und Organisationen im Vorfeld einer Katastrophe der Gefahrensituation bewusst, unterliessen es aber aus verschiedenen Gründen, die Entscheidungsträger zu informieren. Entsprechend steuerten die Unternehmen blindlings in die Katastrophe – obwohl einzelnen ihrer Mitarbeiter die Wahrscheinlichkeit einer Eskalation durchaus klar gewesen sein muss. Die entscheidende Frage ist: Wie kann das passieren?

Fukushima, Deepwater Horizon, Bhopal

Nach der Katastrophe von Fukushima im Jahr 2011 kamen zahlreiche Fälle massiver Verzerrungen von Risikoinformationen innerhalb der japanischen Kernkraftbranche zutage. Es gab beträchtliche Versäumnisse: So wurden Warnungen verschiedener Experten nicht weitergegeben, die Anlage von Fukushima sei nicht gegen eine hohe Flutwelle gesichert. Laut Experten war angesichts der historischen Daten das Auftreten einer solchen Welle aber durchaus möglich. Mehr noch: Viele der organisationalen Fehlleistungen in puncto interner Risikoeskalation, die zur Fukushima-Katastrophe führten, ähnelten denjenigen, die 1986 zur Katastrophe von Tschernobyl geführt hatten. Diese wiederum wiesen starke Ähnlichkeiten zur fehlerhaften Risikokommunikation innerhalb der amerikanischen Kernkraftindustrie auf, wie sie 1979 beim Reaktorunfall von Three Mile Island…

Von weissen Haien und schwarzen Schwänen
Die Wahrscheinlichkeit, von einem Hai getötet zu werden, ist verschwindend klein. Und doch ist der weisse Hai zum Inbegriff von «Gefahr» geworden. Bild: Grosser Weisser Hai, mauritius images / nature picture library / Chris & Monique Fallows.
Von weissen Haien und schwarzen Schwänen

Für die Beurteilung von Gefahren ist ein evolutionär altes Hirnteil zuständig, und Wahrscheinlichkeitsrechnung liegt den Menschen ohnehin nicht im Blut. Das führt oft zu falschen Einschätzungen.