Fachinformationen - Katastrophen u. Mensch (Fukushima u.a.)


Katastrophen und Mensch

Fukushima, Tschernobyl, Arsen in Bangladesh ...

Auszug aus "Sicherheit und der menschliche Faktor" (s.u.)

... Versagt bei ungewöhnlichen Belastungen die mechanische Logik, kann es zu Großunfällen kommen, wie 1986 bei der Explosion des „Reaktors 4“ des Kraftwerkes Tschernobyl. Eine Serie von Fehlentscheidungen und Übersteuerungen führte zu erfolglosen Versuchen, ein System zu stabilisieren, dass allmählich in die Unzuverlässigkeit abdriftete. Die dabei auftretenden Handlungsmuster der Beteiligten waren nicht ungewöhnlich, sondern hätten in ähnlichen Situationen bei beliebig anderen Personen auftreten können (Hofinger, Dörner).
Auch bei der Katastrophe der Anlage Fukushima Dai-ichi im Jahr 2011 spielten menschliche Faktoren eine wesentliche Rolle (IAEA). Allerdings betrafen die Fehler hier nicht nur das akute Handlungsfeld, sondern auch Planung und Sicherheitsstandards im Vorfeld. Und die Beschönigungsstrategie während der Ereignisse erschwerten Kommunikationsprozesse, die für ein effizienteres Eingreifen nötig gewesen wären. (Pulitz)

“An expert is a person who avoids the small errors while sweeping to the grand fallacy.“ (Bloch)

Wenn zu viele Informationen einfluten, die nicht sinnvoll in einen bekannten Kontext eingeordnet werden, laufen Handlungsmuster ab, die eine ohnehin komplexe und ungünstige Situation weiter verschlimmern: 

Neben den großen, scheinbar schicksalhaften Unfällen gibt es Problemsituationen, die sich langsam, schleichend, allmählich und unmerklich entwickeln: So kann auch eine Intervention über Jahrzehnte zu ungeahnten Folgen führen, die mit bester Intention, unter Kenntnis aller bekannten Risiken, wohlüberlegt, sorgfältig und mit einwandfreier Technik durchgeführt wurde, und die vielleicht auch sehr erfolgreich war. Häufig spielen in solchen Fällen Wechselwirkungen mit anderen Faktoren eine Rolle, die völlig unabhängig von der Intervention auftraten. Irgendwann tauchen, scheinbar plötzlich, Probleme auf, von deren Existenz zum Zeitpunkt der Intervention niemand etwas ahnte. Solche „Rache- Effekte“ (Tenner) sind gut untersucht, u.a. bei der Entstehungsgeschichte der flächendeckenden Arsenvergiftung in Bangladesch. (Jäger)

Menschen neigen dazu, komplexe Systemzusammenhänge konsequent-einfach auf das offenbar Naheliegende zu reduzieren. Die Möglichkeit von Zufällen und Absurditäten des Verhaltens der beteiligten Systeme oder Menschen werden ignoriert, und Ereignisse, deren Wahrscheinlichkeit sehr klein ist, werden „sicher“ ausgeschlossen. Das kann trügen: Die Wahrscheinlichkeit, dass ein Mensch ein amerikanischer Präsident ist, beträgt 1:7 Mrd., trotzdem ist der Herr im Weißen Haus vermutlich kein Außerirdischer.

Auch Unwahrscheinliches ist manchmal bedeutsam.

"Beforehand ... and after the decision ...
the thing that was needed was a day around the table brainstorming Murphy's Law:
'If anything can go wrong it will!'"
Am. Regierungskommission zum Desaster einer Impfkampagne 1976 (Dehner)

„Murphy‘s Law“ fand inzwischen Eingang in das Fail-Safe-Prinzip der Qualitätssicherung, z. B. bei der Ausfallsicherheit durch redundante Systeme. Chaos kommt eben manchmal vor, und es ist gut, die geeignete Einstellung dazu zu gewinnen:

„ You can make it foolproof, but you can’t make it damnfoolproof.” (Bloch)

Nach einer Analyse des „World Economic Forum“ (s. Lit) werden die Unwägbarkeiten und unabsehbaren Krisen im globalen Maßstab zunehmen und zudem ihren Charakter verändern. Die beruflichen Anforderungen werden also in einer sich immer schneller verändernden Welt weiter steigen. Es wird schwieriger werden, innerlich stabil, flexibel, mit kühlem Kopf zu handeln und für die Sicherheit im Unternehmen zu sorgen. ...

Mehr

Kostenfreier Artikel-Download mit Genehmigung des Verlages aus "Sicherheitsingenieur" (2012)

HEF, 27.09.2013



Drucken

Zur Website www.gesundes-reisen.de