Das Märchen vom
„menschlichen Versagen“
Michael St.Pierre
Anästhesiologische Klinik Universitätsklinikum Erlangen
»Des Kaisers neue Kleider«
(H.C. Andersen)
(http://susanne-smajic.de/?portfolio=des-kaisers-neue-kleider-2)
1. Es gibt kein „Menschliches Versagen“ („Human Error“) .
„Menschliches Versagen“ ist lediglich ein Urteil, das im Rückblick und im Wissen um den Ausgang des Geschehens gefällt wird.
2. Am Unfall beteiligtes Handeln macht Sinn, wenn man es aus der Perspektive des zum Unfallzeitpunkt vorhandenen Wissens, der verfügbaren Ressourcen und der vorherrschenden Zielkonflikte sieht.
3. „Menschliches Versagen“ ist systematisch mit den Ressourcen, den Aufgaben, und den Zielkonflikten der beteiligten Personen verbunden.
»Der Kaisers hat keine Kleider an«
6 Thesen zum „Menschlichen Versagen“
4. “Human Error“ findet man nur dann, wenn man sich entscheidet mit der Suche aufzuhören, sobald man ihn gefunden hat.
5. „Human Error“ zu zählen („80/20“) ist unsinnig und verhindert wirkliches Verstehen.
6. Wir haben kein „Human-Error-Problem“ in ansonsten sicheren Arbeitssystemen. Nicht der Mensch ist das Sicherheitsproblem, sondern die Komplexität der Arbeitswelt. Menschen können als Einzige Sicherheit schaffen.
»Der Kaisers hat keine Kleider an«
6 Thesen zum „Menschlichen Versagen“
Alltäglich und ubiquitär ...
... Fehler
... Ressourcenlimitationen
... Performancelimitierende Faktoren
... “Psycho-Logik“ des Handelns
„Menschliches Versagen“ („Human Error“) impliziert ...
... dass sich ein schwerwiegender Unfall / Patientenschaden ereignet hat
... dass ein besonderes, defizitäres Verhalten an den Tag gelegt wurde
... dass die resultierende Situation vermeidbar gewesen wäre , wenn ...
(mehr Mühe, Aufmerksamkeit, adäquates Situationsbewusstsein, bessere Teamarbeit, keine Nachlässigkeit...)
Alltägliches und Außergewöhnliches
Fehler und „Menschliches Versagen“
Alltäglich und ubiquitär ...
... Fehler
... Ressourcenlimitationen
... Performancelimitierende Faktoren
... “Psycho-Logik“ des Handelns
„Menschliches Versagen“ („Human Error“) impliziert ...
... dass sich ein schwerwiegender Unfall / Patientenschaden ereignet hat
... dass ein besonderes, defizitäres Verhalten an den Tag gelegt wurde
... dass die resultierende Situation vermeidbar gewesen wäre , wenn ...
(mehr Mühe, Aufmerksamkeit, adäquates Situationsbewusstsein, bessere Teamarbeit, keine Nachlässigkeit...)
Alltägliches und Außergewöhnliches
Fehler und „Menschliches Versagen“
http://images.medicaldaily.com/sites/medicaldaily.com/files/sty
Wir haben ein „Human Error-Problem“!
Sichere Systeme und sicherheitsgefährdende Menschen?
Alltägliches und Außergewöhnliches
Fehler und „Menschliches Versagen“
(http://www.familie.de/baby/baby-erste-schritte-511095.html)
(http://www.violinovermelho.com.br/blog/produzindo-excelencia)
Ohne Fehler kein Lernen
Die „Vitalität des Fehlers“
Ohne Fehler kein Lernen
Die „Vitalität des Fehlers“
Unentbehrlich für Lernen, Adaptation und Effizienzsteigerung
Fehler in einem speziellen Kontext sind sicherheitsrelevant
Ohne Fehler kein Lernen
Die „Destruktivität des Fehlers“
Ohne Fehler keine Effizienz
Handeln im Systemkontext
Fehlerfreies Handeln ...
... zu langsam und nicht systemgerecht
Fehlerfreies Denken ...
.... eine menschliche Unmöglichkeit („begrenzte Rationalität“)
Die Strategie: Kompromiss zwischen Effizienz und Gründlichkeit
(„Efficiency-Thoroughness-Tradeoff“; ETTO-Principle)
Das Ziel ist ...
... nicht Fehlerfreiheit, sondern: Situationskontrolle plus kognitive Reserven für Unvorhergesehenes
... nicht optimale Performance, sondern: mit geringstem Aufwand ein zufriedenstellendes Ziel erreichen („satisficing“)
Amalberti R (2013) Navigating safety. Necessary compromises and trade-offs – theory and practice. Springer Paris Hollnagel E (2009) The ETTO Principle. Why things that go right sometimes go wrong. Ashgate Burlington VT Simon HA (1982) Models of bounded rationality: Empirically grounded economic reason. MIT Press
Ohne Fehler keine Effizienz
Handeln im Systemkontext
linear Interaktivität komplex
lose Kopplung eng
Durchblick Was passiert gerade?
Reaktion Wieviel
Zeit habe
ich noch?
Handeln im Systemkontext
Normativität und Variabilität des Handelns
(Charles Perrow 1987)
Staudamm
Schienenverkehr
Fließband
Universität
Kernkraftwerke
linear Interaktivität komplex
lose Kopplung eng
Operative Medizin
Raumfahrt
Luftfahrt
Fotokopieren
Militärische Kampfhandlung
Autofahrt
• Spezifizierbar
• Normatives Handeln
Handeln im Systemkontext
Normativität und Variabilität des Handelns
Staudamm
Schienenverkehr
Fließband
Universität
Kernkraftwerke
linear Interaktivität komplex
lose Kopplung eng
Operative Medizin
Raumfahrt
Luftfahrt
Fotokopieren
Militärische Kampfhandlung
Autofahrt
• Nicht spezifizierbar
• Handlungsvariabilität
Handeln im Systemkontext
Normativität und Variabilität des Handelns
Wirtschaftlichkeit
Akzeptable Arbeitsbelastung Akzeptable
Systemperformance
Grenze sicheren Arbeitens
Organisationale Ebene Wirtschaftliche Konkurrenz Effizienzsteigerung
Ökonomieprinzip
Möglichst wenig Anstrengung Patientensicherheit
Bewusster Aufwand
• „lege artis“
• Leitlinien
• SOPs
Nach: Cook R, Rasmussen J (2005) „Going solid“: a model of system dynamics and consequences for patient safety. Qual Saf Health Care 14:130-4
Handeln bei Zielkonflikten
Adaptation und „drift into failure“
1
2 3
5 4
Handeln
Equipment, Ressourcen, Aufgaben
Handeln bei Zielkonflikten
Adaptation und „drift into failure“
5
Handeln
Equipment, Ressourcen, Aufgaben
Handeln bei Zielkonflikten
Adaptation und „drift into failure“
Menschliches Versagen?
Erklärungsmodell: „Die 1. Geschichte“
Menschliches Versagen?
Die Geschichte hinter der „1. Geschichte“
a)
b)
Menschliches Versagen?
Erklärungsmodell: „Die 2. Geschichte“
Menschliches Versagen
Warum ist die “1. Geschichte“ so plausibel?
(http://susanne-smajic.de/?portfolio=des-kaisers-neue-kleider-2)
Technik und Automatisierung
Metaphern für menschliches Handeln
Industrielle Revolution(en)
Mensch und Maschine als Teile einer Prozesskette
„Scientific Management“
Menschen können wie Maschinen optimiert werden
„Fit the person to the task“
„One best standard“
„Accident Proneness“
Humanfaktor als Risikofaktor
Screening auf 'Defekte'
Frederik Winslow Taylor
(1856-1915)
Fehler durch Fehler erklären
Technisches Versagen ≈ Menschliches Versagen?
Fehler durch Fehler erklären
Mensch : Technik ≈ 80 : 20?
Menschliches Versagen
„Man-System-Mismatch“
Begrenzte Rationalität
(“bounded rationality“)
Menschen arbeiten mit einer „befriedigenden“ Lösung, anstatt die denkbar beste Möglichkeit zu suchen („satisficing“)
Simon HA (1957) Models of man; social and rational. John Wiley & Sons
Lokale Rationalität
(„local rationality“)
Am Unfall beteiligtes Handeln macht Sinn, wenn man es aus der Perspektive des zum Unfallzeitpunkt vorhandenen Wissens, der
verfügbaren Ressourcen und der vorherrschenden Zielkonflikte sieht
Woods D, Johannesen LJ, Cook RI, Sarter NB (1994) Behind Human error: cognitive systems, computers and hindsight. CSERIAC Columbus OH
Menschliches Versagen
Handeln in komplexen Arbeitswelten
Unfallursachen
„Was man als Ursache nach einem Unfall findet, hängt ganz davon ab, wann man mit der Suche aufhört“ (1987)
Stop-Regeln
Man hört mit der Ursachensuche auf, wenn…
… die Ursache auf einem kausalen Pfad rückwärts zu finden ist
… man nicht mehr weiter kommt, weil Informationen fehlen
… man findet, dass von einem Standard abgewichen wurde
… der Grund vertraut und damit als Erklärung annehmbar ist
… etwas dagegen getan werden kann
Rasmussen J (1987) The definition of human error and a taxonomy for technical system design. In: Rasmussen J et al. (Eds.) New technology and human error. Wiley & Sons p23-30 Rasmussen J (1990) The role of error in organizing behavior. Ergonomics 33;1185-99
Jens Rasmussen
Menschliches Versagen
Eine Konstruktion während der Analyse
Unfallursachen werden nicht gefunden. Sie sind eine (soziale) Konstruktion
Woods D, Dekker S, Cook R, Johannesen L, Sarter N (2010) Behind human error. Ashgate Publishing, Burlington VT
Die Frage sollte nicht sein:
„Wo lässt sich menschliches Handeln als fehlerhaft identifizieren?“
sondern:
„Warum war ein Verhalten, das im Rückblick gesehen zu einem Unfall beigetragen hat, für den Betreffenden stimmig und sinnvoll?“
Menschliches Versagen
Eine Konstruktion während der Analyse
75% „Human Error“
Menschliches Versagen
Warum ist die “1. Geschichte“ so plausibel?
(http://susanne-smajic.de/?portfolio=des-kaisers-neue-kleider-2)
Rückschaufehler
(„Hindsight bias“)
Kenntnis über den Ausgang einer Situation führt zur Überschätzung der Vorhersehbarkeit und Vermeidbarkeit der Situation
Fischoff B (1975) Hindsight ≠ Foresight: The effect of outcome knowledge on judgment under uncertainty. J Exper Psychol 1:3, 285-99
Historikerirrtum
(„Outcome bias “)
Kenntnis über den Ausgang einer Situation beeinflusst Urteil über die Qualität der Entscheidung
Baron B, Hershey JC (1988) Outcome bias in decision evaluation. J Pers Soc Exper Psychol 54:4, 569-79
Die Plausibilität der „1.Geschichte“
Urteilsheuristiken
Unvollständiges Schlussfolgern
(“Counterfactual fallacy“)
Ereignisse werden als vermeidbar angesehen, wenn sie anders hätten ablaufen können
Miller DT, Turnbull W (1990) The counterfactual fallacy: confusing what might have been with what ought to have been. Soc Justice Res 4:1, 1-9
Attributionsfehler
(„Correspondence bias“)
Überschätzung persönlicher Faktoren, Unterschätzung situativer Einflüsse
Jones EE, Harris VA (1967) The attribution of attitudes. J Exp Soc Psychol 3:1-24
Die Plausibilität der „1.Geschichte“
Urteilsheuristiken
1. Es gibt kein separates, defizientes Verhalten, welches man als
„menschliches Versagen“ bezeichnen kann.
2. „Menschliches Versagen“ ist ein Urteil, das im Rückblick und im Wissen um den Ausgang des Geschehens gefällt wird. Dieses Urteil fühlt sich
aufgrund unserer (computer)technischen Metaphern für menschliches Denken und Handeln
und aufgrund von Urteilsheuristiken (z.b. Rückschaufehler)
„normal und stimmig“ an.
3. „Menschliches Versagen“ ist „human variability in an unkind environment“. Diese Variabilität ist (überlebens)notwendig.
Das Märchen vom „menschlichen Versagen“
Zusammenfassung
5. „Menschliches Versagen“ ist systematisch mit den Ressourcen, den Aufgaben, und den Zielkonflikten verbunden.
6. „Human Error“ zu zählen („80/20“) verhindert, die Entstehung von Unfällen zu verstehen, weil ...
dabei Mensch und System voneinander getrennt werden
Handlungen durch lokale Rationalität bestimmt werden und sich ohne Kontext diese Rationalität nicht rekonstruieren lässt
der Stop-Punkt einer Analyse willkürlich festgelegt wird
die Diagnose “Menschliches Versagen“ der Startpunkt, und nicht das Ende der Analyse sein muss.
7. Nicht der Mensch ist das Sicherheitsproblem, sondern die Komplexität der Arbeitswelt. Menschen schaffen Sicherheit.
Das Märchen vom „menschlichen Versagen“
Zusammenfassung
Danke für ihre Aufmerksamkeit
(http://susanne-smajic.de/?portfolio=des-kaisers-neue-kleider-2)