Skript

Ein Fehler ist definiert als das Überschreiten der Toleranzgrenzen einer bestimmten
Handlung.
„Fehlverhalten wird als Oberbegriff verwendet, der alle Ereignisse umfasst, bei denen
eine geplante Abfolge geistiger oder körperlicher Tätigkeiten nicht zum beabsichtigten
Resultat führt, sofern diese Misserfolge nicht fremdem Einwirken zugeschrieben werden
können [Reason, 1990].
Schnitzer/Patzer: Fehlverhalten bei der Ausführung
Fehler: Fehlverhalten bei der Beurteilung, Schlussfolgerung oder Planung
Die Ursachen und Wirkungen menschlicher Fehler sind vielschichtig und lassen sich
meist nur durch eine eingehende Untersuchung bestimmen. Die im Rahmen einer
Systemanalyse identifizierten Systemkomponenten und deren Wechselbeziehungen
können nicht nur im Bezug auf bestimmte situative Faktoren einen Einblick geben, wie
diese menschliche Fehler auslösen können, sondern vielmehr, wie sich diese im System
fortpflanzen und evtl. zu irreparablen Schäden führen können. Mit Bezug auf einen
speziellen Kontext lassen sich bei der Untersuchung des menschlichen Einflusses auf
Arbeitssysteme generell zwei Ansätze unterscheiden. Zum einen die Unfallanalyse, die
im Sinne eines Un- bzw. Zwischenfalls ausgehend von Symptomen und sichtbaren
Phänomenen die Ursache für die Fehlhandlung zu ergründen sucht, und zum anderen
eine mehr prospektive Sichtweise, die ausgehend von einer Systemmodellierung mit
Blick auf die Mensch-Maschine-Interaktion die Auswirkungen bestimmter menschlicher
Eingriffe auf das Gesamtsystem zu bestimmen versucht. Beispiel für eine Unfallanalyse
(retrospektiv) ist die Analyse der Absturzursache eines Flugzeugs mit Hilfe des
Flugschreibers,
für
eine
Zuverlässigkeitsvorhersage
(prospektiv)
die
simulationsgestützte Untersuchung von kritischen Betriebsumständen in einer
verfahrenstechnischen Anlage.
Nicht-Wissen: ~ 20 % aller Fehlhandlungen verursachen
Neuangestellte mangels Erfahrung, Unterweisung, Warnung
Berufsanfänger
/
Nicht-Können: ~ 10 % der Fehlhandlungen entstehen durch Ablenkung, Überforderung,
mangelnde Eignung, Ermüdung
Nicht-Wollen: ~ 70 % der Fehlhandlungen erfolgen trotz besseren Wissens über
Gefahren, das richtige unfallsichere Verhalten und das mit dem Fehlverhalten
verbundene Risiko --> Überzeugung der Gefahr fehlt! Beispiel: Nichtbenutzen von
persönlicher Schutzausrüstung
Bezüglich der Klassifizierung menschlicher Fehler wurde bisher in der Forschung kein
Konsens mit Blick auf eine geeignete Taxonomie erzielt. Generell lassen sich drei Arten
der Taxonomie unterscheiden.
Erstens sind hier die auftretensorientierten Klassifizierungen zu nennen, deren
wichtigste Vertreter Rigby, Meister und Swain darstellen. Dabei wird versucht,
menschliche Fehlleistungen unabhängig von speziellen Aufgaben und Handlungen
sowie den möglichen Fehlerursachen zu strukturieren. Dabei unterscheidet Rigby in
sporadische, zufällige und systematische Fehlhandlungen. Die Ansätze von Meister und
Swain orientieren sich allein an der Art der Handlungsfehler. Sie unterscheiden
Ausführungsfehler, Auslassungsfehler, Hinzufügfehler und Sequenzfehler.
Bei der ursachenorientierten Klassifizierung menschlicher Fehler wird versucht, diese
hinsichtlich ihrer Entstehungsart zu strukturieren. An dieser Stelle wird die Frage nach
dem „warum“ gestellt. Sie setzt damit eine Modellvorstellung über die Entstehung und
das Auftreten menschlicher Fehler voraus. Hacker unterscheidet auf Basis seiner
Handlungsregulationstheorie drei Grundkategorien: 1.) die Information ist objektiv nicht
verfügbar, 2.) die Information ist objektiv verfügbar, wird aber nicht genutzt und 3.) die
Information ist objektiv verfügbar, wird aber falsch genutzt. Norman unterscheidet
zwischen Mistakes und Slips. Dabei lehnt er sich an die Kognitionspsychologie an.
Mistakes sind Fehler bei der Bildung der Handlungsabsicht. Slips sind Fehler bei der
Durchführung der Handlung selber.
Die bekanntesten Vertreter der kombinierten Ansätze sind Rouse & Rouse, Rasmussen
und Reason, wobei sich Reason mit GEMS stark auf die Arbeiten von Rasmussen
bezieht.
Rigby unterscheidet drei Arten von Fehlhandlungen entsprechend ihrem Auftreten:
1. Sporadische Fehlhandlungen (einzelne Ereignisse)
2. Zufällige Fehlhandlungen (häufigere Ereignisse, die aber keine sichtbare
Tendenz aufweisen)
3. Systematische Fehlhandlungen (Ereignisse mit einer klar sichtbaren Tendenz)
Bei diesem Ansatz werden Ausführungsunterschiede menschlichen Handels primär als
Folge der natürlichen Variabilität menschlichen Verhaltens gedeutet, die zu einer
Abweichung zwischen Soll- und Istwert führt. Die Klassifizierung kann auch als
Ausgangspunkt für eine ursachenorientierte Betrachtungsweise genutzt werden.
Hacker (2005) differenziert menschliche Fehler zunächst in das objektive Fehlen
erforderlicher Informationen und einen Mangel in der Nutzung vorhandener
Informationen.
Objektives Fehlen erforderlicher Informationen: Das Fehlen unentbehrlicher
Informationen führt stets zu Störungen in der betroffenen Aufgabe. Eine
Verhütungsmöglichkeit für diesen Fehlertyp liegt in der Bereitstellung der erforderlichen
Informationen.
Wenn die erforderlichen Informationen gegeben sind ist weiter in zwei verschiedene
Arten von Nutzungsmängeln zu klassifizieren:
1) Fehlende Nutzung: Die fehlende Nutzung von Informationen kann verschiedenartig
verursacht sein. Zu den häufigsten Ursachen gehören das Übersehen von
Informationen, das Vergessen oder Versäumen von Informationen, das bewusste
Übergehen von Informationen, die Informationsreduzierung aufgrund von Lerneffekten
und Defizite in der Informationsverarbeitung.
2) Falsche Nutzung: Zur falschen Nutzung von Informationen kann es kommen, wenn
keine angemessenen Aktionsprogramme genutzt werden und deshalb eine falsche
Orientierung von Programmen zu Fehlern führt. Dies kann auf Fehlidentifikationen von
Situationen oder Sinnestäuschungen zurückzuführen sein. Eine falsche Nutzung im
Zielstellen liegt dann vor, wenn Ziele unvollständig oder unpräzise bestimmt wurden,
sodass die Möglichkeiten zum Entwickeln geeigneter Ausführungsweisen eingeschränkt
sind. Ein weiterer Punkt, der zu der falschen Nutzung von Informationen führen kann, ist
das Entwerfen fehlerhafter Aktionsprogramme, wobei bei der Entwicklung von
Aktionsprogrammen Verwechslungen von Schritten, Auslassungen und überflüssige
Wiederholungen auftreten können. Zu einer falschen Nutzung von Informationen kann
es nach Hacker außerdem dann kommen, wenn Programme falsch situativ eingepasst
werden. Diese Fehlnutzung kann z.B. dann vorliegen, wenn richtige Programme zu
einem falschen Zeitpunkt eingeordnet werden oder eine räumliche Fehleinordnung
vorliegt.
Einflussfaktoren menschlicher Fehler lassen sich im Wesentlichen auf zwei Bereiche
reduzieren: 1.) Leistungsbeeinflussende Faktoren und 2.) Situative Faktoren.
Menschliche Variabilität in den verschiedensten Aufgaben kann zu hohen Fehlerraten
führen und hat ihren Ursprung in den Zielen und Absichten der Arbeitsperson und den
menschlichen Eigenschaften, wie Fähigkeiten und Fertigkeiten als auch physiologischen
und sozialen Eigenschaften, wie z.B. Alter, Geschlecht, Intelligenz, physische
Konstitution, Wissen, Trainingsgrad,...
• Kapitän Smith auf der Titanic galt als bestausgebildeter Kapitän, die Titanic selbst
als unsinkbar.
• Ein 1988 bei Habsheim verunglückter Airbus 320 war nach Meinung des Piloten
das sicherste Verkehrsflugzeug der Welt, und der Pilot war Chefausbilder für die
französische A320-Flotte.
• 1987 fuhr ein Tanklastzug mit einem als besonders sicher geltenden
elektropneumatischen Schaltgetriebe und gesteuert von einem der zuverlässigsten
Fahrer des Unternehmens in ein Haus.
Für sich hohe technische und hohe menschliche Zuverlässigkeit führen nicht
zwangsläufig zu einem verlässlichen Gesamtsystem, entscheidend sind die
Wechselwirkungen zwischen Mensch und Maschine.
Situative Faktoren, wie Umwelteinflüsse, die von außen auf den Menschen einwirken,
können menschliche Fehler ebenfalls begünstigen. Deswegen ist es notwendig, dass
bestimmte Mindestanforderungen an den Arbeitsplatz gegeben sind. Mit Blick auf die im
ersten Teil eingeführten menschlichen Informationsverarbeitungsmodelle zeigt sich,
dass der Mensch nur eine begrenzte Aufnahmekapazität besitzt und daher mit
steigendem Komplexitätsgrad von Aufgaben in ihrem Vollzug und richtigen Reihenfolge
der Ausführung die Wahrscheinlichkeit für menschliche Fehler ebenfalls steigt.
Rasmussens Klassifikationsschema für die Erfassung menschlicher Fehler hat seinen
Ursprung in den Untersuchungen mit Bezug auf verschiedene Störfallberichte
kerntechnischer Anlagen. Obgleich zu dem Zweck der Erfassung von menschlichem
Fehlverhalten in kerntechnischen Anlagen entwickelt, reicht seine Bedeutung und
Anwendbarkeit weit über diesen Bereich hinaus. Grundlage des Ansatzes ist die
Annahme, dass menschliche Fehler durch das Zusammenspiel einer Vielzahl
unterschiedlicher Einflussgrößen verursacht werden und daher nur aus der
Gesamtsituation einer Aufgabe heraus zu beschreiben sind. Das kognitive Element
menschlichen Handelns wird bei diesem aufgabenbezogenen Multi-Aspekt-Ansatz
besonders berücksichtigt. Die Taxonomie fußt auf einer Kombination der
auftrittsorientierten Klassifizierung nach Swain und Meister und der ursachenorientierten
Klassifizierung, die sich an Rasmussens 3-Ebenen Modell menschlicher Leistung
anlehnt.
General Error Modeling System (GEMS):
Reason unterscheidet drei Fehlertypen: Schnitzer, Patzer und Fehler. Schnitzer und
Patzer sind Arten des Fehlverhaltens, die sich aus einem Misserfolg im Stadium der
Ausführung und/oder der Speicherung einer Handlungsfolge ergeben, ungeachtet der
Frage, ob der Plan, dem sie folgen, angemessen war, um das gesetzte Ziel zu
erreichen. Fehler kann man als Mängel oder Misserfolge bei den Beurteilungs- und/oder
Schlussfolgerungsprozessen definieren, die bei der Auswahl eines Ziels oder bei der
Spezifikation der Mittel, um dieses Ziel zu erreichen, eine Rolle spielen. Diese Einteilung
orientiert sich stark an Rasmussens Regulationsebenen menschlicher Leistung. Dabei
unterscheidet er noch die Fehler zwischen wissensbasierten und regelbasierten
Fehlern.
Kirwan (1994) stellte ein Verfahren zur Analyse und Bewertung menschlicher
Zuverlässigkeit auf. Ausgehend von der Definition des Problemhintergrundes, wird eine
Aufgabenanalyse durchgeführt, da eine einheitliche und strukturierte Beschreibung des
Arbeitssystems und der auszuführenden Tätigkeit eine wichtige Voraussetzung für die
Genauigkeit der Ergebnisse ist. Aufbauend auf der Aufgabenanalyse können potentielle
menschliche Fehler abgeleitet werden, deren Einflüsse auf das System in einem
nächsten Schritt dargestellt werden. Verfahren zur Analyse und Bewertung
menschlicher Zuverlässigkeit können in quantitative und qualitative Verfahren eingeteilt
werden. Wenn eine Quantifizierung der Fehler erwünscht ist, wird die Bedeutsamkeit der
ermittelten Fehler untersucht und darauf aufbauend Maßnahmen zur Fehlerreduktion
festgelegt. Bei Fällen, die keine Quantifizierung der menschlichen Fehler erforderlich
machen, werden lediglich Maßnahmen zur qualitativen Fehlerreduktion festgelegt. Im
Anschluss an die Maßnahmen zur quantitativen und qualitativen Fehlerreduktion wird
eine Prognose im Hinblick auf die menschliche Zuverlässigkeit durch die eingesetzten
Maßnahmen durchgeführt. Fällt das Ergebnis dieser Prognose negativ aus sind
alternative Maßnahmen zur Fehlerreduktion zu definieren und zu überprüfen. Nachdem
ein ausreichend hohes Maß an menschlicher Zuverlässigkeit durch die eingesetzten
Maßnahmen prognostiziert werden kann, werden diese Maßnahmen umgesetzt und
überwacht. Zum Schluss wird die Analyse dokumentiert.
Für eine strukturierte Ablage von menschlichen Fehlerwahrscheinlichkeiten in einer
Datenbank müsste eine einheitliche Definition einer von allen akzeptierten Taxonomie
menschlichen Fehlverhaltens vorliegen. Dies ist jedoch nicht der Fall, so dass aus einer
Vielzahl von Datenquellen unterschiedlich strukturierte Informationen über
Fehlhandlungen vorliegen. Die Datenquellen sind hierbei sehr vielfältig, z.B. Feldstudien
durch Messungen und Erhebungen am Arbeitsplatz, Laborstudien durch Tests und
Simulatoruntersuchungen,
Statistiken
(Unfall-,
Störmelde-,
Ausfallstatistiken),
Expertenschätzungen und subjektive Befragungen von Fehlerverursachern. Die Güte
der mittels der einzelnen Methoden aus den verschiedenen Quellen gewonnenen
Wahrscheinlichkeitsaussagen kann recht unterschiedlich sein. Dabei sind
Expertenschätzungen die am wenigsten valide Datenquelle, aber auch in der Regel die
einzige Möglichkeit, überhaupt irgendwelche quantifizierten Werte zu erhalten. Es
existieren unterschiedliche Schätzverfahren:
• Eindimensionale globale Schätzungen sind einfach zu erhalten. Sie bilden ein
Gesamturteil des zu betrachtenden Merkmals ohne Differenzierungsmöglichkeiten
zwischen verschiedenen Situationsaspekten oder Einflussgrößen.
• Multidimensionale Verfahren fußen auf der Schätzung von Merkmalsausprägungen
auf verschieden Subskalen, die anschließend gewichtet kombiniert werden, um zu
einem Gesamturteil zu gelangen.
• Hierarchische Verfahren: die Cooper-Harper-Skala, die zur Beurteilung von
Flugeigenschaften von Flugzeugen durch Piloten entwickelt wurde, ist eines der
ersten und heute noch häufig genutzten Schätzverfahren. Sie stellt eine 10-PunkteOrdinalskala dar, die in Form eines Entscheidungsbaums von den Operateuren
Aussagen über bestimmte Qualitäten des untersuchten Merkmals fordert.
Eine Aufgabe kann als diskret betrachtet werden, wenn ihr Inhalt über einen definierten
Start- und Endpunkt verfügt. Mit Bezug auf diese Definition berechnet sich die
menschliche Fehlerwahrscheinlichkeit über die angegebene Formel.
Aufgaben wie die Stabilisierung von Fahrzeugen oder das Tracking von Objekten mit
den Augen etc. sind als zeitkontinuierliche Aufgaben bekannt. Wenn der Prozess in
jeder Zeitschicht als unabhängig von der Vergangenheit angesehen werden kann, kann
er über die Poisson-Gleichung nachgebildet werden.
Personelle Mehrfachbesetzung:
In den meisten Studien menschlicher Zuverlässigkeit wurde die Bestimmung der
Fehlerwahrscheinlichkeiten reduziert auf das Verhalten einzelner unabhängiger
Operateure. Aber gerade bei Aufgaben, die gemeinsam bearbeitet werden, z.B. ein 2Mann-Konzept, steigert sich die Zuverlässigkeit durch die gegenseitige Überwachung
der Tätigkeiten des anderen und umgekehrt.
THERP ist die wohl am bekanntesten und am weitesten verbreitete Methode zur
Abschätzung der Systemkomponente „Mensch“ im Rahmen von Zuverlässigkeitsanalysen von Mensch-Maschine-Systemen. Swain gilt dabei als der eigentliche
Entwickler der Methode. Seit den 1960er Jahren wurde dieses Verfahren ständig
fortentwickelt und in Zuverlässigkeitsanalysen einer Vielzahl sowohl militärischer als
auch kerntechnischer Anlagen eingesetzt. Die Methode orientiert sich stark an der
Vorgehensweise der technischen Zuverlässigkeit, wobei Swain und Guttman
Modifikationen vorgenommen haben, die die größere Variabilität, geringere
Vorhersagbarkeit und stärkere Abhängigkeit menschlicher Leistung im Vergleich zu
technischen Einrichtungen berücksichtigt. Die zu analysierenden Systemfunktionen
werden häufig in Form sogenannter Ereignisablaufdiagramme dargestellt.
Das Modell kognitiver Zuverlässigkeit (Human Cognitive Reliability, kurz HCR) von
Hannamann ist an den drei Regulationsebenen menschlicher Leistung orientiert.
Allerdings zielt das HCR-Modell auf quantitative Prognosen über die Wahrscheinlichkeit
einer erfolgreichen Handlung in Abhängigkeit der normierten Ausführungszeit (tn) ab. tn
ist der Quotient aus dem Zeitfenster, das dem Operateur zur Situationsdiagnose zur
Verfügung steht, und dem Median der durch Simulatorversuche, Aufgabenanalysen und
Expertenbefragungen gewonnenen Reaktionszeiten.
Die Input-Parameter des HCR Modells sind:
•
Verteilungsparameter abhängig von den drei Arten kognitiven Verhaltens: fertigkeits-, regelund wissensbasiertes Verhalten (Definitionen laut Rasmussen)
•
Der Mittelwert der Reaktionszeit
•
Die Ausführung beeinflussende Faktoren K, wie Erfahrung, Beanspruchung (Stress) und
Qualität der Mensch-Maschine-Schnittstelle.
Mit Hilfe dieser Parameter und den in der Folie genannten Formeln, kann die
zeitabhängige Funktion R(t) für verschiedene Konditionen, unter welcher eine Aufgabe
ausgeführt wird, berechnet werden. R steht für Reliability, auch als
„Überlebenswahrscheinlichkeit“
bekannt.
Der
Zusammenhang
mit
der
Verteilungsfunktion ist durch R(t) = 1 – F(t) gegeben. Das Ergebnis ist eine Kurve,
welche die Wahrscheinlichkeit für nicht erfolgreiches Reagieren darstellt.
Bei der zusammenfassenden Beschreibung menschlicher Fehler wurde im Wesentlichen
zwischen den Hauptursachen „Mensch“ und „Arbeit“ und der Auftretensart „zufällig“ und
„systematisch“ unterschieden.
Vermeidung Systematische Fehler:
Benutzerzentrierte Gestaltung: Anpassung der technischen Systeme an die Fertigkeiten und
Fähigkeiten des Menschen sowie seine physiologischen Eigenschaften
Vermeidung von physischer und psychischer Fehlbeanspruchung
Anthropometrische Gestaltung: Ermüdungsfreiheit, Sichtbarkeit und Erreichbarkeit von Anzeigen und
Stellteilen
Informationstechnische Gestaltung: Anpassung informatorischer Aufgaben an die Eigenschaften und
Kapazität der menschlichen Informationsverarbeitung; Erkennen von Anzeigen, Kompatibilität von
Aufgaben, Anzeigen und Stellteilen, Rückmeldung des Systemzustands, Selbstbeschreibungsfähigkeit,
Lernförderlichkeit.
Physikalische Umwelteinflüsse: Lärm, Strahlung, Schwingung, etc.
Personelle und organisatorische Maßnahmen: Aufbau- und Ablauforganisation, Qualifikation und
Auswahl, Qualifizierung, Aus- und Weiterbildung.
Soziale Einflüsse: Hierarchie, Entscheidungsspielräume, Verhalten im Team (Crew Resource
Management)
Vermeidung zufälliger Fehler:
Zufällig erscheinende Fehler lassen sich prinzipiell nicht vermeiden; es kann durch technische
Maßnahmen nur dafür gesorgt werden, dass ihre Wirkung nur geringe unerwünschte Folgen hat,
z.B. ein sog. „monitives“ System durch die parallele Verschaltung der Systemelemente Mensch
und Maschine.
Beim Fail-Safe-Prinzip wird das System sofort beim Auftreten eines Fehlers in den sicheren
Zustand überführt, z.B. FI-Schalter der Stromsicherung, Airbags, etc...
Durch Redundanz wird dafür gesorgt, dass sich mehrere parallel geschaltete Systeme
gegenseitig kontrollieren (m-von-n - Systeme, m  2, n  3) oder die Funktion eines ausgefallenen Systems von einem intakten System übernommen wird.
Ist die Wahrscheinlichkeit für ein Schadensereignis eines Subsystems i bekannt, lässt
sich die Wahrscheinlichkeit der Nichtverfügbarkeit des Gesamtsystems berechnen. Die
Wahrscheinlichkeit der Nichtverfügbarkeit des Gesamtsystems ergibt sich aus dem
Produkt der einzelnen Nichtverfügbarkeitswahrscheinlichkeiten der einzelnen
Subsysteme. Je geringer die Anzahl der Subsysteme, desto größer ist die
Wahrscheinlichkeit, dass das Gesamtsystem ausfällt (exponentieller Zusammenhang; in
der logarithmischen Darstellung ergibt sich in der Visualisierung eine Gerade). Mit
steigender Anzahl der Subsysteme strebt die Nichtverfügbarkeitswahrscheinlichkeit des
Gesamtsystems gegen den Wert Null.
Die Weibull-Verteilung ist eine statistische Verteilung, die beispielsweise zur
Untersuchung von Lebensdauern in der Qualitätssicherung verwendet wird. Man
verwendet sie vor allem bei Fragestellungen wie Materialermüdungen von spröden
Werkstoffen oder Ausfällen von elektronischen Bauteilen, ebenso bei statistischen
Untersuchungen von Windgeschwindigkeiten. Benannt ist sie nach dem Schweden
Waloddi Weibull (1887-1979).
Der Graph zeigt deutlich den Effekt einer redundanten Auslegung eines Systems: die
Fläche über einem Intervall und unterhalb des Graphen der Dichtefunktion gibt die
Wahrscheinlichkeit für den Ausfall des Gesamtsystems an. Die Bildung eines 1-von-nSystems führt also zu einer „Massenverschiebung“ nach rechts in Richtung wachsender
Zeit, also längerer Lebensdauer.