Ein Fehler ist definiert als das Überschreiten der Toleranzgrenzen einer bestimmten Handlung. „Fehlverhalten wird als Oberbegriff verwendet, der alle Ereignisse umfasst, bei denen eine geplante Abfolge geistiger oder körperlicher Tätigkeiten nicht zum beabsichtigten Resultat führt, sofern diese Misserfolge nicht fremdem Einwirken zugeschrieben werden können [Reason, 1990]. Schnitzer/Patzer: Fehlverhalten bei der Ausführung Fehler: Fehlverhalten bei der Beurteilung, Schlussfolgerung oder Planung Die Ursachen und Wirkungen menschlicher Fehler sind vielschichtig und lassen sich meist nur durch eine eingehende Untersuchung bestimmen. Die im Rahmen einer Systemanalyse identifizierten Systemkomponenten und deren Wechselbeziehungen können nicht nur im Bezug auf bestimmte situative Faktoren einen Einblick geben, wie diese menschliche Fehler auslösen können, sondern vielmehr, wie sich diese im System fortpflanzen und evtl. zu irreparablen Schäden führen können. Mit Bezug auf einen speziellen Kontext lassen sich bei der Untersuchung des menschlichen Einflusses auf Arbeitssysteme generell zwei Ansätze unterscheiden. Zum einen die Unfallanalyse, die im Sinne eines Un- bzw. Zwischenfalls ausgehend von Symptomen und sichtbaren Phänomenen die Ursache für die Fehlhandlung zu ergründen sucht, und zum anderen eine mehr prospektive Sichtweise, die ausgehend von einer Systemmodellierung mit Blick auf die Mensch-Maschine-Interaktion die Auswirkungen bestimmter menschlicher Eingriffe auf das Gesamtsystem zu bestimmen versucht. Beispiel für eine Unfallanalyse (retrospektiv) ist die Analyse der Absturzursache eines Flugzeugs mit Hilfe des Flugschreibers, für eine Zuverlässigkeitsvorhersage (prospektiv) die simulationsgestützte Untersuchung von kritischen Betriebsumständen in einer verfahrenstechnischen Anlage. Nicht-Wissen: ~ 20 % aller Fehlhandlungen verursachen Neuangestellte mangels Erfahrung, Unterweisung, Warnung Berufsanfänger / Nicht-Können: ~ 10 % der Fehlhandlungen entstehen durch Ablenkung, Überforderung, mangelnde Eignung, Ermüdung Nicht-Wollen: ~ 70 % der Fehlhandlungen erfolgen trotz besseren Wissens über Gefahren, das richtige unfallsichere Verhalten und das mit dem Fehlverhalten verbundene Risiko --> Überzeugung der Gefahr fehlt! Beispiel: Nichtbenutzen von persönlicher Schutzausrüstung Bezüglich der Klassifizierung menschlicher Fehler wurde bisher in der Forschung kein Konsens mit Blick auf eine geeignete Taxonomie erzielt. Generell lassen sich drei Arten der Taxonomie unterscheiden. Erstens sind hier die auftretensorientierten Klassifizierungen zu nennen, deren wichtigste Vertreter Rigby, Meister und Swain darstellen. Dabei wird versucht, menschliche Fehlleistungen unabhängig von speziellen Aufgaben und Handlungen sowie den möglichen Fehlerursachen zu strukturieren. Dabei unterscheidet Rigby in sporadische, zufällige und systematische Fehlhandlungen. Die Ansätze von Meister und Swain orientieren sich allein an der Art der Handlungsfehler. Sie unterscheiden Ausführungsfehler, Auslassungsfehler, Hinzufügfehler und Sequenzfehler. Bei der ursachenorientierten Klassifizierung menschlicher Fehler wird versucht, diese hinsichtlich ihrer Entstehungsart zu strukturieren. An dieser Stelle wird die Frage nach dem „warum“ gestellt. Sie setzt damit eine Modellvorstellung über die Entstehung und das Auftreten menschlicher Fehler voraus. Hacker unterscheidet auf Basis seiner Handlungsregulationstheorie drei Grundkategorien: 1.) die Information ist objektiv nicht verfügbar, 2.) die Information ist objektiv verfügbar, wird aber nicht genutzt und 3.) die Information ist objektiv verfügbar, wird aber falsch genutzt. Norman unterscheidet zwischen Mistakes und Slips. Dabei lehnt er sich an die Kognitionspsychologie an. Mistakes sind Fehler bei der Bildung der Handlungsabsicht. Slips sind Fehler bei der Durchführung der Handlung selber. Die bekanntesten Vertreter der kombinierten Ansätze sind Rouse & Rouse, Rasmussen und Reason, wobei sich Reason mit GEMS stark auf die Arbeiten von Rasmussen bezieht. Rigby unterscheidet drei Arten von Fehlhandlungen entsprechend ihrem Auftreten: 1. Sporadische Fehlhandlungen (einzelne Ereignisse) 2. Zufällige Fehlhandlungen (häufigere Ereignisse, die aber keine sichtbare Tendenz aufweisen) 3. Systematische Fehlhandlungen (Ereignisse mit einer klar sichtbaren Tendenz) Bei diesem Ansatz werden Ausführungsunterschiede menschlichen Handels primär als Folge der natürlichen Variabilität menschlichen Verhaltens gedeutet, die zu einer Abweichung zwischen Soll- und Istwert führt. Die Klassifizierung kann auch als Ausgangspunkt für eine ursachenorientierte Betrachtungsweise genutzt werden. Hacker (2005) differenziert menschliche Fehler zunächst in das objektive Fehlen erforderlicher Informationen und einen Mangel in der Nutzung vorhandener Informationen. Objektives Fehlen erforderlicher Informationen: Das Fehlen unentbehrlicher Informationen führt stets zu Störungen in der betroffenen Aufgabe. Eine Verhütungsmöglichkeit für diesen Fehlertyp liegt in der Bereitstellung der erforderlichen Informationen. Wenn die erforderlichen Informationen gegeben sind ist weiter in zwei verschiedene Arten von Nutzungsmängeln zu klassifizieren: 1) Fehlende Nutzung: Die fehlende Nutzung von Informationen kann verschiedenartig verursacht sein. Zu den häufigsten Ursachen gehören das Übersehen von Informationen, das Vergessen oder Versäumen von Informationen, das bewusste Übergehen von Informationen, die Informationsreduzierung aufgrund von Lerneffekten und Defizite in der Informationsverarbeitung. 2) Falsche Nutzung: Zur falschen Nutzung von Informationen kann es kommen, wenn keine angemessenen Aktionsprogramme genutzt werden und deshalb eine falsche Orientierung von Programmen zu Fehlern führt. Dies kann auf Fehlidentifikationen von Situationen oder Sinnestäuschungen zurückzuführen sein. Eine falsche Nutzung im Zielstellen liegt dann vor, wenn Ziele unvollständig oder unpräzise bestimmt wurden, sodass die Möglichkeiten zum Entwickeln geeigneter Ausführungsweisen eingeschränkt sind. Ein weiterer Punkt, der zu der falschen Nutzung von Informationen führen kann, ist das Entwerfen fehlerhafter Aktionsprogramme, wobei bei der Entwicklung von Aktionsprogrammen Verwechslungen von Schritten, Auslassungen und überflüssige Wiederholungen auftreten können. Zu einer falschen Nutzung von Informationen kann es nach Hacker außerdem dann kommen, wenn Programme falsch situativ eingepasst werden. Diese Fehlnutzung kann z.B. dann vorliegen, wenn richtige Programme zu einem falschen Zeitpunkt eingeordnet werden oder eine räumliche Fehleinordnung vorliegt. Einflussfaktoren menschlicher Fehler lassen sich im Wesentlichen auf zwei Bereiche reduzieren: 1.) Leistungsbeeinflussende Faktoren und 2.) Situative Faktoren. Menschliche Variabilität in den verschiedensten Aufgaben kann zu hohen Fehlerraten führen und hat ihren Ursprung in den Zielen und Absichten der Arbeitsperson und den menschlichen Eigenschaften, wie Fähigkeiten und Fertigkeiten als auch physiologischen und sozialen Eigenschaften, wie z.B. Alter, Geschlecht, Intelligenz, physische Konstitution, Wissen, Trainingsgrad,... • Kapitän Smith auf der Titanic galt als bestausgebildeter Kapitän, die Titanic selbst als unsinkbar. • Ein 1988 bei Habsheim verunglückter Airbus 320 war nach Meinung des Piloten das sicherste Verkehrsflugzeug der Welt, und der Pilot war Chefausbilder für die französische A320-Flotte. • 1987 fuhr ein Tanklastzug mit einem als besonders sicher geltenden elektropneumatischen Schaltgetriebe und gesteuert von einem der zuverlässigsten Fahrer des Unternehmens in ein Haus. Für sich hohe technische und hohe menschliche Zuverlässigkeit führen nicht zwangsläufig zu einem verlässlichen Gesamtsystem, entscheidend sind die Wechselwirkungen zwischen Mensch und Maschine. Situative Faktoren, wie Umwelteinflüsse, die von außen auf den Menschen einwirken, können menschliche Fehler ebenfalls begünstigen. Deswegen ist es notwendig, dass bestimmte Mindestanforderungen an den Arbeitsplatz gegeben sind. Mit Blick auf die im ersten Teil eingeführten menschlichen Informationsverarbeitungsmodelle zeigt sich, dass der Mensch nur eine begrenzte Aufnahmekapazität besitzt und daher mit steigendem Komplexitätsgrad von Aufgaben in ihrem Vollzug und richtigen Reihenfolge der Ausführung die Wahrscheinlichkeit für menschliche Fehler ebenfalls steigt. Rasmussens Klassifikationsschema für die Erfassung menschlicher Fehler hat seinen Ursprung in den Untersuchungen mit Bezug auf verschiedene Störfallberichte kerntechnischer Anlagen. Obgleich zu dem Zweck der Erfassung von menschlichem Fehlverhalten in kerntechnischen Anlagen entwickelt, reicht seine Bedeutung und Anwendbarkeit weit über diesen Bereich hinaus. Grundlage des Ansatzes ist die Annahme, dass menschliche Fehler durch das Zusammenspiel einer Vielzahl unterschiedlicher Einflussgrößen verursacht werden und daher nur aus der Gesamtsituation einer Aufgabe heraus zu beschreiben sind. Das kognitive Element menschlichen Handelns wird bei diesem aufgabenbezogenen Multi-Aspekt-Ansatz besonders berücksichtigt. Die Taxonomie fußt auf einer Kombination der auftrittsorientierten Klassifizierung nach Swain und Meister und der ursachenorientierten Klassifizierung, die sich an Rasmussens 3-Ebenen Modell menschlicher Leistung anlehnt. General Error Modeling System (GEMS): Reason unterscheidet drei Fehlertypen: Schnitzer, Patzer und Fehler. Schnitzer und Patzer sind Arten des Fehlverhaltens, die sich aus einem Misserfolg im Stadium der Ausführung und/oder der Speicherung einer Handlungsfolge ergeben, ungeachtet der Frage, ob der Plan, dem sie folgen, angemessen war, um das gesetzte Ziel zu erreichen. Fehler kann man als Mängel oder Misserfolge bei den Beurteilungs- und/oder Schlussfolgerungsprozessen definieren, die bei der Auswahl eines Ziels oder bei der Spezifikation der Mittel, um dieses Ziel zu erreichen, eine Rolle spielen. Diese Einteilung orientiert sich stark an Rasmussens Regulationsebenen menschlicher Leistung. Dabei unterscheidet er noch die Fehler zwischen wissensbasierten und regelbasierten Fehlern. Kirwan (1994) stellte ein Verfahren zur Analyse und Bewertung menschlicher Zuverlässigkeit auf. Ausgehend von der Definition des Problemhintergrundes, wird eine Aufgabenanalyse durchgeführt, da eine einheitliche und strukturierte Beschreibung des Arbeitssystems und der auszuführenden Tätigkeit eine wichtige Voraussetzung für die Genauigkeit der Ergebnisse ist. Aufbauend auf der Aufgabenanalyse können potentielle menschliche Fehler abgeleitet werden, deren Einflüsse auf das System in einem nächsten Schritt dargestellt werden. Verfahren zur Analyse und Bewertung menschlicher Zuverlässigkeit können in quantitative und qualitative Verfahren eingeteilt werden. Wenn eine Quantifizierung der Fehler erwünscht ist, wird die Bedeutsamkeit der ermittelten Fehler untersucht und darauf aufbauend Maßnahmen zur Fehlerreduktion festgelegt. Bei Fällen, die keine Quantifizierung der menschlichen Fehler erforderlich machen, werden lediglich Maßnahmen zur qualitativen Fehlerreduktion festgelegt. Im Anschluss an die Maßnahmen zur quantitativen und qualitativen Fehlerreduktion wird eine Prognose im Hinblick auf die menschliche Zuverlässigkeit durch die eingesetzten Maßnahmen durchgeführt. Fällt das Ergebnis dieser Prognose negativ aus sind alternative Maßnahmen zur Fehlerreduktion zu definieren und zu überprüfen. Nachdem ein ausreichend hohes Maß an menschlicher Zuverlässigkeit durch die eingesetzten Maßnahmen prognostiziert werden kann, werden diese Maßnahmen umgesetzt und überwacht. Zum Schluss wird die Analyse dokumentiert. Für eine strukturierte Ablage von menschlichen Fehlerwahrscheinlichkeiten in einer Datenbank müsste eine einheitliche Definition einer von allen akzeptierten Taxonomie menschlichen Fehlverhaltens vorliegen. Dies ist jedoch nicht der Fall, so dass aus einer Vielzahl von Datenquellen unterschiedlich strukturierte Informationen über Fehlhandlungen vorliegen. Die Datenquellen sind hierbei sehr vielfältig, z.B. Feldstudien durch Messungen und Erhebungen am Arbeitsplatz, Laborstudien durch Tests und Simulatoruntersuchungen, Statistiken (Unfall-, Störmelde-, Ausfallstatistiken), Expertenschätzungen und subjektive Befragungen von Fehlerverursachern. Die Güte der mittels der einzelnen Methoden aus den verschiedenen Quellen gewonnenen Wahrscheinlichkeitsaussagen kann recht unterschiedlich sein. Dabei sind Expertenschätzungen die am wenigsten valide Datenquelle, aber auch in der Regel die einzige Möglichkeit, überhaupt irgendwelche quantifizierten Werte zu erhalten. Es existieren unterschiedliche Schätzverfahren: • Eindimensionale globale Schätzungen sind einfach zu erhalten. Sie bilden ein Gesamturteil des zu betrachtenden Merkmals ohne Differenzierungsmöglichkeiten zwischen verschiedenen Situationsaspekten oder Einflussgrößen. • Multidimensionale Verfahren fußen auf der Schätzung von Merkmalsausprägungen auf verschieden Subskalen, die anschließend gewichtet kombiniert werden, um zu einem Gesamturteil zu gelangen. • Hierarchische Verfahren: die Cooper-Harper-Skala, die zur Beurteilung von Flugeigenschaften von Flugzeugen durch Piloten entwickelt wurde, ist eines der ersten und heute noch häufig genutzten Schätzverfahren. Sie stellt eine 10-PunkteOrdinalskala dar, die in Form eines Entscheidungsbaums von den Operateuren Aussagen über bestimmte Qualitäten des untersuchten Merkmals fordert. Eine Aufgabe kann als diskret betrachtet werden, wenn ihr Inhalt über einen definierten Start- und Endpunkt verfügt. Mit Bezug auf diese Definition berechnet sich die menschliche Fehlerwahrscheinlichkeit über die angegebene Formel. Aufgaben wie die Stabilisierung von Fahrzeugen oder das Tracking von Objekten mit den Augen etc. sind als zeitkontinuierliche Aufgaben bekannt. Wenn der Prozess in jeder Zeitschicht als unabhängig von der Vergangenheit angesehen werden kann, kann er über die Poisson-Gleichung nachgebildet werden. Personelle Mehrfachbesetzung: In den meisten Studien menschlicher Zuverlässigkeit wurde die Bestimmung der Fehlerwahrscheinlichkeiten reduziert auf das Verhalten einzelner unabhängiger Operateure. Aber gerade bei Aufgaben, die gemeinsam bearbeitet werden, z.B. ein 2Mann-Konzept, steigert sich die Zuverlässigkeit durch die gegenseitige Überwachung der Tätigkeiten des anderen und umgekehrt. THERP ist die wohl am bekanntesten und am weitesten verbreitete Methode zur Abschätzung der Systemkomponente „Mensch“ im Rahmen von Zuverlässigkeitsanalysen von Mensch-Maschine-Systemen. Swain gilt dabei als der eigentliche Entwickler der Methode. Seit den 1960er Jahren wurde dieses Verfahren ständig fortentwickelt und in Zuverlässigkeitsanalysen einer Vielzahl sowohl militärischer als auch kerntechnischer Anlagen eingesetzt. Die Methode orientiert sich stark an der Vorgehensweise der technischen Zuverlässigkeit, wobei Swain und Guttman Modifikationen vorgenommen haben, die die größere Variabilität, geringere Vorhersagbarkeit und stärkere Abhängigkeit menschlicher Leistung im Vergleich zu technischen Einrichtungen berücksichtigt. Die zu analysierenden Systemfunktionen werden häufig in Form sogenannter Ereignisablaufdiagramme dargestellt. Das Modell kognitiver Zuverlässigkeit (Human Cognitive Reliability, kurz HCR) von Hannamann ist an den drei Regulationsebenen menschlicher Leistung orientiert. Allerdings zielt das HCR-Modell auf quantitative Prognosen über die Wahrscheinlichkeit einer erfolgreichen Handlung in Abhängigkeit der normierten Ausführungszeit (tn) ab. tn ist der Quotient aus dem Zeitfenster, das dem Operateur zur Situationsdiagnose zur Verfügung steht, und dem Median der durch Simulatorversuche, Aufgabenanalysen und Expertenbefragungen gewonnenen Reaktionszeiten. Die Input-Parameter des HCR Modells sind: • Verteilungsparameter abhängig von den drei Arten kognitiven Verhaltens: fertigkeits-, regelund wissensbasiertes Verhalten (Definitionen laut Rasmussen) • Der Mittelwert der Reaktionszeit • Die Ausführung beeinflussende Faktoren K, wie Erfahrung, Beanspruchung (Stress) und Qualität der Mensch-Maschine-Schnittstelle. Mit Hilfe dieser Parameter und den in der Folie genannten Formeln, kann die zeitabhängige Funktion R(t) für verschiedene Konditionen, unter welcher eine Aufgabe ausgeführt wird, berechnet werden. R steht für Reliability, auch als „Überlebenswahrscheinlichkeit“ bekannt. Der Zusammenhang mit der Verteilungsfunktion ist durch R(t) = 1 – F(t) gegeben. Das Ergebnis ist eine Kurve, welche die Wahrscheinlichkeit für nicht erfolgreiches Reagieren darstellt. Bei der zusammenfassenden Beschreibung menschlicher Fehler wurde im Wesentlichen zwischen den Hauptursachen „Mensch“ und „Arbeit“ und der Auftretensart „zufällig“ und „systematisch“ unterschieden. Vermeidung Systematische Fehler: Benutzerzentrierte Gestaltung: Anpassung der technischen Systeme an die Fertigkeiten und Fähigkeiten des Menschen sowie seine physiologischen Eigenschaften Vermeidung von physischer und psychischer Fehlbeanspruchung Anthropometrische Gestaltung: Ermüdungsfreiheit, Sichtbarkeit und Erreichbarkeit von Anzeigen und Stellteilen Informationstechnische Gestaltung: Anpassung informatorischer Aufgaben an die Eigenschaften und Kapazität der menschlichen Informationsverarbeitung; Erkennen von Anzeigen, Kompatibilität von Aufgaben, Anzeigen und Stellteilen, Rückmeldung des Systemzustands, Selbstbeschreibungsfähigkeit, Lernförderlichkeit. Physikalische Umwelteinflüsse: Lärm, Strahlung, Schwingung, etc. Personelle und organisatorische Maßnahmen: Aufbau- und Ablauforganisation, Qualifikation und Auswahl, Qualifizierung, Aus- und Weiterbildung. Soziale Einflüsse: Hierarchie, Entscheidungsspielräume, Verhalten im Team (Crew Resource Management) Vermeidung zufälliger Fehler: Zufällig erscheinende Fehler lassen sich prinzipiell nicht vermeiden; es kann durch technische Maßnahmen nur dafür gesorgt werden, dass ihre Wirkung nur geringe unerwünschte Folgen hat, z.B. ein sog. „monitives“ System durch die parallele Verschaltung der Systemelemente Mensch und Maschine. Beim Fail-Safe-Prinzip wird das System sofort beim Auftreten eines Fehlers in den sicheren Zustand überführt, z.B. FI-Schalter der Stromsicherung, Airbags, etc... Durch Redundanz wird dafür gesorgt, dass sich mehrere parallel geschaltete Systeme gegenseitig kontrollieren (m-von-n - Systeme, m 2, n 3) oder die Funktion eines ausgefallenen Systems von einem intakten System übernommen wird. Ist die Wahrscheinlichkeit für ein Schadensereignis eines Subsystems i bekannt, lässt sich die Wahrscheinlichkeit der Nichtverfügbarkeit des Gesamtsystems berechnen. Die Wahrscheinlichkeit der Nichtverfügbarkeit des Gesamtsystems ergibt sich aus dem Produkt der einzelnen Nichtverfügbarkeitswahrscheinlichkeiten der einzelnen Subsysteme. Je geringer die Anzahl der Subsysteme, desto größer ist die Wahrscheinlichkeit, dass das Gesamtsystem ausfällt (exponentieller Zusammenhang; in der logarithmischen Darstellung ergibt sich in der Visualisierung eine Gerade). Mit steigender Anzahl der Subsysteme strebt die Nichtverfügbarkeitswahrscheinlichkeit des Gesamtsystems gegen den Wert Null. Die Weibull-Verteilung ist eine statistische Verteilung, die beispielsweise zur Untersuchung von Lebensdauern in der Qualitätssicherung verwendet wird. Man verwendet sie vor allem bei Fragestellungen wie Materialermüdungen von spröden Werkstoffen oder Ausfällen von elektronischen Bauteilen, ebenso bei statistischen Untersuchungen von Windgeschwindigkeiten. Benannt ist sie nach dem Schweden Waloddi Weibull (1887-1979). Der Graph zeigt deutlich den Effekt einer redundanten Auslegung eines Systems: die Fläche über einem Intervall und unterhalb des Graphen der Dichtefunktion gibt die Wahrscheinlichkeit für den Ausfall des Gesamtsystems an. Die Bildung eines 1-von-nSystems führt also zu einer „Massenverschiebung“ nach rechts in Richtung wachsender Zeit, also längerer Lebensdauer.
© Copyright 2024 ExpyDoc