Human Error

James Reason (1990). Cambridge, MA: Cambridge University Press.


Exzerpt von

Rainer Zwisler, Februar 1994


Die Natur des Fehlers

Bereits Ernst MACH (1905) stellte fest, daß Wissen und Fehler zwei Seiten der selben mentalen Quellen darstellen; Automatisierung führen zu Slips, Begrenzungen des Arbeitsgedächtnisses zu Datenverlust usw. Fehler treten nur in einer sehr begrenzten Anzahl von Erscheinungsformen auf. Ein vorhersagbarer Fehler tritt auf, wenn die Faktoren bekannt sind, die zu seiner Entstehung führten; dabei spielen die Art der Aufgabe, die Begleitumstände, die Person des Problemlösers und die Bearbeitungsmechanismen eine Rolle.

Von einem Fehler kann nur bei intentionalem Verhalten gesprochen werden: Es muß ein bestimmter Endzustand erstrebt werden und er soll auf eine bestimmte Art erreicht werden. Intentionales Verhalten kann in folgende Kategorien eingeteilt werden:

Intentionale Handlungen ohne Absicht (spontane oder ergänzende Handlungen);

Unfreiwillige Handlungen (wird nicht zu den Fehlern gerechnet);

Unbeabsichtigte Handlungen: (1) die ihr erwünschtes Ziel doch erreichen und (2) die das Ziel nicht erreichen (hochautomatisierte Tätigkeiten, bei denen die Aufmerksamkeit abgelenkt wird -> Exekutionsfehler).

Beabsichtigte Handlungen, bei denen ein inadäquater Plan angewandt wird (-> Planungsfehler).

Von einem Fehler (Error) spricht man, wenn das erwünschte Ziel nicht erreicht wird und dafür kein Zufall verantwortlich ist. Slips (Ausführung nicht so wie geplant) und Lapses (Gedächtnisfehler, Schritt wird vergessen) sind Fehler in der Ausführung und/oder Speicherung einer Handlungssequenz, unabhängig davon, ob der zugrundeliegende Plan adäquat war. Mistakes sind Fehler bei der Beurteilung oder Herleitung von Wegen zur Zielereichung.

Die Klassifikation von Fehlern kann sich nach den formalen Merkmalen des Fehlers richten (Was?), nach den Umständen, unter denen Fehler auftreten (Wo?) oder nach den beteiligten kognitiven Mechanismen (Wie?). Bei der Unterscheidung nach den Stufen der Informationsverarbeitung kann man drei Arten von Fehlern unterscheiden:

Planungsfehler (Mistakes);

Speicherungsfehler (Lapses) und

Ausführungsfehler (Slips).

Zur wissenschaftlichen Erfassung und Untersuchung von Fehlern können verschiedene Verfahren eingesetzt werden:

Sammeln von Beispielen, um Regelmäßigkeiten zu entdecken;

Fragebogenuntersuchungen (Selbst-Report ist relativ stabil; die einzelnen Items sind meist positiv korreliert, was zur stress-vulnerability Hypothese führte: hoher Grad von kognitiven Fehlern im täglichen Leben korreliert mit externem Streß: möglicherweise ist sowohl die geistige Abwesenheit als auch der Streß wegen ungeeigneter Coping-Mechanismen durch bestimmte Stile des kognitiven Managements bedingt).

Laboruntersuchungen (die Forderung nach präziser Kontrolle führt aber oft zur Beschränkung auf die Untersuchung trivialer Phänomene).

Simulationsstudien (Schaffung von dynamischen, komplexen Entscheidungsaufgaben) und

Fallstudien (Untersuchung der Reports zu größeren Unfällen).

Studien zum menschlichen Fehler

Bereits um die Jahrhundertwende versuchten Forscher, die verschiedenen Arten von Fehlern zu beschreiben und die ihnen zugrundeliegenden Prozesse zu erklären:

SULLY unterschied drei Arten von Illusionen: Falsche Erinnerungen, nicht-repräsentative Erinnerungen und falsch datierte Erinnerungen.

FREUD´sche Fehlleistungen, die vom Unbewußten bestimmt werden.

MERINGER (1908) sammelte 8000 Versprecher bzw. Verschreiber.

Die Gestaltpsychologen stellten heraus, daß kleine Unregelmäßigeiten zugunsten der guten Gestalt übersehen werden.

Die Neuropsychologen LASHLEY und HEAD stellten fest, daß Bewegungsreflexe auch dann noch funktionieren, wenn kein Feedback mehr möglich ist (z.B. bei Wirbelsäulenverletzungen); die Kontrolle muß also feed forward erfolgen.

BARTLETT fand heraus, daß Erinnerungen in Richtung bestimmter Schemata verzerrt werden; dabei handelt es sich um unbewußte Gedächtnisstrukturen aus altem Wissen, die aktiv rekonstruieren.

Einige der neueren Theorien befinden sich in der Tradition der Naturwissenschaften:

Aufmerksamkeits- und Flaschenhals-Theorien gingen davon aus, daß ein Informationskanal mit begrenzter kapazität zur Verfügung steht; deshalb muß aus der eintreffenden Information ausgewählt werden. Menschen können ihre Aufmerksamkeit erstaunlich gut auf eine bestimmte Tätigkeit richten und andere Stimuli ignorieren. Die Selektivität ist aber nicht perfekt; aufgrund bestimmter physikalischer und semantischer Eigenschaften können auch die nicht beachteten Informationen "durchbrechen". Das Wechseln der Aufmerksamkeit von einer Aufgabe zu einer anderen benötigt Zeit.

Theorien zur geteilten Aufmersamkeit und zu Ressourcen halten die Aufmerksamkeit für ein einziges Reservoire an Informationsverarbeitungs-Ressourcen, das allen mentalen Operationen gleichermaßen zur Verfühgung steht. Bei der gleichzeitigen Bearbeitung verschiedener Aufgaben ist deren Ähnlichkeit der entscheidende Faktor: Hohe Ähnlichkeit führt zur Beanspruchung der selben Ressourcen und somit zur wechselseitigen Interferenz.

Mehrkanal-Prozessor-Theorien glauben, daß bei der Bearbeitung einer komplexen Aufgabe mehrere unabhängige Spezialisten (spezialisierte Prozessoren) beteiligt sind, die auch bei anderen Aufgaben eingesetzt werden können; sie sind wahrscheinlich hierarchisch organisiert unter der Leitung eines central executive.

Die wichtigsten Eigenschaften des primären Gedächtnisses bestehen in der Beschränkung der Kapazität auf etw 7 unverbundene Items und dem Mechanismus des Chunking. Durch den akustischen Ähnlichkeitseffekt wird die Gedächtnisspanne erheblich reduziert und allgemein tritt ein Wortlängeneffekt (weniger behaltensleistung bei Wörtern, die zur Aussprache mehr Zeit benötigen) auf. Dies führte zu der These, daß die zu merkenden Items subvokal wiederholt werden.

Nach BADDELEY besteht das Arbeitsgedächtnis aus einem Central executive (Kontrolleinheit mit begrenzter Kapazität; Aufmerksamkeit und Bewußtheit), der articulatory loop und dem visuospatial scratchpad. Letztere umfassen jeweils einen passiven Speicher und einen aktiven Rehearsal-Prozeß und funktionieren unabhängig voneinander.

Nach BRUNER können viele der menschlichen Strategien und "Abkürzungen" bei der Bearbeitung komplexer Aufgaben als Mittel betrachtet werden, die kognitive Belastung bzw. die Belastung des Arbeitsgedächtnisses zu minimieren.

Die nächste Stufe der Theorien ergab sich aus der Richtung der Kognitionswissenschaften:

Die Schematheorien von MINSKY, RUMELHART und SCHMIDT sehen in Schemata Gedächtnisstrukturen, die in einzelnen Slots Variablen enthalten, deren Wert entweder aus der Umwelt bzw. dem Gedächtnis abgelesen wird oder aber durch Default-Werte ersetzt wird. Auf diese Weise werden die Regelmäßigkeiten der Welt erfaßt. Andere Varianten sind Scripts,Prototypen oder Personae. Systematische Fehler können sich auf drei Arten ergeben: (1) Die Daten werden in das falsche Schema gesteckt; (2) Statt dem Einsetzen potentiell verfügbarer Information werden zu viele Default-Werte verwendet; (3) Aktive oder saliente Schemata werden zu leichtgläubig verwendet.

Normative Theorien, nach denen Fehler als Irrationalität oder Unaufmerksamkeit des Wahrnehmenden betrachtet wurden, wurden langsam widerlegt: Menschliche Entscheidungen sind oft auf bestimmte Bereiche fixiert, die aus subjektiver Perspektive unabhängig von anderen Entscheidungen gesehen werden; es wird nur eine begrenzte Menge erreichbarer Alternativen betrachtet; beim hindsight bias werden nach einer Entscheidung die zur Entsceidung führenden Informationen überbewertet; die begrenzte Rationalität (bounded rationality nach SIMON; also die Begrenzungen der kognitiven Kapazität) führt dazu, daß satisficing behavior vorherrscht: Man bemüht sich nur so lange, bis ein akzeptabler Zustand erreicht wurde. Unrationales Verhalten läßt sich bei deduktiven Aufgaben nachweisen, wo negative Evidenz kaum beachtet wird. Das Entscheidungsverhalten wird eher durch similarity matching als durch logische Überlegungen bestimmt. Beim Treffen diagnostischer Entscheidungen sollten nach der Theorie von BAYES die gegebene a priori-Information, die spezifische Evidenz und die bekannte Power des Tests verrechnet werden. Tatsächlich haben aber die representativeness Heuristik (Ähnliches verursacht Ähnliches) und die availability Heuristik (leicht abrufbare Dinge werden für häufiger gehalten) einen wesentlichen Einfluß.

Reluctant Rationality geht davon aus, daß mit der Aufnahme neuer Informationen und dem analytischen Treffen von Entscheidungen kognitive Kosten verbunden sind, die nach Möglichkeit vermieden werden. Nach dem Prinzip der Verisimilitude (in der Vergangenheit relevante Cues werden bevorzugt) werden Zuordnungen zu Kategorien getroffen. Auf diese Weise werden potentiell ergiebige Betrachtungen der Umwelt eingeschränkt.

Irrationalität läßt sich zum Beispiel beim Treffen von Entscheidungen in Gruppen feststellen.

Der General Problem Solver basiert auf Problemräumen, Wissenszuständen und einer Menge von Oeratoren; das Problem läßt sich in einem problem behavior graph darstellen. Bei der Lösung wird nach dem Prinzip der Means-End-Analyses vorgegangen.

RASSUMSSEN unterschied drei Arten des Verhaltens: Die Skill based Ebene bezieht sich auf gespeicherte Muster vorprogrammierter Anweisungen. Die Stufe des Rule based Verhalten verwendet gespeicherte Produktionen (Regeln: Wenn ... Dann ...) zur lösung. Zur Knowledge based Stufe werden in neuartigen Situationen analytische Prozesse und gespeichertes Wisssen angewandt.

Nach dem Fuzzy-Rule Modell von ROUSE verhalten sich Menschen eher als kontextspezifische Mustererkenner als als Problemlöserer oder Optimierer. Eine Regel wird angewandt,wenn sie verfügbar, momentan anwendbar, erfolgsversprechend und einfach ist; diese Kriterien sind aber fuzzy.

Modelle zum Paralled Distributed Processing (RUMELHART) gehen von einer großen Anzahl untereinander verbundener Prozessoren aus. Es kann zwar plangeleitetes Verhalten weniger gut simuliert werden, dafür aber graceful degradation, d.h. der Umgang mit teilweise verzerrtem Input.

In der heutigen Kongnitionspsychologie wird auch versucht, übergreifende Theorien zu finden, die in einer relativ allgemeinen Sprache die wesentlichen Merkmale der menschlichen Informationsverarbeitung beschreiben.

Leistungsstufen und Fehlertypen

Entsprechend der Klassifikation nach RASMUSSEN können drei grundsätzliche Fehlertypen unterschieden werden:

Skill-based level -> Slips und Lapses (SB)

Rule-based level -> Rule-based mistakes (RB)

Knowledge-based level -> Knowledge-based mistakes (KB)

SB-Fehler treten nur dann auf, wenn die Aufmerksamkeit von der entsprechenden Tätigkeit abgelenkt wird. RB- und KB-Verhalten treten nur dann in Erscheinung, wenn sich das Individuums eines Problems bewußt ist; hier ist also Aufmerksamkeit Voraussetzung. SB- und RB-Verhaltensweisen werden durch feedforward Kontrolle aus gespeicherten Wissensstrukturen (motorische Programme, Schemata, Regeln) gesteuert; es handelt sich um datengesteuertes (data driven) Vorgehen. Auf der KB-Stufe erfolgte doe Kontrolle dagegen über Feedback: Auf einem mentalen Modell oder Problemraum soll die Zieldistanz verringert werden; dieses Verhalten ist fehlergesteuert (error driven).

Fehler auf der SB- oder RB-Stufe haben meist die Form von starken aber falschen Routinen. Auf der KB-Stufe dagegen erscheinen die Fehler denen von Novizen ähnlich, da das Repertoire an "Experten-Regeln" aufgrund neuartiger Situationsanforderungen nicht eingesetzt werden kann. Die wesentlichen Unterschiede in der Expertise können deshalb auf den SB und KB Stufen gefunden werden: Expertise besteht darin, eine große und breitgefächerte Menge an Routinen zur Verfügung zu haben. Die Regeln der Experten sind außerdem abstrakter formuliert.

Wenn man das Verhältnis der tatsächlich gemachten Fehler zu den potentiell machbaren betrachtet, treten auf den SB- und RB-Stufen wesentlich weniger Fehler auf. als auf der KB-Stufe. Absolut gesehen ist es dagegen umgekehrt.

SB-Fehler werden vor allem durch Ablenkung der Aufmerksamkeit und Stärke der assoziierten Schemata hervorgerufen. Bei RB-Fehlern ist es wahrscheinlich ähnlich; es ist anzunehmen, daß die Regeln entsprechend ihrer Stärke in einer Prioritäts-Liste angeordnet sind. Es kommt darauf an, welche andere Regel durch die in der Situation enthaltenen Hinweisreize angesprochen werden könnte. Auf der KB-Stufe können die Fehler dagegen eine Reihe verschiedener Formen annehmen; wichtig dabei ist die Art, in der sowohl die Aufgabenstellung als auch die Umgebungsvariablen die begrenzten Aufmerksamkeits-Ressourcen auf relevante oder irrelevante Aspekte des Problemraums lenken.

Mistakes sind schwieriger zu entdecken als Slips; sie können nur durch die Intervention eines externen Agenten korrigiert werden. Folgende Beziehung zwischen Fehlern und Veränderungen in der Umwelt lassen sich auf den verschiedenen Stufen ausmachen:

Bei SB-Fehlern setzen die fehlerauslösenden Veränderungen die Abweichung von einer gut eingeübten Routine voraus. Dabei kann es sich um eine beabsichtigte Abweichung von der normalen Vorgehensweise oder um eine Veränderung in den physikalischen Umständen, unter denen die Routine ausgeführt wird, handeln. Es fehlt die Überprüfung zum richtigen Zeitpunkt, welche Alternative gerade aktuell ist.

Bei RB-Fehlern fehlt geeignetes Wissen, wann und wie genau eine Veränderung auftreten wird, auch wenn die Veränderung antizipiert wird. Fehler ergeben sich aus der richtigen Anwendung der falschen Regel oder aus der falschen Anwendung der richtigen Regel.

Bei Fehlern auf der KB-Stufe ergeben sich Fehler aus Veränderungen in der Welt, die unvorhergesehen und unvorbereitet auftreten. Deshalb muß auf fehlerträchtiges on-line Problemlösen zurückgegriffen werden.

Das General Error-Modelling System (GEMS) beschreibt folgende Überwachungsfehler: Es wird überprüft, ob die momentanen Aktionen gemäß den Plänen ablaufen und ob der Plan für das erwünschte Ergebnis auch noch zielführend ist. Slips können darauf zurüchzuführen sein, daß kein aufmerksames Überprüfen stattfinden (inattention) oder daß die aufmerksame Überprüfung zu einem ungünstigen Zeitpunkt stattfindet (overattention). Beide Fehlermöglichkeiten resultieren aus einem in bezug auf die momentanen Aufgabenanforderungen falschen Kontrollmodus. Folgende Problemlösefehler können auftreten: Wenn Menschen mit einem neuen Problem konfrontiert werden, neigen sie stark dazu, eine vorgefertigte Lösung auf der RB-Stufe zu suchen und zu finden, bevor die anstrengendere KB-Stufe aktiviert wird. Auch auf der KB-Stufe können dann aber noch Fehler auftreten, da nach Hinweisreizen gesucht wird, die an früher erfolgreich eingesetzte Regeln erinneren, die dann an die monentane Situation angepaßt werden könnten.

Der Wechsel zwischen verschiedenen Stufen kann folgendermaßnen beschrieben werden: Wenn bei der Ausführung von SB-Regeln Abweichungen vom aktuellen Plan auftreten, wird der RB-Level aktiviert. Der Wechsel von RB nach KB tritt ein, wenn der Problemlöser feststellt, daß keine der bekannten Regeln für die Problemlösung geeignet ist. Die Aktivität auf der KB-Stufe wird beendet, wenn eine geeignete Lösung gefunden wurde, also einPlan, der aus SB-Aktionen besteht. Bei der Ausführung dessen muß wahrscheinlich zwischen der KB- und der SB-Stufe hin- und hergeschaltet werden. Ein Handlungsplpan besteht aus einer überarbeiteten Theorie von der Weltt; Bestätigungstendenzen werden zu dessen Beibehalten führen, auch wenn gegenteilige Evidenz auftritt.

Fehlerarten auf der Skill-based Ebene

Unaufmerksamkeit

Fehler durch Doppelaufmerksamkeit: Wenn ein Großteil der begrenzten Aufmerksamkeit benötigt wird, um die Handlung in die momentan gewünschte Richtung zu bringen, kann die Verwechslung zwischen zwei getrennten aber ähnlichen Prozessen eintreten. Die Kontrolle über die handlung wird von dem stärksten Schema, das von dem momentanen Punkt in der Handlungssequenz weiterführt, übernommen; meist kommt es deshalb zu strong habit intrusion: alte Gewohnheitten schleichen sich ein. Es kann auch zu Verzweigungsfehlern oder zum Überrennen einer Stop-Regel kommen. Schließlich kann man auch übersehen, zum richtigen Zeitpunkt die Notwendigkeit der Änderung zu registrieren.

Vergessen nach Unterbrechungen: Das Vergessen einer aufmerksamen Überprüfung (attentional check) kann auch durch externe Ereignisse ausgelöst werden. Eine Routine zur Behebung eines Planfehlers kann als restlicher Teil des Plans interpretiert werden; der eigentliche Plan wird dann nicht an der unterbrochenen Stelle fortgeführt.

Verminderte Intentionalität: Bei einer Zeitverzögerung zwischen dem Beschließen eines Plans und dem Beginn von dessen Ausführung kann es zum Versagen des prospektiven Gedächtnisses kommen: Verschobene Absichten (Fenster statt Türe schließen), umgebungsbedingte Ablenkung (im Bad die Haare richten statt etwas holen), mehrfache Seitenschritte oder die Gefühle des Was-Tu-Ich-Hier oder Was-wollte-ich-denn-tun.

Wahrnehmungs-Verwirrungen: Objekte, die dem benötigten ähnlich sehen, am selben Ort ind oder eine ähnliche Funktion haben, werden fälschlicherweise verwendet.

Fehler durch Interferenz: Zwei simultane Pläne (oder zwei gleichzeitige Handlungselemente innerhalb eines Plans) können zu einer Vermischung der ausgeführten Handlungen führen.

Überaufmerksamkeit (Wird die Aufmerksamkeit auf einen automatisch ablaufenden Prozeß gerichtet, kann dieser dadurch gestört werden)

Auslassungen: Man glaubt, der Prozeß sei schon weiter vorangeschritten als er es tatsächlich ist und läßt deswegen die Zwischenschritte aus.

Wiederholungen: Man glaubt, den tatsächlich vorliegenden Zustand noch nicht erreicht zu haben und führt deshalbt einige Schritte doppelt aus.

Umkehrung: Es kann sogar vorkommen (selten), daß der gesamte bisherige Prozeß rückgängig gemacht wird.

Fehlerarten auf der Rule-based Ebene

Ob eine Regel angewandt wird, hängt von folgenden Faktoren ab:

Die Bedingung muß erfüllt sein;

Die Regel muß stark genug sein (in der Vergangenheit oft genug gefeuert haben);

Je spezifischer die Regel ist, desto wahrscheinlicher feuert sie;

Die Menge an Unterstützung durch andere Regeln.

Zur Erstellung einer spezifischern regel ist es notwendig, daß die Anwendung einer allgemeineren Regel fehlgeschlagen hat.

Fehlanwendung geeigneter Regeln

Erste Ausnahmen: Die ersten Gelegenheiten, bei denen eine neue Ausnahme auftritt, werden wahrscheinlich zu Fehlern führen; dies gilt insbesondere, wenn die Regel in der Vergangenheit immer korrekt feuerte.

Gegen-Zeichen und Nicht-Zeichen: Situationen, die Ausnahmen von einer allgemeinen Regel erfordern, werden oft nicht eindeutig als solche erkannt. Folgende Arten der Information wären anwesend: Signs (Input, der den Bedingungen der geeigneten Regel entspricht), Countersigns (Input, der anzeigt, daß die Regel nicht anwendbar ist) und Nonsigns (Input, der die momentane regel nicht betrifft; Noise).

Zu viel Information: erschwert das Erkennen der Gegen-Zeichen.

Stärke der Regel: Je stärker eine Regel ist, desto weniger Übereinstimmung der Bedingungen mit der Situation ist notwendig.

Allgemeine Regeln: sind wahrscheinlich stärker, da sie öfter angewandt werden.

Redundanz: Wiederholtes Auftreten einer Problemkonfiguration, führt dazu, daß charakteristische Folgen oder Gruppiereungen von Zeichen erlernt werden. Die diagnostische Information wird aus wenigen Schlüsselreizen gezogen, andere Zeichen werden dagegen immer weniger beachtet, obwohl auch sie wertvolle Information enthalten.

Starrheit: Bei der Anwendung von Regeln herrscht "kognitiver Konservatismus" vor (Umschüttaufgabe von LUCHINS und LUCHINS).

Anwendung ungeeigneter Regeln

Encodierungsprobleme: Merkmale einer bestimmten Situation werden entweder gar nicht repräsentiert (bei bestimmten Phasen des Erwerbs von komplexen Fertigkeiten sind die kognitiven Anforderungen so hoch, daß nicht alle Komponenten beachtet werden können) oder im Wenn-Teil einer Regel falsch repräsentiert. Entweder werden Eigenschaften des Problemraums nicht genau enkodiert oder eine falsche allgemeine Regel wird durch die Existenz richtiger domänenspezifischer Spezialfälle "geschützt".

Handlungsprobleme: Der Dann-Teil einer Regel ist ungeeignet (systematische Mißverständnisse), nicht elegant (in einer nachsichtigen Umgebung oder durch Abwesenheit eines Lehrers können sich solche Regeln etablieren) oder nicht ratsam (da ihre Ausführung gefährlich ist).

Fehlerarten auf der Knowledge-based Ebene

Selektivität (Fehler können auftreten, wenn die Aufmerksamkeit auf die falschen Merkmale oder nicht auf die richtigen Merkmale gerichtet wird.)

Arbeitsspeicherbeschränkungen (Um zu überprüfen, ob eine Folgerung richtig ist, müssen verschiedene mentale Modelle zur Erklärung der Daten erstellt werden; dadurch wird das Arbeitsgedächnis stark beansprucht. Elemente können nach dem first-in-first-out-Prinzip verloren gehen)

Aus-den-Augen-aus-dem-Sinn (Faktoren, die zuerst ins Gedächtnis kommen, werden überproportional gewichtet; nicht sofort präsente Faktoren werden ignoriert)

Confirmation Bias (bei Ambiguitäten werden verfügbare Interpretationen bevorzugt)

Overconfindence (die eigenen Pläne werden überzuversichtlich als korrekt betrachtet; vor allem die Pläne bestätigende Evidenz wird beachtet)

Biased Reviewing (rückblickend fällt nicht mehr ein, daß das Arbeitsgedächtnis begrenzt war und dessen Inhalte deswegen sich schnell ändernde Fragmente waren anstelle von systematischen Betrachtungen des relevanten Materials)

Vermeintliche Korrelation (Menschen haben nur ein geringes Verständnis von Kovariation)

Halo-Effekte (einfache Ordnungen werden diskrepanten vorgezogen)

Probleme mit Kausalität (Kausalitäten werden zu sehr vereinfacht; Unregelmäßigkeiten in der Zukunft werden unterschätzt; Verzerrungen durch die Repräsentativitäts- und Verfügbarkeits-Heuristik; hgindsight bias; illusion of control)

Probleme mit Komplexität

Probleme mit verzögertem Feedback: Bei nur minimaler Verzögerung des Feedback tritt bei der Steuerung komplexer Systeme kaum Lerngewinn auf.

Ungenügende Betrachtung der zeitlichen Prozesse: VPn sind mehr daran interessiert, wie die Dinge momentan stehen, als wie sie sich entwickelt haben.

Schwierigkeiten mit exponentiellen Entwicklungen: VPn haben kein intuitives Gefühl für exponentielle Entwicklungen, die Veränderungsrate wird immer unterschätzt.

Denken in kausalen Reihen statt in kausalen Netzen: Das Denken in linearen Systemen wird bevorzugt. Deshalb werden vor allem die Haupteffekte der Handlungen betrachtet, weniger die Seiteneffekte.

Abschweifen vom Thma: VPn mit schlechter Leistung bei der Steuerung komplexer Systeme (Lohausen) springen von einem Punkt zum nächsten, wobei jeder nur oberflächlich behandelt wird.

Encysting: Einzelne Details werden genau bearbeitet, wichtigere Themen dagegen übergangen.

Intellektuelle Notfallreaktionen zeichnen sich nach DOERNER durch eine Reduzierung des intellektuellen Niveaus aus: Das Denken reduziert sich zu reflexhaftem und stereotypen Verhalten. Die Erfahrung wiederholten Versagens führt insbesondere bei schlechten Systemsteuerern dazu, daß sie risikoberreiter werden, um die Situation um jeden Preis zu meistern. Alle Phänomene werden auf eine einzige Ursache zurückgeführt; die Bedeutung des Confirmation Bias nimmt noch zu.

Nach GROENEWEGEN und WAGENAAR (1988) liegt die Wurzel der Probleme bei der Diagnose im täglichen Leben in der komplexen Interaktion von zwei logischen Entscheidungsaufgaben:

(1) Identifikation der kritischen Symptome und der erklärungsbedürftigen vorliegenden Elemente;

(2) Verifizierung, ob die Symptome erklärt wurden und ob die Faktoren der Situation mit dem favorisierten Erklärungsschema vereinbar sind.

Cognitive Underspecification und Fehlerformen

Grundthese dieses Abschnitts ist, daß nicht genügend spezifizierte kognitive Operationen dazu führen, Reaktionen mit einer hohen Auftretenswahrscheinlichkeit hervorzurufen; dabei handelt es sich um eine adaptive Strategie, da die Welt sowohl eine große Menge an Regelmäßigkeiten als auch an Unsicherheit enthält. Ähnlichkeits- und Häufigkeitsinformationen scheinen automatisch und ohne kognitive Anstrengung verarbeitet zu werden, unabhängig vom Alter, dem kulturellen Hintergrund, der Motivation oder der Instruktion.

Die Spezifikation mentaler Operationen

Schemata werden sowohl durch spezifische als auch durch allgemeine Faktoren ausgelöst. Spezifische Aktivatoren rufen ein Schema zu einem bestimmten Zeitpunkt ins Leben; darunter fallen die momentane Intention, der gegenwärtige Kontext und verwandte Schemata. Je häufiger ein Schema ausgelöst wird, eine destoweniger detaillierte Beschreibung ist zur Auslösung notwendig.

Allgemeine Aktivatoren sorgen für die Hintergrundaktivierung eines Schemas unabhängig vom momentanen Kontext: Recency, Häufigkeit, mit anderen Schemata gemeinsame Elemente und die affektive Ladung spielen dabei eine Rolle.

Die Beschreibungen eines Schemas sind also kontextabhängig. Wenn ein bestimmter Kontext identifiziert wurde, ist die Menge der möglicherweise anwendbaren Schemata dadurch schon stark eingegrenzt. Jedes Schema wurde ursprünglich in einem bestimmten Kontext erworben; die kontextuelle Information bildet somit einen Teil des "Wissens" des Schemas. Der Kontext enthält dabei sowohl physikalische Merkmale der Umwelt als auch semantische Bestandteile; letzteres läßt sich z.B. durch Primingeffekte bachweisen (phonologische Primingefekte sind auf eine bestimmte semantische Subdomäne beschränkt): In einer Studie von REASON & MACKINTOSH (1986) zeigte sich, daß im geeigneten semantischen Kontext die Wahrscheinlichkeit des Primings mit der Anzahl der Primes zunahm und daß kaum Begriffe aus einem anderen (semantischen) Kontext geprimt wurden.

Beispiele von Unterspezifizierung

Folgende empirischen Befunde zur Unterspezifizierung bzw. zu Häufigkeitseffekten sind bekannt:

Der oft gefundene Worthäufigkeitseffekt besteht darin, daß tachistoskopischer oder verzerrter Darbietung gebräuchliche Wörter schneller erkannt werden als seltene.

Beim Wiedererinnern einer Liste von Wörtern werden häufige Wörter mit höherer Wahrscheinlichkeit erinnert und häufige Wörter schleichen sich öfter fälschlicherweise als intruders ein.

Sollen nach der Nennung eines Kategorienamens möglichst viele Exemplare aus der entsprechenden Kategorie generiert werden, läßt sich eine hohe Korrelation zwischen der Dominanz (Häufigkeit, mit der ein Item in einer Gruppe von VPn generiert wird) des jeweiligen Items und der Position, an der es abgerufen wurde, feststellen: Die beliebtesten Items werden als erste genannt. Die zuerst genannten Items werden als "frischer" (recent), häufiger, bekannter und affektiv geladener als später genennte Beispiele bezeichnet. Hieraus resultiert die Annahme, daß Unterspezifizierung dazu führt, daß das am meisten aktivierte Schema ins Gedächtnis gerufen wird.

Beim Tip-Of-The-Tongue-Phänomen zeigt sich, daß immer wiederkehrende Eindringlinge sehr häufig abgerufene Wörter sind, die außerdem eine gewisse strukturelle Ähnlichkeit (z.B. im Wortklang) zu dem eingentlich gesuchten Begriff aufweisen.. Dieses TOT-Phänomen ist ähnlich den strong habit intrusions bei Handlungsfehlern.

Versprecher zeigen eine deutliche Ähnlichkeit zwischen der aktuellen und der eigentlich beabsichtigten Äußerung.

Slips of action treten meist bei der Ausführung hochautomatisierter Handlungen in vertrauter Umgebung auf, wenn gleichzeitig die Aufmerksamkeit abgelenkt ist. Die versehentlich ausgeführten Tätigkeiten wurden dabei oft erst kürzlich und häufig ausgeführt und teilen mit der beabsichtigten Handlung ähnliche Orte, Bewegungen und Objekte.

Fehler des prospektiven Gedächtnisses sind relativ häufig.

Beim Planen muß von Unterspezifikation ausgegangen werden, da die Zukunft immer etwas unsicher ist. Für die zukünftigen Handlungen werden entweder sehr saliente (lebhafte) oder sehr vertraute Szenarios ausgewählt.

Auch bei bestimmten patholoischen Erscheinungsformen lassen sich Häufigkeitseffekte finden: Bei Schädigungen des Frontallappens werden die eigentlich auszuführenden Aktionen durch ungeeignete häufig gebrauchte stereotype Reaktionen ersetzt. Viele der scheinbar bizarren schizophrenen Gedanken beruhen auf sehr häufigen Assoziationen.

Das kognitive System erzeugt also oft vertrautere und häufigere Antworten als die eigentlich gesuchten und für richtig gehaltenen und und es ist auf zwei Arten kontextgebunden: Die generierten Antworten entsprechen sowohl der momentanen physikalischen Situation als auch dem semantischen Kontext der beabsichtigten Handlung.

Gedächtnissuche und Abruf

Bei der konvergenten Suche im Gedächtnis wird von mehreren spezifischen Merkmalen ausgehend ein Begriff gesucht, auf den diese zutreffen. Hierbei ist die Heuristik des similarity matching dominierend. Bei der divergenten Suche sollen Exemplare aus einer Kategorie generiert werden; dabei kommt vor allem frwequency gambling zum Einsatz.

Beim Abruf von Wissen sind vier Prozesse notwending: Die subjektive Sicherheit, etwas zu wissen; das Beurteilen, ob die gefundenen Schemata passen (frequency matching); von den erzeugten Kandidaten wird der häufigste ausgewählt (frequency gambling); über Inferenzen kann nicht direkt vorhandenes Wissen erzeugt werden.

Unter epistemischer Bewußtheit versteht man das subjektive Gefühl, etwas zu wissen. Nach dem Modell von GLUCKSBERG & McCLOSKEY (1981) wird bei der Gedächnissuche erst überprüft, ob Information vorhanden ist; wenn nicht, wird schnell eine "Ich weiß es nicht"-Entscheidung getroffen. Wenn aber relevante Fakten gefunden werden, müssen diese genauer betrachtet werden, ob sie eine Antwort auf die gestellte Frage darstellen. Das anfängliche Gefühl, etwas zu wissen, hängt damit zusammen, wie oft einem Item in der Vergangenheit begegnet wurde: Es wird angenommen, daß die VPn "Häufigkeitslandkarten" der semantischen Regionen bilden und abscannen.

Beim Similarity matching wird durch eine Frage eine Menge von Abrufreizen an das Langzeitgedächtnis gesendet. Dadurch werden automatisch gespeicherte Items aktiviert, die die Attribute besitzen und ganz oder teilweise den Abrufbedingungen entsprechen.

Beim Frequency gambling wird aus einer Menge möglicher Kandidaten derjenige ausgewählt, dem häufiger begegnet wurde.

Beim Abruf aus dem Gedächtnis kommt es also zu einer komplexen Interaktion der drei folgenden Suchmechanismen: similarity matching, frequency gambling und Inferenz. REASON, HORROCKS & BAILEY (1986) konnten zeigen, daß die Menge an frequency gambling bei allgemeinen Wissensfragen mit dem von dem Probanden verfügbaren relevanten Wissen abnimmt: Je mehr die VPn wußten, desto weniger mußten sie die Antwort unter Einsatz der frequency gambling Heuristik lösen.

In einer weiteren Untersuchung wurde gezeigt, daß similarity matching die vorherrschende Strategie ist, wenn die Abrufreize nur ein einziges Item spezifizieren und wenn es eine große Menge an gespeicherten Items gibt. Frequency gambling wird dagegen vor allem dann verwendet, wenn keine eindeutigen Abrufreize vorliegen oder wenn die VP nur wenig relevantes Fachwissen besitzt.

Design einer fehlbaren Maschine

Ziel dieses Kapitels ist es, eine informationsverarbeitende Maschine zu beschreiben, die meistens korrekt arbeitet, aber gelegentlich auch falsche Antworten produziert, die auch für menschliches Verhalten charakteristisch sind. Sie besteht im wesentlichen aus einem Arbeitsgedächtnis WM (working memory, WM) und einer Wissensbasis (knowledge base, KB); das WM wird weiter in das focal working memory (FWM), mit begrenzter Kapazität und Arbeitsweise in Entscheidungszyklen, und das peripheral working memory (PWM) unterteilt, das Daten aus der KB und dem sensorischen Input selektiert, um sie ins FWM gelangen zu lassen. Visuelle Information wird beim Zugang zum PWM vor anderen Arten bevorzugt; vor allem Veränderungen in der momentanen Umwelt werden wahrgenommen; der Zugang zum PWM ist verzerrt in Richtung der Informationen, die den momentanen Inhalten entsprechen. Die Aktivierung der Informationselemente im FWM wird durch die Aktivierung der Wissenseinheiten, aus denen sie stammen, bestimmt. Das PWM enthält auch Subsysteme, wie die articulatory loop oder das visuo-spatial scratch pad.

In der Wissensbasis werden die einzelnen Wissenseinhaiten abgespeichert; die Kapazität und die Dauerhaftigkeit dieser Informationen sind im wesentlichen unbegrenzt. Der Abruf erfolgt parallel, verteilt und automatisch; es kommen die Mechanismen des similarity-matching, frequency-gambling und der gesteuerten Suche zum Einsatz.. Was nach außen hin den Eindruckt erweckt, die Wissensbasis wäre in Kategorien organisiert, ist ein Resultat des Abrufsystems, nicht einer hierarchischen Struktur oder Modularität der Wissensbasis selbst. Wird Wissen wiederholt durch das FWM geleitet, wird es zu größeren Einheiten zusammengefaßt (kompiliert). Jede Wissenseinheit besitzt einen gewissen modifizierbaren Grad der Aktivierung; überschreitet dieser Grad eine bestimmte Schwelle, wird eine Produktion gefeuert. Der letzte Zyklus des FWM wird in einem Pufferspeicher gehalten; bei allen gespeicherten Wissenseinheiten, die denen im Puffer entsprechen, wird die Aktivierung gesteigert. Die allgemeine Aktivierung, die unbegrenzt ist, hängt vor allem von der Häufigkeit der bisherigen Anwendung ab. Die aufmerksamkeitsbedingten Aktivatoren werden aus einem streng begrenzten Pool gezogen; werden dessen Grenzen überschritten, wird die Kontrolle standardmäßig an aktive Wissenseinheiten gegeben, die wahrscheinlich für den Kontext geeignet und häufig verwendet sind.

Der sensorische Input (input function, IF) wird in das periphere Arbeitsgedächtnis geleitet; die Outputfunktion (output function, OF) besteht in der Umwandlung gespeicherter Instruktionen in Programme für die Effektoren oder in dem Richten der Aufmerksamkeit auf neuen sensorischen Input.

Intentionale Aktivitäten kommen dadurch zustande, daß die begrenzten Ressourcen der Aufmerksamkeit dazu verwendet werden, ein bestimmtes Element im FWM zu halten, so daß die Aufmerksamkeit auf eine begrenzte Menge von Wissensstrukturen gerichtet bleibt. Ein weiteres wichtiges Merkmal dieses Modells ist, daß die Information gleichzeitig vom Arbeitsgedächtnis und von der Wissensbasis verarbeitet wird. An zwei Stellen kann fuzziness auftreten:

(1) Die mit einer bestimmten Problemstellung assozierten Abrufbedingungen können auf mehrere oder keine gespeicherte Strukturen passen; sie können aber auch verzerrt, nicht beachtet oder abwesend sein.

(2)Die gespeicherten Wissensstrukturen können unvollständig (nicht alle Fakten bekannt), falsch oder fehlend sein.

Der mit diesem Modell, das in PROLOG implementiert wurde, erreichte Fit war für die Aufgabe, Präsidentennamen zu erinnern, erstaunlich gut: Koeffizienten der Korrelation zwischen dem Output des Modells und den Antworten der VPn lagen zwischen .85 und .87 (die Korrelation zwischen zwei menschlichen Stichproben lag auch nur bei .96).

Das Entdecken von Fehlern

Zum Entdecken von Fehlern liegen bisher nur relativ wenig empirische Untersuchungen vor. Die kognitiven Mechanismen zum Entdecken von Fehlern sind in fast allen Fällen erfolgreich. RIZZO fand folgende Verteilungen:

SB-Fehler: 60.7% der Fehler; Entdeckung in 86.1% der Fälle.

RB-Fehler: 27.1% der Fehler; Entdeckung in 73.2% der Fälle.

KB-Fehler: 11.3% der Fehler; Entdeckung in 70.5% der Fälle.

Nach LEWIS und MORMAN behindern folgende kognitive Prozesse das Entdecken von Fehlern:

Relevanz-Bias: Oft wird nur ein Teil der für eine geeignete Lösung wichtigen Faktoren beachtet: nur solche Items, die für die momentane Betrachtungsweise relevant erscheinen. Evidenz gegen den momentanen Standpunkt wird geren übersehen. In einer sehr informationsreichen Umgebung (z.B. Leitstand) wird auch leicht bestätigende Evidenz gefunden.

Teilerklärungen: Menschen geben sich schon mit einer groben Übereinstimmung zwischen dem aktuellen Zustand der Welt und ihrer momentanen Theorie darüber zufrieden.

Überlappung zwischen der Welt und dem mentalen Modell: Das mentale Modell, das sich eine Person von einem bestimmten Problemraum bildet, wird wahrscheinlich größtenteils mit der realen Welt überinstimmen, auch wenn es in mancher Hinsicht falsch ist.

Schwierigkeit, häufige Fehlerformen zu entdecken: Fehler können in so vertrauter, häufig vorkommender Gestalt auftreten, daß sie von den Mechanismen, die Anweichungen zwischen Handlung und INtention überwachen sollen, nicht bemerkt weredn (USA statt UAA).

Das Entdecken von Fehlern ist durch folgende Mechanismen möglich:

Selbstbeobachtung

Die Feedback-Kontrolle ist im wesentlichen fehlergesteuert: Aktionen werden durch Abweichungen (= Fehler) vom Sollzustand erreicht. Bei der automatischen Entdeckung von Haltungsabweichungen werden als Input das visuelle System, die Haut-Muskel-Gelenk-Rezeptoren und der Gleichgewichtssinn verwendet. Jeder dieser räumlichen Sinne liefert einem "Vergleichsprozessor" (comparator) Daten, der den Grad der Übereinstimmung zwischen der Beschreibung der Körperposition und der Bewegung berechnet. Der Output wird nicht direkt an die Effektoren weitergeleitet, sondern zuerst dazu verwendet, eine innere Repräsentation der Orientierung der Position des Körpers im Raum auf den neuesten Stand zu bringen.

Die Korrektur von Fehlern bei einfachen motorischen Reaktionen erfolgt schneller als die Ausführung korrekter Antworten. Menschen entdecken Ausführungsfehler dadurch, daß sie die wahrgenommenen Ergebnisse mit einer Aufzeichnung der Intention vergleichen. Es scheint also eine Art Echo des korrekten motorischen Programms zu existieren, das noch kurz bestehen bleibt, wenn die Reaktion ausgeführt wurde, und so den Vergleich zwischen dem aktuellen und dem beabsichtigten Response ermöglicht. Bei perzeptuellen Diskriminationsaufgaben ist das Übersehen von Reizen wesentlich häufiger als falsche Indentifikationen, die allerding öfter korrigiert werden.

Es scheint auch ein inneres System zu existieren, das den sprachlichen Output sowohl kurz vor als auch kurz nach einer Äußerung überprüft. Empirische Befunde deuten darauf hin, daß gesprochene Sprache auf verschiedenen Stufen überprüft wird, und daß Fehler, die den lexikalischen Regeln entsprechen, leichter übersehen werden, insbesondere, wenn Ablenkung vorliegt.

Das Entdecken von Handlungsfehlern findet dann statt, wenn routinemäßig die Aufmerksamkeit aus ablaufende automatisierte Aktionen gerichtet wird, um Abwichungen vom vorhergesehenen Ablauf festzustellen. Slips können deshalb auftreten, wenn diese Überprüfung vergessen wird und sie können bei einer nachträglichen Überprüfung dann doch entdeckt werden.

Das Entdecken von Fehlern beim Problemlösen ist schwieriger, da die richtige Lösung (wenn überhaupt) nur in der Umwelt zu finden ist. Der Erfolg der Strategie von Versuch und Irrtum hängt davon ab, daß der Zielzustand bekannt ist und daß Abweichungen vom beabsichtigten Ablauf erkannt werden können. Dies ist bei strategischen Fehlern (Wahl des falschen Ziels) viel schwieriger als bei taktischen Fehlern (Wahl des falschen Pfades), da eine längere Zeit bis zur Fertigstellung vergeht und eine Beurteilung nur rückblickend möglich ist. ALLWOOD (1984) fand bei Studenten folgende Arten der Überprüfung von Statistikaufgaben:

Standard Check: Entschluß, eine allgemeine Überprüfung zu beginnen (selten);

Direct error-hypotheses formation: Abrupte Entdeckung eines Fehlers (nimmt mit zeitlichem Abstand ab);

Error suspicion: Etwas Ungewöhnliches wird bemerkt, der Verdacht eines Fehlers tritt auf.

Ausführungs-Slips wurden dabei wesentlich schneller als Fehler in den Lösungsmethoden entdeckt. RZZO und seine Mitarbeiter fanden außerdem heraus, daß die meisten SB-Fehler während der direkten Fehlerhypothesenbildung entdeckt wurden, während die meisten KB-Fehler nach einer Fehlervermutung gefunden wurden. RB-Fehler wurden entweder während der Fehlerhypothesenbildung oder während der Fehlervermutung entdeckt.

Hinweise der Umwelt auf Fehler

Durch Forcing Function kann die Entdeckung von Fehlern garantiert werden (z.B. erlauben viele Programme nicht, zum OS zurückzukehren, wenn die Dateien nicht abgespeichert wurden). Beim Zerlegen von Gegenständen treten normalerweise mehr Forcing Functions auf als beim Zusammensetzen (was letzteres schwieriger macht). Menchen reagieren nicht immer rationale auf solche erzwungenen Fehlerhinweise.

Manchmal erlaubt die Umwelt zufälliges Entdecken von sehr ungünstigen Lösungen, wenn wesentlich einfachere Lösungen möglich gewesen wären. Folgende Systemreaktionen auf Fehler sind möglich (cf. LEWIS und NORMAN, 1986):

Gagging: Jede nicht geeignete Reaktion wird abgeblockt; das System reagiert so lange nicht, bis ein Reset stattgefunden hat.

Warning: Über potentiell gefährliche Situationen wird informiert.

Do nothing: Das Systemreagiert einfach nicht auf illegalen Input; dies macht es für den Benutzer schwer, die Fehlerquelle herauszufinden.

Self-correct: DWIM: Ein Programm versucht, die eigentlich intendierte Aktion herauszufinden.

Let´s talk about it: Auf einen Fehler hin versucht das System, einen Dialog zu starten (-> Debug Window).

Teach me: Wird ein Fehler entdeckt, fragt das System den Benutzer, was er wollte; es will unterrichtet werden.

Fehlerentdeckung durch andere Menschen

WOODS (1984) fand heraus, daß bei der Steuerung komplexer Anlagen die Hälfte der Ausführungsfehler von den Operateuren selbst entdeckt wurden. Allerdings wurden keine diagnostischen Fehler von ihnen entdeckt; sie wurden auf sie erst aufmerksam, wenn neue Leute hinzukamen.

Verdeckte Fehler und Systemabstürze

REASON unterscheidet zwischen aktiven Fehlern (deren Auswirkungen sofort sichtbar werden) und latenten Fehlern, deren negative Konsequenzen für lange Zeit unerkannt im System verborgen sein können und erst bei einer ganz bestimmten Kombination von anderen Gegebenheiten zum Tragen kommen. Für letztere Art der Fehler sind vor allem Designer, höhere Entscheidungsträger und das Maintenance-Personal verantwortlich zu machen. (Bei der HCI ist diese Unterscheidung schwierig: Auch wenn im System ein latenter Fehler steckt, so gibt sich der Benutzer doch meist selbst die Schuld, wenn dieser auftritt.)

Die Operateure von Systemen sind deshalb nicht die Hauptquelle von Systemfehlern, sondern sie "erben" diese aufgrund von schlechtem Design, ungünstiger Installation, fehlerhafter Wartung oder schlechten Entscheidungen des Management. Der Versuch, diese latenten Fehler zu neutralisierren würde sich besser auf die Sicherheit des Systems auswirken als die Versuche, lokale aktive Fehler zu minimieren.

Latente Fehler treten nur selten und unter ganz bestimmten Umständen auf. Da sich die selbe Situation wahrscheinlich nicht wiederholen wird, wird der Versuch, die Wiederholung eines Fehlers zu verhindern, nur einen geringen Einfluß auf die Sicherheit des Gesamtsystems haben.

REASON stellt die Ähnlichkeit zwischen latenten Fehlern in komplexen technischen Systemen und pathogenen Faktoren im menschlichen Organismus heraus: Bei beiden müssen erst mehrere Foktoren zusammenkommen, um zu einem Versagen der vorhandenen Korrekturmechanismen zu führen.

Technologische Entwicklungen

Dadurch, daß die Systeme immer mehr automatisiert wurden, wurden die Operateure immer weiter von den Prozessen entfernt, die sie angeblich kontrollieren. Das Mensch-System-Interface tritt zusätzlich zwischen das eigentliche System und den menschlichen Operateur und präsentiert ihm nur ausgewählte Informationen. Die meiste Zeit ist die Aufgabe des Operateurs darauf reduziert, das System zu überwachen bzw. sicherzustellen, daß es innerhalb gewisser Grenzen funktioniert.

Die Systeme wurden immer komplexer und gefährlicher. Immer größere Mengen an potentiell schädlichem Material konzentrieren sich an einzelnen Standorten unter der zentralisierten Kontrolle von immer weniger Operateuren.

Manche Systeme verwenden automatic safety devices, um sich vor allen bekannten Arten des Zusammenbruchs zu schützen; dieses Vorgehen wird als defence in depth bezeichnet. Allerdings können gerade wieder solche Sicherheitssysteme der Grund für latente Fehler sein.

Die Systeme werden immer undurchsichtiger. Komplexe, eng vernetzte und stark abgesicherte Systeme werden für die Leute, die sie steuern, warten oder leiten sollen, immer undurchsichtiger: Man weiß nicht, was passiert und man versteht nicht, was das System tun kann. Die direkte Information wird durch das Interface gefiltert. Die Sicherheitsmechanismen führen zu der Täuschung, daß defense in depth stattfindet, da das System nicht aktiv auf einzelne Fehler reagiert und sich diese Fehler deshalb nicht zeigen.

Folgende Ironien der Automatisierung werden von BAINBRIDGE (1987) genannt:

Die Fehler des Designers tragen signifikant zu den Unfällen bei.

Der selbe Designer, der versucht, die Menschen aus der Steuerung möglichst heraus zu halten, überläßt den Operateuren immer noch diejenigen Aufgaben, von denen er nicht weiß, wie sie zu automatisieren sind.

Automatiche Kontrollsysteme, die nur wenige Fehler machen, bieten den Operateuren auch kaum die Möglichkeit, aus fehlern zu lernen bzw. die nötigen motorischen Fertigkeiten einzuüben.

Gerade die Systeme, die am erfolgreichsten automatisiert wurden und in die deshalb selten manuell eingegriffen werden muß, benötigen die meisten Investitionen in die Schulung der Operateure.

Es wurde versucht, Notfallsprozeduren für die Operateure zu entwickeln. Diese berücksichtigen aber nicht alle auftretenden Möglichkeiten. Unfälle beginen manchmal auf konventionelle Art, aber entwickeln sich schnell entlang unvorhersehbarer Linien.

Die Operatuere müssen also deshalb ein system überwachen, da der Designer nicht alle möglichen Szenarios oder Fehler vorhersehen kann und deshalb nicht für alle Fehlermöglichkeiten automatische Korrekturen zur Verfügung stellen kann. Deshalb ist die einzigartige menschliche Fähigkeit gefordert, in neuen Situationen on-line Probleme zu lösen; gerade iin dieser Fähigkeit ist aber auch der Mensch nicht sonderlich gut.

Wartungsbezogene Fehler

Die größte einzelne Kategorie an Fehlern besteht im einfachen Vergessen von bestimmten Aktionen, die zur Erreichung eines Ziels notwendig sind, insbesondere bei Wartungsarbeiten. In einer Studie von RASMUSSEN (1980) zeigte sich ein sehr großer Anteil an Auslassungen bei Test-, Feineinstellungs- und Wartungsarbeiten. Eine mentale Aufgabenanalyse zeigt eine enge Verbindung zwischen den Auslassungen und dem Planen und Abruf von Prozeduren.

Klassifikation von Verstößen

Zuerst muß unterschieden werden, ob die Regelverstöße absichtlich begangen wurden; war dies nicht der Fall, spricht man von fehlerhaften oder unbeabsichtigten Vrstößen. War dagegen beabsichtigt, das System zu chädigen, spricht man von Sabotage. Ansonsten wird zwischen Routineverstößen (die immer wieder stattfinden, um möglicht wenig Aufwand zu betreiben und/oder wenn die Umgebung ihnen gegenüber nachsichtig ist) und ausnahmsweisen Verstößen (aufgrund besonderer Umstände) unterschieden.

Untersuchungen zu Fehlverhalten im Straßenverkehr erbrachten drei Dimensionen solchen Verhaltens: Absichtliche Verstöße (betrunken Fahren), gefährliche Fehler (Stopschild überfahren) und folgenlose Versehen (falsche Ausfahrt nehmen). Es ist anzunehmen, daß Fehler und Verstöße von unterschiedlichen kognitiven Mechanismen verursacht werden.

Fehlerverursachung in komplexen Systemen

Alle komplexen Technologien sind in irgendeiner Form mit der Produktion beschäftigt. Folgende Grundelemente sind darin enthalten:

Decision Makers: Das höhere Management setzt die Ziele und gibt die dazu zur Verfügung stehenden Mittel an. Die meisten Fehler beruhen letztendlich auf fehlerhaften Entscheidungen. Das Hauptproblem besteht in der Aufteilung der Ressourcen zwischen Produktion und Sicherheit. Investitionen in die Sicherheit führen nicht so sicher und nicht so schnell un klar erkennbar zu Erfolgen.

Line Management: Hierunter fallen die Spezialisten, die die Strategien ausführen; Wartung; Training usw. Die Inkomptenz des Personals auf dieser Stufe kann die Designfehler noch verschlimmern, aber auch kompensieren.

Preconditions: Voraussetzungen sind die notwendigen Eigenschaften der Menschen und Maschinen wie Zuverlässigkeit, Fähigkeit und Motivation. Auch die Voraussetzungen bergen viele Fehlerquellen, die in komplexer Weise von der jeweiligen Aufgabe, den Umwelteinflüssen und bestehenden Störungen abhängen. Viele Pathogene auf dieser Stufe beruhen auf den involvierten Menschen: Z.B. Streßanfälligkeit, Übersehen von Störungen, mangelnder Überblick über das System oder mangelnde Motivation.

Productive Activities: sind die aktuellen Tätigkeiten der Maschinen und der Menschen. Unsichere Handlungen ergeben sich aus der Interaktion zwischen den intrinsichen Systemmerkmalen und der Umwelt. Z.B. ist es nur dann unsicher, keinen Helm zu tragen, wenn mit herunterfliegenden Gegenständen zu rechnen ist.

Defences: Schutzvorrichtungen gegen vorhersehbare Gefahren. Auf der untersten Ebene kann es sich um Schutzkleidung für die Arbeiter oder Wachpersonal vor gefährlichen Bereichen handeln; auf der obersten Ebene steht die oben beschriebene defence in depth.

In stark abgesicherten Systemen besteht eine der häufigsten Fehlerquellen darin, daß bestimmte Sicherheitsmechanismen absichtlich abgeschaltet werden.

Für eine adäquate Sicherheitskontrolle ist es notwendig, daß ein mehrkanaliges Feedback-system zur Verfügung steht und daß schnell und effizient auf aktuelle oder antizipierte Veränderungen reagiert werden kann. Effektive Sicherheitsinformation kommt in der Wichtigkeit bezüglich der Sicherheit von Organisationen gleich nach den Bemühungen des Top-Managements. Organisationen können sich auf folgende Arten in ihrer Sicherheit unterscheiden:

Denial Action: Verdrängung (keine Aufzeichnungen ...) oder Abkapselung (Meinung der Beobachter des Fehlers wird nicht beachtet).

Repair Actions: Öffentlichkeitsarbeit (Schönreden der Fehler) oder lokale Ausbesserungen (weitreichende Implikationen werden geleugnet).

Reform Actions: Ausbreitung (das Problem wird als global erkannt und behandelt) oder Reorganisation (das gesamte System wird neu organisiert).

Je anchdem, auf welcher Ebene die Organisation versucht, mit Problemen fertig zu werden, wird sie nach WESTRUM als pathologisch, berechnend oder generativ bezeichnet.

Schuldzuweisungen

Man sollte bei der Schuldzuweisung bei größeren Unglücken den fundamentalen Attribuierungsfehler (man neigt dazu, persönliche Eigenchaften für einen Fehler verantwortlich zu machen) und die fundamentale Überraschung (man neigt dazu, Probleme, aus denen sich völlig neue Konsequenzen ergeben, als nur situative Probleme zu betrachten) beachten. Außerdem scheint rückblickend die Gefahr ganz klar erkennbar gewesen zu sein, während dies in der relevanten Situation vielleicht nicht der Fall war.

Schätzung und Reduzierung des menschlichen Fehlerrisikos

Insbesondere aufgrund der Unglücksfälle in Atomkraftwerken wurden Techniken zur Analyse der menschlichen Zuverlässigkeit entwickelt; die Ängste der Bevölkerung und die Zulassungsvorschriften machten diese Entwicklungen notwendig. Die meisten dieser Techniken basieren auf logischen Bäumen, in denen die bedingten Fehlerwahrscheinlichkeiten verknüpft werden; sie erwiessen sich empirisch nicht als all zu effektiv:

Probabilistic Risc Assessment (PRA) versucht, die Gebiete mit möglichen Risiken zu identifizieren und Verbesserungen vorzuschlagen; außerdem läßt sich das Gesamtrisiko berechnen. Dabei wird aber die mögliche Abhängigkeit der einzelnen Fehler nicht berücksichtigt.

Technique for Human Error Rate Prediction (THERP) schätzt die Zuverlässigkeit der Operatuere ähnlich wie die Zuverlässigkeit der Ausstattung. Ziel ist die Vorhersage der menschlichen Fehlerwahrscheinlichkeiten. Diese hängen von der Qualität der Mensch-Maschine-Schnittstelle ab und von der individuellen Erfahrung, Fähigkeit, Motivation und Erwartung.

Bei der empirical Technique to Estimate Operators´ Errors (TESEO) werden fünf Fehlerparameter unterschieden: Art der Aktivität; Streß bei Routinetätigkeiten; Qualitäten des Operateurs; Angstfaktor und Ergonomiefaktor.

Die Confusion Matrix versucht auf der Grundlage von Expertenbefragungen die Wahrscheinlichkeit verschiedener falscher Diagnosen bei kritischen Zuständen zu errechnen.

Aufgrund der Tatsache, daß menschlicher Fehler unvermeidbar ist, ist möglicherweise die beste Art, gefährliche Systeme vor menschlichen Fehlern zu schützen, sie fehlertoleranter zu gestalten.

Fehlerreduktion

Nach NORMAN (1988) beruhen Fehler weniger auf der Tendenz der Personen, diese zu begehen, sondern eher daran, daß die Objektee benutzerfeinlich gestaltet wurden. Außerdem wird oft das Ausmaß unterschätzt, in dem das Wissen der Menschen in der Umwelt liegt, nicht in ihrem Kopf. Wissen in der Welt ist immer zugreifbar und braucht nicht extra bereitgestellt werden; Wissen im Kopf ist effizient und von der momentanen Umgebung unabhängig, aber es muß abgerufen werden und erfordert, sich daran zu erinnern. Um Fehlertendenzen zu minimieren schlägt NORMAN folgende Richtlinien vor:

Zwischen dem Modell des Designers, des Benutzers und des Systems sollte eine konsistente Relation vorliegen (konsistent mapping).

Die Aufgaben sollten so strukturiert werden, daß die Belastung des Gedächtnisses minimiert wird.

Sowohl Ausführung als auch Bewertung einer Aktion sollten deutlich erkennbar sein.

Natürliche Mappings sollten genutzt werden.

Natürliche und künstliche Constraints können verwendet werden.

Design for Errors: Man soll vom Auftreten von Fehlern ausgehen und ihre Behebung einplanen.

Wenn alles andere nicht funktioniert, standardisiere.

Es wurde auch versucht, Bei kritischen Entscheidungen Unterstützung zu bieten:

Zusätzliche technische Berater in jeder Schicht.

Verbesserungen der Ausbildung (nicht nur Auswendiglernen von Prozeduren, sondern auch Verständnis der Zusammenhänge führt dazu, daß neue Fehler genauso schnell behoben werden, wie bekannte; cf. DUNCAN).

Computerisierte Unterstützungssysteme.

Die meisten Fehler der Operatuere resultieren daraus, daß zwischen den Merkmalen des Systems als Ganzes und der menschlichen Informationsverarbeitung Inkompatibilitäten bestehen. Wenn Entscheidungshilfen tatsächlich funktionieren, dann wird es nur dazu kommen, daß man sich zu sehr auf sie verläßt und die diagnostischen Fähigkeiten weiter absinken.

Simulatortraining kann zwar erfolgreich zu generalisierbaren diagnostischen Fähigkeiten beim Operator führen; was erreicht werden kann, ist aber begrenzt. Die Wahrscheinlichkeit von Diagnosefehlern ist auch nach einem solchen Training noch beunruhigend hoch (cf. DUNCAN, 1987).

Nach FRESE und anderen haben Fehler auch positive Seiten:

Gelegenheit, mehr über das System zu lernen.

Erkennen ungeeigneter mentaler Modelle.

Verzögerung der verfrühten Automatisierung von Fertigkeiten.

Möglichkeit für kreative Lösungen und neue Strategien.

Exploratives Verhalten.

Dem stehen die negativen Effekte auf das Selbstbewußtsein und Streß und Angst gegenüber. Bei der Ausbildung sollte deshalb versucht werden, die positiven Effekte der Fehler zu maximieren, ohne daß die negativen Aspekte zum Tragen kommen:

Das Training soll aktives, exploratives Vorgehen fördern.

Es sollte auch Fehlertraining erfolgen.

Die Einstellung zu Fehlern sollte geändert werden (sie haben auch positive Seiten).

Das Fehlertraining sollte zum richtigen Zeitpunkt erfolgen (grundlegendes Wissen sollte schon vorhanden sein).

RASMUSSEN erstellte Richtlinien, die nicht die Beseitigung von Fehlern zum Ziel haben, sondern die Fehlertoleranz des Systems dadurch erhöhen sollen, daß den Operateuren natürlichere Mittel zur Verfügung stehen:

"Experimente" sind notwendig zum Erlernen sensorimotorischer Fertigkeiten der Systembenutzer.

Feedback sollte so gestaltet sein, daß funktionales Verständnis und wissensbasiertes Beobachten während regelbasiertem Vorgehen möglich wird.

Hinweise auf mögliche Aktionen sollten auch die Voraussetzungen für ihre Validität enthalten.

Es sollten Werkzeuge zur Verfügung stehen, mit denen man experimentieren und Hypohesen testen kann, ohne bereits in das aktuelle Geschehen eingreifen zu müssen.

Übersichtsdisplays sollen die Ablenkung durch irrelevante Details minimieren.

Integrierte Muster sollen aus Hinweisreize für Handlungen dienen, um das eindringen starker Gewohnheiten zu vermeiden.

Die Interferenz zwiscchen verschiedenen mentalen Modellen soll minimiert werden.

Die Informationen sollen so präsentiert werden, daß sie für SB, RB und KB Verarbeitung geeignet sind.

Die Informationen sollten in eine externe Struktur so eingebettet sein, daß diese als externalisiertes mentales Modell dienen kann.

Externe Gedächtnishilfen sollen zur Verfügung gestellt werden (-> Toolbox).


zurück zur Skriptenseite

zurück zu meiner homepage



rainer@zwisler.de


Last modified 10-29-98