Human Factors – Ursachen menschlicher Fehler: Wenn der Mensch versagt

Frontalansicht eines Flugzeugs auf einer vernebelten Startbahn, die Sicht ist schlecht.
© KI-generiert (Adobe Firefly)

Es war ein nebliger Nachmittag am 27. März 1977 auf Teneriffa. Zwei Jumbo-Jets der Fluggesellschaften KLM und Pan American standen auf dem Rollfeld des kleinen Flughafens Los Rodeos – ein ungeplanter Stopp, verursacht durch eine Bombendrohung auf Gran Canaria. Was folgte, war die tödlichste Katastrophe der Luftfahrtgeschichte: Die KLM-Maschine startete ohne Freigabe, kollidierte mit der noch auf der Landebahn stehenden Pan Am, 583 Menschen starben. Die Ermittlungen zeigten, dass nicht Technik, sondern menschliche Fehler den Unfall verursachten: Missverständnisse in der Kommunikation, Zeitdruck und ein Co-Pilot, der sich nicht traute, den Kapitän zu korrigieren.

Diese Tragödie ist ein Lehrstück für das, was Experten „Human Factors“ nennen – die psychologischen, sozialen und organisatorischen Gründe, warum Menschen Fehler machen. Besonders in Hochrisikobereichen wie der Luftfahrt, Medizin oder Industrie sind diese Faktoren lebenswichtig. Ein Schlüsselkonzept, um sie zu verstehen, ist das „Dirty Dozen“: zwölf Ursachen, die immer wieder zu folgenschweren Fehlern führen.

Die zwölf Saboteure: Das „Dirty Dozen“

Entwickelt vom kanadischen Sicherheitsexperten Gordon Dupont, listet das „Dirty Dozen“ die häufigsten menschlichen Schwachstellen auf. Hier sind sie – und wie sie Katastrophen auslösen:

1. Mangelnde Kommunikation

In Teneriffa bat der KLM-Kapitän um „Take-off“, doch die Flugsicherung antwortete mit Routineinfos, die er als Startfreigabe missdeutete. Klare Rückfragen unterblieben. Auch im Krankenhaus können unpräzise Anweisungen zu Medikationsfehlern führen.

2. Selbstzufriedenheit (Complacency)

Erfahrung kann blind machen. 2009 überflog ein Northwest-Airlines-Team versehentlich Minneapolis – die Piloten, seit Jahrzehnten im Dienst, waren in ein Gespräch vertieft und verloren die Situationskontrolle. Routine darf nie zur Nachlässigkeit führen.

3. Mangelndes Wissen

Als 1983 eine Boeing 767 wegen leerer Tanks notlanden musste („Gimli Glider“), lag der Fehler in der Tankberechnung: Das Team hatte metrische und imperiale Einheiten verwechselt. Unwissenheit ist oft ein stiller Saboteur.

4. Ablenkung

United Flug 173 (1978) stürzte ab, weil die Crew ein defektes Fahrwerk reparieren wollte – und den Treibstoff vergaß. Ähnlich riskant: Die Krankenschwester, die durch Handybenachrichtigungen von der Medikamentendosierung abgelenkt wird.

5. Mangelnde Teamarbeit

Beim Absturz von Korean Air Flug 801 (1997) wagte der Co-Pilot nicht, den Kapitän auf Navigationsfehler hinzuweisen. Hierarchien dürfen Sicherheit nie behindern.

6. Ermüdung

Die Exxon-Valdez-Ölpest 1989 wurde durch einen übermüdeten Steuermann verschlimmert. Schlafmangel senkt die Reaktionsfähigkeit wie Alkohol – ein Problem auch in Nachtschichten.

7. Mangelnde Ressourcen

Überlastete IT-Systeme, fehlende Geräte: In der Coronakrise zeigte sich, wie Engpässe in Krankenhäusern Fehler provozieren.

8. Druck

Die Challenger-Katastrophe 1986 geschah, weil Manager trotz Warnungen der Ingenieure den Start erzwangen – aus Angst vor Imageverlust.

9. Mangelnde Durchsetzungsfähigkeit

Beim Absturz von Air Florida Flug 90 (1982) unterließ es der Co-Pilot, den Kapitän auf vereiste Triebwerke hinzuweisen. Heute trainieren Crews „Cockpit Resource Management“, um Hierarchien abzubauen.

10. Stress

In Notfällen neigen Menschen zu Tunnelblick. 2010 geriet die Besatzung von Qantas Flug 32 nach einem Triebwerksexplosion in Panik – ein ruhiger Ersatzpilot an Bord verhinderte Schlimmeres.

11. Mangelnde Aufmerksamkeit

Das Zugunglück von Bad Aibling 2016 passierte, weil ein Fahrdienstleiter privat am Handy spielte. Multitasking ist ein Mythos – das Gehirn kann sich nur auf eine Sache fokussieren.

12. Normen

Bei der Columbia-Katastrophe 2003 hatten NASA-Mitarbeiter Schäden am Hitzeschild als „normal“ abgetan – ein fatales Gewöhnungsphänomen.

Die Lösung: Aus Fehlern lernen

Die gute Nachricht: Human Factors lassen sich managen. In der Luftfahrt senkte „Crew Resource Management“ die Unfallrate drastisch. Checklisten, wie sie der Chirurg Atul Gawande propagiert, reduzieren OP-Fehler. Unternehmen setzen auf Fehlerkultur statt Schuldzuweisungen – denn nur wer Fehler meldet, kann sie beheben.

Letztlich geht es um Demut: Kein Mensch ist fehlerfrei. Doch wenn wir die „Dirty Dozen“ kennen, können wir Systeme bauen, die Schwächen auffangen. Wie der Satz in jedem Cockpit lautet: „Wir sind ein Team – Sicherheit geht vor Ego.“

Dieser Artikel zeigt: Menschliche Fehler sind nie zufällig. Sie wurzeln in Faktoren, die wir erkennen und kontrollieren können. Indem wir offen über Schwächen sprechen, retten wir Leben – ob am Himmel, im OP oder im Büro.

Quellen:

Der Artikel basiert auf einer explizit genannten Quelle sowie allgemeinem Wissen über bekannte Unfallanalysen und Human-Factors-Konzepte aus der Luftfahrt- und Sicherheitsforschung. Hier die detaillierte Auflistung:
1. Primärquelle  
   - AeroImpulse-Artikel zum „Dirty Dozen“:  
     https://aeroimpulse.de/insights/human-factors-ursachen/ (https://aeroimpulse.de/insights/human-factors-ursachen/)  
     Diese Quelle liefert die Struktur der „Dirty Dozen“ sowie die psychologischen und organisatorischen Erklärungen dazu.

2. Historische Unfallbeispiele  
Die genannten Vorfälle (Teneriffa-Katastrophe, Challenger-Explosion, Gimli Glider, Exxon Valdez, United Flug 173 etc.) sind weltbekannte Fallstudien aus öffentlich zugänglichen Untersuchungsberichten, z. B.:  
   - Berichte der National Transportation Safety Board (NTSB) (USA).  
   - Analysen der International Civil Aviation Organization (ICAO).  
   - Dokumentationen der NASA (zur Columbia- und Challenger-Katastrophe).  
   - Veröffentlichungen von Luftfahrtbehörden wie der FAA (Federal Aviation Administration).  

3. Fachliteratur und Trainingskonzepte  
   - Crew Resource Management (CRM): Eingeführt in der Luftfahrt nach der Teneriffa-Katastrophe, heute Standard in Pilotenausbildungen.  
   - „Checklist Manifesto“ von Atul Gawande: Zitiertes Konzept zur Fehlervermeidung in der Medizin.  
   - Forschung zu menschlicher Fehleranfälligkeit (z. B. James Reason, „Human Error“).  

4. Öffentliche Medienberichte
Einige Details (z. B. zum Northwest-Airlines-Vorfall 2009 oder Qantas Flug 32) stammen aus presseöffentlichen Meldungen und Dokumentationen (BBC, The Aviation Herald, Fachzeitschriften wie Aviation Week).

Auch interessant:
Bild zum Artikel„Depressionen und Wechseljahre: Ein komplexes Zusammenspiel“

Depressionen in der (Peri-)Menopause stellen viele Frauen vor besondere Herausforderungen. Diese Übersicht zeigt, welche Behandlungsoptionen bestehen, welche Risiken zu beachten sind und wie individuelle Bedürfnisse berücksichtigt werden sollten.

Bild zum Artikel„Hautmedizin digital: Wie Teledermatologie Versorgung und Praxisalltag verändert“

Teledermatologie macht die Hautmedizin flexibler und effizienter: Digitale und hybride Modelle ermöglichen schnelle Diagnosen, entlasten Praxen und verbessern die Versorgung – wissenschaftlich belegt und leitliniengestützt.

Bild zum Artikel„Unsichtbare Helden am Limit: Wie Fluglotsen mit Stress und Technik umgehen“

Überlingen, 2002: zwei Flugzeuge kollidierten bei bewölkter Nacht, 71 Menschen starben. Der diensthabende Lotse war allein im Tower, übermüdet, das Warnsystem defekt. Der Fall wurde zum Symbol für die unterschätzte Rolle menschlicher Faktoren in der Flugsicherung. „Technikversagen, organisatorische Mängel und menschliche Erschöpfung“, fasst Dr. Saskia Schmidt, Psychologin am Deutschen Zentrum für Luft- und Raumfahrt (DLR), zusammen.

Navigation Schließen Suche E-Mail Telefon Kontakt Pfeil nach unten Pfeil nach oben Pfeil nach links Pfeil nach rechts Standort Download Externer Link Startseite