Kurse zu Crew-Resource-Management, gestaltet nach Vorbildern aus der Luftfahrt, sind
auch in der Medizin en vogue. Sie sollen Teamprozesse fördern und damit letztendlich
die Patientensicherheit. In wie weit das wirklich den Patienten nutzt, bleibt aber
noch in vielen Punkten offen.
Die ersten Pilotkurse waren ein Erfolg, die Protagonisten sind optimistisch. IC –
Interpersonal Competence ist das Motto eines von DGOU und Lufthansa Flight Training
(LFT) gemeinsam neu aufgelegten 2-tägigen Kursformats für Chirurgen, primär Orthopäden
und Unfallchirurgen. Geboten werden Wochenendkurse im schicken Tagungshotel von LFT
in Seeheim-Jugenheim an der hessischen Bergstraße. Kosten des „Weekends“ je Teilnehmer:
990 € (Stand Oktober 2015). Offizieller „Launch“ des Programms war auf dem DKOU 2015
in Berlin. „Was haben Luftfahrt und Medizin gemeinsam“, fragte ein in den Tagungssälen
gespielter Werbefilm und gab gleich die Antwort, untermalt vom Stimmengewirr einer
Cockpitschalte: Bei beiden muss Sicherheit an erster Stelle stehen. Ready for Take
Off – gemeinsam warben die Generalsekretäre von DGOOC, Bernd Kladny, und DGU, Reinhard
Hoffmann, für den Kurs, als „Meilenstein für die berufsbegleitende Persönlichkeitsentwicklung
aller Ärzte“. Hoffmann machte in einem der Symposien auf dem Kongress en passent klar,
dass die DGU über ihre Akademie der Unfallchirurgie GmbH durchaus ein finanzielles
Risiko mit der Auflage des Programms übernommen hat. Man hoffe auf rege Teilnahme.
LFT ist 100-prozentige Lufthansatochter, die sich primär um die Ausbildung von Piloten
kümmert – nach eigenen Angaben von über 200 Fluggesellschaften weltweit. Und jetzt
auch um Ärzte. Die neuen Kurse, alias Training in Human Factors sollen auch Medizinern
bessere Kommunikation, Teamarbeit, Führung und Entscheidungsfindung vermitteln.
Faktor Mensch Human Factors? Mehr Sicherheit für die eigenen Arbeitsprozesse von
der Luftfahrt lernen? Das Thema ist auch in der Medizin en vogue. Unter dem Terminus
Human-Factors-Training gibt es seit einigen Jahren auch für Mediziner Adaptionen eines
bei der Luftfahrt ursprünglich Crew-Resource-Management oder Cockpit-Resource-Management
(CRM) genannten Pilotentrainings. Und nicht nur bei der Lufthansa. Ein anderes Beispiel
ist das Hand-over-Team-Training (HOTT) – ebenfalls buchbar über die Akademie der Unfallchirurgen.
Allerdings herrscht Sprachverwirrung. Selbst Spezialisten nutzen den Terminus Human
Factors für verschiedene Aspekte. Da wäre einmal die Gleichsetzung von Human Factors,
alias menschlicher Faktor, alias menschliches Versagen als Benennung der wichtigsten
Fehlerquelle bei vielen Arbeitsprozessen. In der Tat bleibt menschliches Versagen
in vielen Branchen der wichtigste Grund für Unfälle: Über die Hälfte aller Unglücke
in der Luftfahrt gehen auf Pilotenfehler zurück, und nur rund 20 % auf Versagen von
Maschinen [
1
]. In der Medizin steckt menschliches Versagen gar hinter 80 % aller Unerwünschten
Ereignisse, kalkulieren die Human-Factors-Experten Michael St. Pierre und Gesine Hofinger
[
2
]. Danach wird es unübersichtlich. Bei der Hauptursache für Menschliches Versagen
sind manche Autoren schnell bei der mangelhaften Kommunikation von Mitarbeitern in
den hochkomplexen Teamprozessen, die heute in Industrie wie Operationssaal ablaufen.
Ergo wird mehr Schulung in Human Factors, alias richtiger Kommunikation, allen, die
im Krankenhaus arbeiten, schon helfen, Menschen-gemachte Fehler zu vermeiden.
Zumindest für 2 von der ZfOU dazu befragte Expertinnen ist das eine unzulässige Verkürzung.
Human Factors kümmere sich um beide Seiten – Mensch und Arbeitswelt, das bedeute eben
auch, Arbeitssysteme so an Menschen anzupassen, dass sie für Menschen funktionieren,
betont Dr. Gesine Hofinger (siehe das Interview ab Seite 5). Die reine Fokussierung
beim Thema Patientensicherheit und Human Factors auf Verhaltenstrainings und Seminare
führe in die Irre. Mehr Fehlersicherheit sei vorrangig eben nicht eine Frage vom Abtrainieren
eines menschlichen Fehlverhaltens. Human-Factors-Analyse und Trainings zielten auf
den Bau von Arbeitsstrukturen, die optimale Voraussetzung bieten, damit Menschen auch
möglichst gut und fehlerfrei arbeiten. Oder ganz praktisch: Bin ich morgens am OP-Tisch
ausgeschlafen oder hindern mich die Schichtpläne genau daran, gibt Professorin Tanja
Manser von der Uni Bonn ein Beispiel (siehe das Interview ab Seite 7).
Ein entscheidender Aspekt dieser Sicht auf Arbeitssysteme: Die sollen so ausgelegt
sein, dass mehrere Sicherheitsebenen dafür sorgen, Fehler auf einer Ebene in der nächsten
zu erkennen und rechtzeitig zu korrigieren. Eine nette Illustration dieser Denke hat
der britische Psychologe James Reason entwickelt – als Käsescheibenmodell [
3
]. Ein Loch in der 1. Scheibe Emmentaler wird durch die just an dieser Stelle eben
nicht-löchrige nächste Scheibe sauber verdeckt – die dafür an anderer Stelle ein Loch
haben mag und so fort.
Im Käsescheibenmodell nach James Reason verdeckt eine weiter oben liegende Scheibe
Käse das Loch in der darunterliegenden - ein Prinzip, das Fehler auf unterschiedlichen
Ebenen und deren Korrektur verdeutlicht.
Im Krankenhaus ist das der „berühmte 2. Blick“, formuliert der Krankenpfleger und
Medizinsoziologe Michael Rosentreter im ZfOU-Interview, bei dem idealerweise der eine
Mitarbeiter noch mal checkt, ob die soeben erhaltenen Informationen auch wirklich
stimmen. Rosentreter hat gleich einige haarsträubende Beispiele mangelnder Kommunikation
zwischen verschiedenen Teams parat (siehe Interview ab Seite 9).
Human-Factors-Analyse von Arbeitsabläufen in einer Klinik heißt eben auch: Welche
Verbesserungen im Design der Instrumente sind möglich, passt die Aufgabenverteilungen
im Team der Chirurgen, stimmt die Gesamtorganisation der Abläufe. All das ist für
mehr Patientensicherheit in der Medizin mindestens so wichtig, wie die Arbeit an guter
Kommunikation innerhalb und zwischen den Teams, die zusammen arbeiten sollen. So erläutert
es eine Gruppe um den US-Forscher Ken Catchpole. Und verweist auf das Vorbild Luftfahrt:
Ein umfassender Human-Factors-Ansatz habe dort geholfen, die Unfallzahlen dramatisch
zu senken – genau diese umfassende Sicht müsse sich die Medizin abgucken, wenn sie
selber ihre Fehlerraten senken will [
4
].
Erfolge in der Luftfahrt
In der Tat ist es Luftfahrtunternehmen gelungen, die Zahl an Unfällen und Unfallopfern
über die Jahrzehnte deutlich zu senken. Über 30 Todesfälle auf eine Million Starts
gab es noch Ende der 1950er Jahre in der zivilen Luftfahrt, aktuell ist es zumindest
weit weniger als ein Todesopfer [
5
]. Oder anders kalkuliert: Ein toter Passagier war 1929 auf 1 600 000 geflogene Personenkilometer
zu beklagen. Heute gibt es im statistischen Durchschnitt ein Todesopfer auf eine 1000mal
längere Flugstrecke (pro Jahr weniger als 1 Passagier je 3,2 Milliarden Personenkilometer).
Ein Beispiel für viele schrittweise Verbesserungen hinter diesem Erfolg: Einer der
Begründer von Konzepten der Human-Factors-Wissenschaft, der Franzose Alphonse Chapanis
(1917–2002) machte Schluss mit einem happigen Fahler von Piloten, die während der
Zeit des 2. Weltkriegs beim Landeanflug in manchen Flugzeugtypen das Fahrwerk einklappten,
anstatt die Landeklappen auszufahren. Es war die Folge einer fatalen Verwechslung
der dicht beieinander liegenden und ähnlichen Hebel für Fahrwerk und Landeklappen.
Chapanis ließ ein kleines Rad auf den Griff für das Fahrwerk und ein 3-eckiges Symbol
auf den Hebel für die Landeklappen montieren – eine optische Hilfe, die durchschlagend
gegen die fatale Verwechslung half [
6
].
Es blieb nicht bei solchen Verbesserungen an den Maschinen. Standard in den Unternehmen
sind längst Werkzeuge zur Fehleranalyse, darunter ein Critical-IncidentReporting-System
(CIRS), in das Mitarbeiter im Schutz von Anonymität Fehler oder auch nur Risiken für
Fehler melden können und sollen, damit diese einer Analyse unterzogen werden können.
Und spätestens seit Ende der 1970er tüftelt die Luftfahrtbranche an einer Optimierung
von Teamprozessen. Unter dem Terminus CRM gibt es Schulungen für das Personal, um
die Zusammenarbeit auch und gerade unter Stress zu verbessern. Standards dafür schaffen
eigene Checklisten, nach denen das Bordpersonal zumeist vor jedem Flug alle nötigen
Vorbereitungen für den Flug nach einem strikt geregelten Kommunikationsprozess bespricht.
Welchen Anteil die vielen einzelnen Komponenten des umfassenden Sicherheitskonzepts
an den Erfolgen zur Unfallstatistik in der Fliegerei haben, ist nicht ganz klar. Von
einem „gemischten Ergebnis“ einer Zunahme an CRM-Trainings in der Luftfahrtbranche
spricht eine Gruppe von Experten um Eduardo Salas von der University of Florida. Genau
zu quantifizieren sei der Einfluss auf Unfallstatistiken nicht [
7
]. Die Unfallstatistik der Lufthansa belege, dass optimierte Teamarbeit im Cockpit
die Flugsicherheit in den letzten 3 Jahrzehnten stärker beeinflusst habe als die Verbesserung
der Flugzeugtechnik, erklärt hingegen der Leiter der Flugsicherheitsforschung der
Lufthansa Manfred Müller in einer aktuellen Veröffentlichung im Bundesgesundheitsblatt
[
8
].
Viel langsamer als in der Luftfahrt setzen sich Human-Factors-Ansätze auch in der
Medizin durch. Dabei gibt es in der Medizin noch ungleich mehr Stellschrauben, an
denen für ein Mehr an Sicherheit zu drehen ist. Für eine einzige Endoprothesen-Implantation
reichen die Einflussfakturen auf die Patientensicherheit von der Händehygiene aller
in der Klinik, vom Screening von Risikopatienten auf Keime wie MRSA, über die Wahl
eines passenden und sicheren, technisch ausgereiften Prothesentyps, über die Gerätesicherheit,
eine gute Kommunikation im OP-Team und an den Schnittstellen zu weiteren Teams im
Krankenhaus bis hin zum später übernehmenden niedergelassenen Arzt, und last but not
least, einem fortlaufenden Check auch auf die Sicherheit der Arzneimitteltherapie.
Teamarbeit und Prozessoptimierung sind wichtige Faktoren für die Patientensicherheit.
Wie bereits in der Luftfahrt setzen sich Human-Factors-Ansätze auch in der Medizin
immer mehr durch. (Bild: Kzenon / Fotolia.com)
Einrichtung eines CIRS nimmt zu
Einrichtung eines CIRS nimmt zu
Ohne Zweifel gibt es auch in der Medizin Fortschritt bei der Einführung mancher Tools.
So bescheinigt eine Umfrage des Instituts für Patientensicherheit (IfPS) der Universität
Bonn letztes Jahr hiesigen Krankenhäusern Zwischenerfolge bei der Sicherheitskultur.
Von 572 an der Umfrage teilnehmenden Krankenhäusern und Reha-Kliniken hatten im Jahr
2015 immerhin 68 % ein CIRS. Bei der letzten Umfrage 2010 war es nur 34 % gewesen.
Fast alle Häuser, die bei der Umfrage mitmachten, nützen darüber hinaus ein Spektrum
an Infoquellen, um Risiken zu erkennen – Beschwerdemanagement, Patientenbefragungen,
Analyse von Kennzahlen, Auswertung von Schadensfällen. 91 % der Häuser unternimmt
ein Screening von Risikopatienten auf Keime wie MRSA.
Von einem „positiven Trend“ spricht Studienleiterin Professorin Tanja Manser vom IfPS
[
9
]. Beim 2. Blick bleibt allerdings deutlich Luft nach oben. Das eigene CIRS nutzten
gerade mal 263 von 363 Häusern für ein „zeitnahes Feedback“ an die Meldenden. Nur
ein Fünftel der Kliniken erklärt, generell einen offenen Umgang mit Fehlern und Schwachstellen
im System zu pflegen. Manser fordert Kliniken auf, einen umfassenden Human-Factors-Ansatz
zur Grundlage für mehr Sicherheit in der Medizin zu machen (siehe das Interview ab
Seite 7).
Dabei zeichnet sich ab: Die Medizin braucht mehr eigenständige Konzepte zur Vermeidung
von Fehlern, kann nicht Vorbilder unverändert aus der Industrie übernehmen. Etliche
Erfahrungen und Konzepte aus der Luftfahrt lassen sich nicht 1:1 auf die Medizin übertragen:
-
Andere Arbeitsumgebung. Piloten fliegen wenige Maschinentypen. Ärzte und Pfleger haben
immer einen individuellen Patienten vor sich und müssen ein komplexes Diagnose- und
Therapieset beherrschen.
-
Unterschiedliche ökonomische Anreize. Die Luftfahrt kenne zumindest bei Gesellschaften
mit ausgeprägter Sicherheitskultur ein „Sicherheitsprivileg des Kapitäns“, der Entscheidungen
absolut nach dem Primat der Sicherheit und gerade nicht nach ökonomischen Gesichtspunkten
treffen soll, erklärt Manfred Müller. Dieses Prinzip sollte in der Medizin genauso
etabliert werden – Stichwort Bonuszahlungen für Chefärzte [
8
]
-
Unterschiedliche Sichtbarkeit von Fehlern und Fehlerfolgen. Ein Absturz eines Fliegers
ist eine Katastrophe, zumeist mit vielen Opfern, und zumeist medial sehr sichtbar
und damit auch der Analyse zugänglich. In der Medizin bleibt ein Fehler, der im schlimmsten
Fall gar zum Tod eines Patienten führt, hingegen oft im Verborgenen. Die Dunkelziffer
bleibt hoch.
-
Behörden und keine Behörden. In der Luftfahrt erheben Behörden Zahlen für präzise
Statistiken zum Unfallgeschehen. Bei der Patientensicherheit kursieren hingegen bestenfalls
grobe Schätzungen. Vielleicht 1 % der Patienten erleidet im Krankenhaus einen Behandlungsfehler
und 0,1 % aller Patienten stirbt daran – dies sind die Schätzwerte vom Aktionsbündnis
Patientensicherheit (APS) aus dem Jahr 2007. Der AOK-Krankenhausreport von 2014 kalkuliert
damit 19 000 Todesfälle im Jahr in deutschen Kliniken, die rein auf Fehler der Medizin
zurückgehen. Eine solide Datenbasis für Fehler und Unfälle gibt es damit in der Medizin
nicht, sie fehlt so allerdings auch, um Erfolge oder auch Misserfolge einzelner Maßnahmen
für mehr Sicherheit in der Medizin im Alltag dokumentieren zu können.
-
Verankerung des Themas in der Ausbildung. Human Factors sind in der Luftfahrt eine
feste Größe der Sicherheitskultur, Ausbildung und Training danach sind fester Teil
der Unternehmenskultur und der Mitarbeiterschulung. Mediziner lernen und erfahren
zum Thema hingegen wenn, dann überwiegend in kommerziellen Trainingseinheiten – auf
freiwilliger Basis. Im Medizinstudium fristen diese Themen ein Schattendasein, wie
Michael Rosentreter schildert (siehe das Interview Rosentreter ab Seite 9). Seine
Forderung: Eine breitere Verankerung des Themas Patientensicherheit ab dem 1. Semester
Medizinstudium.
Widersprüchliche Studienlage
Widersprüchliche Studienlage
Und was bringt das alles? Die Studienlage nach dem Raster der evidenzbasierten Medizin
hat für Checklisten, CIRS, oder Kommunikationstrainings eher gemischte Antworten auf
diese Frage parat.
Stichwort Surgical Safety Checklist: 2007 von der WHO aufgestellt, besteht sie aus
Vorschlägen wie die Teams vor, während und am Ende einer jeden OP, 3-mal innehalten
und Arbeitsschritte besprechen. Vor dem Einleiten der Anästhesie soll mindestens eine
Pflegekraft zusammen mit dem Anästhesisten nochmals die Identität des Patienten checken,
ob die Eingriffsstelle markiert ist, ob die Maschinen in Ordnung sind (das Sign In).
Ähnliches folgt vor dem 1. Schnitt im OP (das Time Out), und am Ende der Operation
(das Sign Out). Die Liste ist im Internet frei zugänglich [
10
] und soll einen reibungslosen Ablauf eines jeden Eingriffs sichern.
Einige Studien weisen auf Erfolge damit: Allen voran eine 2009 im New England Journal
of Medicine (NEJM) veröffentlichte Untersuchung der Daten von 3733 Patienten, die
vor Einführung der Checkliste und 3955 Patienten, die nach deren Einführung operiert
wurden. Ermittelt in 8 Krankenhäusern in weltweit verstreuten 8 Städten. Klares Fazit
der Studie, geleitet vom US-Chirurgen Atul Gawande: Eine Senkung der Mortalitäten
von 1,5 auf 0,8 % bei großen Operationen und eine Senkung der Komplikationsraten von
11 auf 7 % dank des Einsatzes der WHO-Checkliste [
11
]. Eine letztes Jahr wiederum im NEJM publizierte Studie fand hingegen bei der Auswertung
der Daten zu über 100 000 Operationen jeweils 3 Monate vor bis 3 Monate nach Einführung
der Checklisten in 101 Krankenhäusern im kanadischen Ontario keine signifikanten Unterschiede
bei Komplikationen [
12
].
Schon 2001 wiederum etablierte eine Truppe um Peter Pronovost in Boston / Maryland,
USA, den Einsatz einer neu entwickelten Checkliste vor dem Anlegen eines zentralen
Venenkatheters bei Patienten auf Intensivstationen (ICU). Mit großem Erfolg: Bei einer
Studie im Vergleich Vorher und Nachher in Krankenhäusern im US-Staat Michigan fiel
die Rate gefährlicher Infektionen bei den Patienten im statistischen Durchschnitt
um 66 %. Doch auch hier gelingt in einer aktuellen Studie dieser Nachweis erneut nicht
[
13
].
Ein Teil der widersprüchlichen Ergebnisse dürfte an verschiedenen Studiendesigns und
Methoden liegen, wie die Wissenschaftsjournalistin Emily Anthes im Juli 2015 im Magazin
Nature in einem Übersichtsartikel zur Studienlage bei Checklisten präsentierte: Echte
kontrollierte Interventionsstudien mit Kontrollgruppen, die weiter ohne Checklisten
arbeiten, sind Mangelware. Die häufigeren Vorher-Nachher-Erhebungen könnten von nicht-randomisierten
Parametern überlagert werden [
14
].
In der Lufftfahrt konnten Unfälle über die Jahrzahnte deutlich reduziert werden. Wieviel
kann die Madizin daraus lernen? (Bild: ccvision)
Die Szene diskutiert allerdings vorrangig einen anderen „Confounding Factor“. Auch
die von der ZfOU befragten Expertinnen verweisen darauf, dass es für Erfolge entscheidend
ist, wie eine Checkliste neu eingeführt und konkret genutzt wird (siehe dazu auch
die Stellungnahme der WHO [
15
]). Ein reines Abhaken der Listen bringt gar nichts. „Wenn ein Chefchirurg sagt, ich
fange schon mal an, meinetwegen könnt ihr noch eine Checkliste abarbeiten, dann ist
ein Misserfolg programmiert“, betont Tanja Manser.
Auf einen 2. naheliegenden Aspekt weisen die Briten Thomas J. Cahill aus Oxford und
Rod Stables aus Liverpool in einem Leserbrief an Nature hin. Je nach Art einer Behandlung
müsse die Checkliste der WHO adaptiert werden. Kardiologen, die einen Herzkatheter
anlegen, könnten mit der Checkliste für Chirurgen nicht viel anfangen, müssten vielmehr
ihre eigene aufsetzen [
16
].
Die enorme Vielfalt von Kommunikationsprozessen in den zahlreichen unterschiedlichen
klinischen Settings erschwert deren vergleichende Untersuchung allerdings zusätzlich.
Eine 2013 veröffentlichte Literatur-Übersicht von Tanja Manser und Jan Schmutz destillierte
aus 5000 Studien zum Kontext Teamprozesse und Patientensicherheit (alle auf Englisch
und zwischen 2001 und 2012 veröffentlicht) gerade mal 28 als methodisch brauchbar
heraus, und nur 7 davon als Interventionsstudien mit einem Vorher-Nachher-Vergleich.
Magere 2 Dutzend methodisch brauchbare Studien, die der Frage nachgehen – haben Teamprozesse
einen Effekt auf die klinische Performance? Ja – sie haben einen Einfluss, resümiert
Manser im ZfOU-Interview (siehe Seite 7).
Die wenigen Interventions-Studien untersuchen überwiegend CRM-Elemente, doch ist das
Spektrum darin immer noch groß. Manchmal geht es um umfassende Intensivtrainings und
fortlaufende Betreuung eines Teams, manchmal aber auch nur um schlichtere Kurzzeitinterventionen.
Hinzu kommen zahlreiche Unterschiede je nach klinischem Setting. Es reicht vom Kreißsaal
(in dem die Rate an Not-Kaiserschnitt-Geburten nach einer Arbeit durch ein CRM-Training
signifikant zurückging) bis zu einem Allgemeinklinikum, in dem bei einigen Studien
die Zahl der Stürze bei Patienten zurückging, wenn Pflegerinnen und Pfleger eine Schulung
für mehr Teamwork erhielten.
Manser geht dennoch davon aus, dass bestimmte Arbeits- und Kommunikationsstrukturen
in einem Team Fächer- und Setting-übergreifend standardisierbar sind.
Für die weitere Evaluation solcher Interventionen in der Medizin kommt die Forscherszene
trotzdem vielleicht nicht darum herum, ihre Terminologie weiter zu verfeinern und
zu schärfen. Checkliste ja oder nein – das reicht nicht als Parameter für Studien.
Eher: Wie werden Checklisten eingeführt? Sind Parameter destillierbar, die ein richtiges
Einführen identifizieren? Geht es um ein Training in aktiver Kommunikation? Oder geht
es zunächst mal um präzisere Zuordnung von Verantwortlichkeiten? Dann wäre auch womöglich
kleinmaschiger zu untersuchen, welche Kommunikation wann wirklich wichtig ist. „Bessere
Kommunikation“ allein ist ein zu unscharfer Begriff.
Allgemeiner Smalltalk, im Alltag gerne praktiziert und sogar wichtig zur Stabilisierung
mancher Gruppendynamik, kann im OP Patienten gefährden, mahnte das Universitätsspital
Bern Mitte Oktober 2015. Eine rein sachbezogene Kommunikation im OP-Team senkt hingegen
nach dieser Untersuchung das Wundinfektionsrisiko für den Patienten [
17
], [
18
]. Will sagen: Mitarbeiter eines guten Teams wissen, wann sie den Schnabel halten
und sich der Arbeit widmen.
Bernhard Epping