Palliativmedizin 2014; 15 - PD293
DOI: 10.1055/s-0034-1374464

Validität von GKV-Routinedaten: In welchem Umfang muss bei der wissenschaftlichen Nutzung von Sekundärdaten die Daten-Qualität geprüft werden?

D Horenkamp-Sonntag 1, U Schneider 1, S Engel 1, R Linder 1, B Gerste 2, P Ihle 3
  • 1WINEG – Wissenschaftliches Institut der TK für Nutzen und Effizienz im Gesundheitswesen, Hamburg, Deutschland
  • 2WIdO – Wissenschaftliches Institut der AOK, Berlin, Deutschland
  • 3PMV – PMV Forschungsgruppe, Universitätsklinikum Köln, Köln, Deutschland

Fragestellung: Die Verfügbarkeit von GKV-Routinedaten für wissenschaftliche Analysen zur Versorgungsforschung wächst stetig. So werden z.B. ab 2014 die Morbi-RSA-Daten nach §303 SGBV einem breiten Nutzerkreis durch das DIMDI zugänglich gemacht, so dass erstmalig für alle 70 Mio. GKV-Versicherten Datenanalysen durchführbar sind.

Da GKV-Routinedaten primär nicht zum Zweck der wissenschaftlichen Analyse erhoben werden, ist deren Plausibilität und Validität zu prüfen. Diese Prüfungen sind essentieller Bestandteil einer Sekundärdatenanalyse [Gute Praxis Sekundärdatenanalyse] – umso mehr wenn externe Forscher nur projektbezogen Dateneinsicht (Teildatenlieferungen) erhalten. Konkrete Vorgaben wie z.B. Checklisten existieren bislang nicht.

Methodik: Vor o.g. Hintergrund wurde untersucht, in welchem Umfang und Differenzierungsgrad welche Strategien und Module zur Prüfung der Datenqualität bei der wissenschaftlichen Nutzung von GKV-Routinedaten zum Einsatz kommen sollten.

Ergebnis: Es ist zwischen Datenvollständigkeit und -plausibilität sowie interner und externer Validierung zu differenzieren. Weiterhin ist das Kriterium "Vollzähligkeit" zu berücksichtigen, das z.B. bei ambulanten Datenanalysen (§295 SGBV) umso relevanter wird, je mehr Versicherte an Selektiv-Verträgen (z.B. Hausarztverträge nach §73b SGBV) teilnehmen. Anhand verschiedener Anwendungsbeispiele (u.a. Versterbende mit zwei Todesdaten, Frauen mit Prostata-Ca, gebärende Männer) werden Auswirkungen unterschiedlicher Prüfmodule erläutert. Je nach Analysekontext wird gezeigt, ob einzelne Daten ausgeschlossen werden müssen oder ggf. nach Durchführung von Subgruppenanalysen weiter berücksichtigt werden können.

Schlussfolgerung: Die Prüfung der Datenqualität sollte in Abhängigkeit der technischen Möglichkeiten und Eingangsvoraussetzungen erfolgen. Dabei spielen Art und Umfang der zur Verfügung stehenden Datengrundlage eine wichtige Rolle. Die Prüfungen müssen sich immer an der originären Fragestellung orientieren.