Digitalisierungsmanagement in Gesundheitssystemen

Digitalisierungsmanagement in Gesundheitssystemen

von: Herbert Rebscher, Stefan Kaufmann

medhochzwei Verlag, 2017

ISBN: 9783862163687

Sprache: Deutsch

412 Seiten, Download: 13304 KB

 
Format:  EPUB, auch als Online-Lesen

geeignet für: geeignet für alle DRM-fähigen eReader geeignet für alle DRM-fähigen eReader Apple iPad, Android Tablet PC's Apple iPod touch, iPhone und Android Smartphones Online-Lesen


 

eBook anfordern

Mehr zum Inhalt

Digitalisierungsmanagement in Gesundheitssystemen



Grundsätzliche Fragen der Digitalisierung in Gesundheitssystemen


1 Chancen und Risiken der Digitalisierung aus der Perspektive „Evidenzbasierter Medizin“


Gerd Antes/Valérie Labonté/Andrea Puhl

1 Grundlagen des Konzepts „Evidenzbasierung“ und deren methodisches Fundament aus der Klinischen Epidemiologie

1.1 Studien als Wissensgenerator für die Bewertung von medizinischen Interventionen

1.2 Wie hoch kann unser Vertrauen in Studienergebnisse sein?

1.3 Eine Studie ist keine Studie

1.4 Defizite im Wissenschafts- und Publikationsprozess und Gegenmaßnahmen

2 Alles neu und besser: Digitalisierung, Big Data und personalisierte Medizin

2.1 Digitalisierung und Big Data: Definition und Abgrenzung

2.2 Digitalisierung und Big Data: Vereinbar mit dem methodischen Fundament der Evidenzbasierten Medizin?

2.3 Digitalisierung und Big Data: Anekdoten als Beweis?

2.4 Chancen und Nutzen: Wo und wie können EbM und Digitalisierung zusammenkommen?

Literatur

Internetquellen

Prof. Dr. rer. nat. Gerd Antes

Jahrgang 1949, Mathematiker und Methodenwissenschaftler am Universitätsklinikum Freiburg und Honorarprofessor an der Medizinischen Fakultät der Universität Freiburg. Seit 1997 Direktor von Cochrane Deutschland und ehemals Mitglied der Steering Group der Cochrane Collaboration (bis 2004). Er ist Gründungs- und Vorstandsmitglied (2001–2003 als Sprecher) des Deutschen Netzwerk Evidenzbasierte Medizin, sowie Mitglied in mehreren Beratungsgremien und wissenschaftlichen Beiräten zur systematischen Nutzung von Evidenz in der Forschung und Gesundheitsversorgung

Valérie Labonté

Jahrgang 1981, Diplom-Biologin, Master-Abschluss in Public Health mit Spezialisierung auf Umweltrisiken. Seit 2016 wissenschaftliche Mitarbeiterin bei Cochrane Deutschland. Der Schwerpunkt ihrer Arbeit liegt im Wissenstransfer und der Wissenskommunikation an medizinisches Fachpublikum und medizinische Laien.

Andrea Puhl

Jahrgang 1978, Bachelor- und Master-Abschlüsse in Sprachen und Linguistik und Informations- und Wissensmanagement. Seit 2017 ist sie Kommunikationskoordinatorin bei Cochane Deutschland. Der Schwerpunkt ihrer Arbeit liegt in der Wissenskommunikation, -dissemination und -koordination.

Abstract:

Digitalisierung ist ein unaufhaltsames Phänomen in allen Lebensbereichen und auch in der Gesundheitsversorgung. Genomsequenzierungsdaten, Gesundheits-Apps oder die elektronische Patientenakte sind prominente Stichworte. Big Data will mit dem Aufspüren von Korrelationen in riesigen Datenmengen elegant die medizinische Versorgung revolutionieren. Zweifeln entgegnet man mit noch mehr Daten. Die methodischen Grundprinzipien der Evidenzbasierten Medizin werden dabei oft nicht beachtet. Doch das Aufspüren von Kausalitäten oder die Identifizierung von Nutzen und Schäden in klinischen Studien sind unverzichtbare Qualitätspfeiler in der modernen Gesundheitsversorgung.

1 Grundlagen des Konzepts „Evidenzbasierung“ und deren methodisches Fundament aus der Klinischen Epidemiologie


1

Die Entwicklung der Klinischen Epidemiologie und der Evidenzbasierten Medizin (EbM) begann 1968, vor fast fünfzig Jahren, an der McMaster Universität in Hamilton, Kanada. Die heutige Bezeichnung „Evidenzbasierte Medizin“ entstand Anfang der 1990er Jahre.1 Geschichte und Grundstrukturen der Evidenzbasierung wurden in dieser Buchreihe bereits ausführlich beschrieben und charakterisiert.2 Eine zentrale Komponente der EbM bildet dabei das kumulierte Wissen aus Studien unterschiedlicher Art, vor allem jedoch aus Interventionsstudien.

2

Erkenntnisse aus Interventionsstudien bilden heute den schnell wachsenden globalen Wissenspool, der im Wechselspiel zwischen globalem Austausch und lokaler Implementierung das wissenschaftliche Fundament der modernen Medizin bildet.3 Zentrales Ziel von Interventionsstudien zu diagnostischen und therapeutischen Verfahren ist die Identifizierung von Nutzen und möglichen Schäden oder Risiken und kausaler Verursachung. Ein Grundverständnis hiervon ist für das Schwerpunktthema „Digitalisierung“ des vorliegenden Buchs von zentraler Bedeutung. Denn das mit Digitalisierung untrennbar verbundene Thema „Big Data“ hat seit einigen Jahren eine Debatte hervorgerufen, die die Grundprinzipien von Kausalität für Wirksamkeitsnachweise und für die Bewertung von Schäden und Risiken durch das schlichte Auffinden von Korrelationen in riesigen Datenmengen in Frage stellt.4

1.1 Studien als Wissensgenerator für die Bewertung von medizinischen Interventionen


3

Um die Leistungsfähigkeit von Studien und die Vertrauenswürdigkeit der Ergebnisse richtig einzuschätzen, sei hier erst einmal an den Zweck von (klinischen) Studien erinnert. Nach individuellen diagnostischen oder therapeutischen Entscheidungen stellt sich jeweils die Frage, ob die getroffene Entscheidung die richtige war. Um diese Frage optimal zu beantworten, gibt es nur einen Weg: Der Genesene müsste zeitgleich, also tatsächlich parallel, mit den beiden (oder mehr) zu vergleichenden Verfahren diagnostiziert oder therapiert werden. Nur so wäre der Einfluss von weiteren störenden Faktoren, die die Bewertung der Verfahren beeinflussen, ausgeschaltet, da diese in beiden „Körperhälften“ jeweils gleich agieren und somit das Ergebnis des Vergleichs nicht verfälschen können. Diese Betrachtung ist natürlich nur fiktiv, da die Ergebnisse erst zu einem Zeitpunkt vorhanden sind, wenn sie diesem speziellen Patienten nicht mehr nützen. Zum zweiten ist der Patient nicht teilbar, sodass die zeitgleiche Behandlung nicht machbar ist (außer vielleicht in der Dermatologie beim Vergleich zweier Salben auf beiden Körperhälften). Um diesen praktisch nicht durchführbaren Vergleich innerhalb eines Patienten möglichst gut zu approximieren, dienen Studien – im einfachsten Fall als Zwei-Gruppen-Vergleich – als Ersatz dafür.

4

Daraus folgt sofort die Frage, wie gut die Approximation ist. Bedroht wird sie durch eine Fülle von Fehlermöglichkeiten, die sich prinzipiell in zwei Kategorien einordnen lassen. Einmal können die Gruppen sich zufällig unterscheiden und damit die Bewertung des Behandlungsunterschieds verfälschen. Diese in englischer Sprache so elegant als „play of chance“ bezeichnete Fehlerursache lässt sich durch ausreichende Gruppengröße und Kontrolle der Selektion für die Gruppen in Schach halten und spielt eine zentrale Rolle bei der statistischen Auswertung. Die zweite große Fehlerursache ist systematisch und kann von der Planung über die Durchführung bis hin zur Auswertung zu Verzerrungen der Aussagen führen, wofür heute auch in deutscher Sprache häufig der Begriff „Bias“ benutzt wird. Eine Autorengruppe zählte gar 235 existierende Begriffe für verschiedene Formen von Bias in der biomedizinischen Forschung.5

1.2 Wie hoch kann unser Vertrauen in Studienergebnisse sein?


5

Seit Beginn der systematischen Durchführung von Studien gibt es teils heftige Auseinandersetzungen um die Vertrauenswürdigkeit von Studienergebnissen. Eine der Frontlinien liegt zwischen einerseits experimentellen Studien, wie z. B. randomisierten kontrollierten Wirksamkeitsstudien, in denen Teilnehmer gezielt eine Intervention erhalten, und andererseits Beobachtungsstudien, in denen der unbeeinflusste Verlauf beobachtet wird. In den Anfangszeiten der EbM wurde zur Vertrauenswürdigkeit von Studien eine Evidenzhierarchie genutzt, in der randomisierte, kontrollierte Studien ganz oben standen, gefolgt von Kohortenstudien, Fall-Kontrollstudien sowie als letztes Fallserien und Fallstudien.6 Diese starre Hierarchie berücksichtigte nur das Studiendesign, nicht jedoch die Studiendurchführung und -qualität. Deshalb birgt sie das Risiko, mangelhaft durchgeführte Studien ggf. einzig aufgrund des als überlegen eingestuften Studiendesigns, zu hoch zu bewerten.

6

Immer noch werden doppelblinde, randomisierte Studien häufig als der vermeintliche Goldstandard, durch den allein das Prädikat „evidenzbasiert“ erreicht werden kann, angesehen. Dies zieht notwendigerweise Auseinandersetzungen und Kritik nach sich. Nach der Beschreibung in Abschnitt 1.1 sollte jedoch klar sein, dass der einzig wahre Goldstandard der fiktive und unmögliche Vergleich von zwei gleichzeitig durchgeführten Interventionen in einem Patienten ist. Die alleinige Hierarchisierung von Studientypen ohne Qualitätsbewertung birgt die Gefahr, dass die Ergebnisse verzerrt sind. Deshalb werden Einschätzungen zur Studienqualität heute routinemäßig mittels einer Bewertung des Risikos für Bias vorgenommen und beruhen auf einzelnen Domänen wie z. B. Vorurteilen bei der Bewertung klinischer Ergebnisse. Dazu wurden in den letzten Jahrzehnten Maßnahmen zur Bias-Reduzierung, wie in diesem Fall die Verblindung, eingeführt. Verblindung ist...

Kategorien

Service

Info/Kontakt