Kitabı oku: «Medizinstatistik für den beruflichen Alltag»
Medizinstatistik für den beruflichen Alltag
1 1. Vorwort
2 2. Stichwortverzeichnis
3 3. Ereignis
4 4. Nullhypothese/Alternativhypothese
5 5. Randomisierung
6 6. Endpunkt
7 7. Hierarchische Testung
8 8. Testungen
9 9. Media/Arithmetisches Mittel
10 10. Effektstärke
11 11. Relatives und absolutes Risiko/Hazard Ratio
12 12. Analysezeitpunkt
13 13. Data Set
14 14. Signifikanz
15 15. Power
16 16. Zusammenhang zwischen α- und β-Fehler
17 17. Einflussgrößen auf α- und β-Fehler
18 18. Konfidenzintervall
19 19. Einseitige Testung (One Sided)
20 20. Zweiseitige Testung (Two Sided)
21 21. Patientenzahl/Fallzahl
22 22. Proportional Hazards
23 23. Zensierte Patienten
24 24. Kaplan-Meier-Methode
25 25. Störfaktoren (Confounder)
26 26. Subgruppenanalyse
27 27. Adjustieren
28 28. Univariat/Multivariat
29 29. Bias/Verzerrung
30 30. Interaktionstest
31 31. Statistische Testverfahren
32 32. Abkürzungsverzeichnis
33 33. Quellenverzeichnis
1. Vorwort
Vorwort
Medizinische Studien enthalten eine Vielzahl von Fachausdrücken zur Statistik. Viele hantieren mit diesen Ausdrücken, haben eine ungefähre Ahnung, was sich dahinter verbirgt. Aber wissen sie es wirklich?
Man könnte meinen, dass manches Statistiklehrbuch Abhilfe schaffen könnte. Doch ein Blick in diese Bücher erweist sich häufig als Trugschluss. Sie wurden von Mathematikern mit ihrem Blick auf die Statistik geschrieben und werden nicht den Menschen gerecht, die sich mit medizinischen Studien beschäftigen. Sie sind kompliziert geschrieben und sind für die Interpretation der Studien mit zu viel mathematischem Wissen überladen.
Um eine Studie interpretieren zu können, muss man nicht die hinter den einzelnen Ausdrücken stehende Statistik beherrschen, man braucht keine komplizierten Formeln zu verstehen – dies erledigen die Computer für uns. Es ist nur wichtig, zu wissen, welche Bedeutung sich hinter den einzelnen Fachausdrücken verbirgt und wie sie einzuordnen sind.
Dieses Buch soll dazu beitragen, die einzelnen Begriffe der Statistik, die studienrelevant sind, praxisnah zu erläutern und ein Verständnis für deren Zusammenhänge zu liefern. Somit wird eine Einordnung der Daten erleichtert.
Sie vermissen in diesem Buch einen Begriff aus der Statistik? Dann bitte ich Sie, mir diesen Begriff zu mailen, damit ich ihn in einer neuen Auflage einarbeiten kann.
Für einen besseren Lesefluss wird in diesem Buch das generische Maskulinum verwendet. Es sind in jedem Fall alle Geschlechter und Identitäten gemeint (z. B.: Der Arzt behandelt seinen Patienten und verabreicht ihm seine Medizin bedeutet Der Arzt/die Ärztin behandelt seinen/ihren Patienten/Patientin und verabreicht ihm seine/ihr ihre Medizin ).
Köln, September 2021 Christoph Thiele
2. Stichwortverzeichnis
Die angegebenen Stichwörter sind im dem Kapitel, das hinter dem Pfeil steht, zu finden.
2x2-Feldertafel → 30. Interaktionstest
α-Fehler → 14. Signifikanz
α-Fehler, Adjustierung → 27. Adjustieren
α-Fehler, Einfluss auf β-Fehler → 17. Einflussgrößen auf α- und β-Fehler
α-Fehler, Patientenzahl → 21. Patientenzahl/Fallzahl
β-Fehler → 15. Power
β-Fehler, Einfluss auf α-Fehler → 17. Einflussgrößen auf α- und β-Fehler
β-Fehler, Patientenzahl → 21. Patientenzahl/Fallzahl
A priori → 8. Testungen
Absolute Risikoreduktion → 11. Relatives und absolutes Risiko
Absolutes Risiko → 11. Relatives und absolutes Risiko
According to Protocol Set → 13. Data Set
Adaptive Randomisierung → 5. Randomisierung
Adjustieren → 27. Adjustieren
Affix → 30. Interaktionstest
Alpha-Fehler → 14. Signifikanz
Alphafehlerinflation → 27. Adjustieren
Alphafehlerkumulierung → 27. Adjustieren
Allocation-Bias → 29. Bias/Verzerrung
Alternativhypothese → 4. Nullhypothese/Alternativhypothese
Analysezeitpunkt → 12. Analysezeitpunkt
Äquivalenzbereich → 20. Zweiseitige Testung
Äquivalenzstudie → 20. Zweiseitige Testung
Arithmetisches Mittel → 9. Median/Arithmetisches Mittel
As Treated Set → 13. Data Set
AT → 13. Data Set
ATP → 13. Data Set
Attrition-Bias → 29. Bias/Verzerrung
Baseline Adaptive Randomisierung → 5. Randomisierung
Basket-Studie → 13. Data Set
Benjamin-Hochberg-Prozedur → 27. Adjustieren
Benjamin-Yekutieli-Prozedur → 27. Adjustieren
Beobachter-Bias → 29. Bias/Verzerrung
Beta-Fehler → 15. Power
Bias → 29. Bias/Verzerrung
Bioäquivalenz → 20. Zweiseitige Testung
Bivariat → 28. Univariat/Multivariat
Blockrandomisierung → 5. Randomisierung
Boferroni-Holm-Prozedur → 27. Adjustieren
Bonferroni-Korrektur → 27. Adjustieren
Bootstrapping-Verfahren → 31. Statistische Testverfahren
Chancenverhältnis → 11. Relatives und absolutes Risiko
Ceteris paribus → 5. Randomisierung
Chi-Quadrat-Test → 31. Statistische Testverfahren
Cohen → 10. Effektstärke
Co-primäre Endpunkte → 6. Endpunkt
Confounder → 25. Störfaktoren
Contergan-Skandal → 6. Endpunkt
Cox-Regression → 31. Statistische Testverfahren
Data Set → 13. Data Set
Detection-Bias → 29. Bias/Verzerrung
Disordinale Interaktion → 30. Interaktionstest
Dissemination-Bias → 29. Bias/Verzerrung
Drei-Wege-Interaktion → 30. Interaktionstest
Dunett-Prozedur → 27. Adjustieren
Effektstärke → 10. Effektstärke
Effektunterschied, Einfluss auf den α- und β-Fehler → 17. Einflussgrößen auf α- und β-Fehler
Effektunterschied, Einfluss auf die Patientenzahl → 21. Patienzahl/Fallzahl
Efron's Method → 31. Statistische Testverfahren
Einfache Randomisierung → 5. Randomisierung
Einflussgrößen auf α- und β-Fehler → 17. Einflussgrößen auf α- und β-Fehler
Einseitige Testung → 19. Einseitige Testung
Endpunkt → 6. Endpunkt
Ereignis → 3. Ereignis
Exakter Chi-Quadrat-Test → 31. Statistische Testverfahren
Explorativ → 8. Testungen
Fallzahl → 21. Patientenzahl/Fallzahl
FAS → 13. Data Set
Fisher-Yates-Test → 31. Statistische Testverfahren
Fisher's Exact Test → 31. Statistische Testverfahren
Frühe Zensur → 23. Zensierte Patienten
Full Analysis Set → 13. Data Set
Gallup-Umfrage → 29. Bias/Verzerrung
Gegenereignis → 3. Ereignis
Gleichheitsstudie → 20. Zweiseitige Testung
Hazard → 11. Relatives und absolutes Risiko
Hazard Ratio → 11. Relatives und absolutes Risiko
Hierarchische Testung → 7. Hierarchische Testung
Hochsignifikant → 14. Signifikanz
Hommel-Prozedur → 27. Adjustieren
Infarct Survival Collaborative Group → 26. Subgruppenanalyse
Information-Bias → 29. Bias/Verzerrung
Intention to Treat Set → 13. Data Set
Interaktion 1. Ordnung → 30. Interaktionstest
Interaktion 2. Ordnung → 30. Interaktionstest
Interaktionstest → 30. Interaktionstest
Interimsanalyse → 12. Analysezeitpunkt
Intervallzensiert → 23. Zensierte Patienten
ITT → 13. Data Set
Kaplan-Meier-Methode → 24.Kaplan-Meier-Methode
Kaplan-Meier-Schätzer, Berechnung → 24. Kaplan-Meier-Methode
Kleine Patientenzahlen → 23. Zensierte Patienten
Konfidenzbereich → 18. Konfidenzintervall
Konfidenzintervall → 18. Konfidenzintervall
Konfirmatorisch → 8. Testungen
Konfundierung → 25. Störfaktoren
Linkszenisert → 23. Zensierte Patienten
Log-Rank-Test → 31. Statistische Testverfahren
Mann-Whitney U-Test → 31. Statistische Testverfahren
Marmeladenbrotexperiment → 4. Nullhypothese/Alternativhypothese
Matching → 25. Störfaktoren
Median → 9. Median/Arithmetisches Mittel
Methode von Cohen → 10. Effektstärke
Miasma-Theorie → 25. Störfaktoren
Modalwert → 9. Median/Arithmetisches Mittel
Modus → 9. Median/Arithmetisches Mittel
Multivariat → 28. Univariat/Multivariat
Nichtüberlegenheit → 19.Einseitige Testung
Nichtunterlegenheit → 19.Einseitige Testung
Nichtunterlegenheitsstudie → 19.Einseitige Testung
Non-inferiority trial → 19.Einseitige Testung
Nullhypothese → 4. Nullhypothese/Alternativhypothese
NNT → 11. Relatives und absolutes Risiko
Number needed to treat → 11. Relatives und absolutes Risiko
Obere Konfidenzgrenze → 18. Konfidenzintervall
Obermedian → 9. Median/Arithmetisches Mittel
Observer-Bias → 29. Bias/Verzerrung
Odds Ratio → 11. Relatives und absolutes Risiko
One Sided → 19. Einseitige Testung
Ordinale Interaktion → 30. Interaktionstest
Patienten unter Risiko → 24. Kaplan-Meier-Methode
Patientenzahl → 21. Patientenzahl/Fallzahl
Patientenzahl, Einfluss auf den α- und β-Fehler → 17. Einflussgrößen auf α- und β-Fehler
Per Protocol Set → 13. Data Set
Performance-Bias → 29. Bias/Verzerrung
Pharmazeutische Äquivalenz → 20. Zweiseitige Testung
Pivotal → 8. Testungen
Play the winner-Randomisierung → 5. Randomisierung
Post hoc → 8. Testungen
Power → 15. Power
PP → 13. Data Set
Präfix → 30. Interaktionstest
Präspezifiziert → 8. Testungen
Pre-planned → 8. Testungen
Primärer Endpunkt → 6. Endpunkt
Porportional Hazard Model → 31. Statistische Testverfahren
Proportional Hazards → 22. Proportional Hazards
Prozent → 24. Kaplan-Meier-Methode
Prozentpunkt → 24. Kaplan-Meier-Methode
Publication-Bias → 29. Bias/Verzerrung
Quasi-Randomisierung → 5. Randomisierung
Randomisierung → 5. Randomisierung
Randomisierungsliste → 5. Randomisierung
Rechtszensiert → 23. Zensierte Patienten
Relative Risikoreduktion → 11. Relatives und absolutes Risiko
Relatives Risiko → 11. Relatives und absolutes Risiko
Reporting-Bias → 29. Bias/Verzerrung
SAF → 13. Data Set
Safety Set → 13. Data Set
Sample-Bias → 29. Bias/Verzerrung
Sekundärer Endpunkt → 6. Endpunkt
Selektions-Bias → 29. Bias/Verzerrung
Sensitivität → 16. Zusammenhang zwischen α- und β-Fehler
Sicheres Ereignis → 3. Ereignis
Signifikanz → 14. Signifikanz
Skorpion → 26. Subgruppenanalyse
Späte Zensur → 23. Zensierte Patienten
Spezifität → 16. Zusammenhang zwischen α- und β-Fehler
Sponsor → 21. Patientenzahl/Fallzahl
Statistische Signifikanz → 14. Signifikanz
Statistische Testverfahren → 31. Statistische Testverfahren
Sternzeichen → 26. Subgruppenanalyse
Störfaktor → 25.Störfaktoren
Student-Test → 31. Statistische Testverfahren
Student's t-Test → 31. Statistische Testverfahren
Subgruppenanalyse → 26. Subgruppenanalyse
Suffix → 30. Interaktionstest
Superioritiy trial → 19.Einseitige Testung
Surrogat-Endpunkt → 6. Endpunkt
Stratifizierte Randomisierung → 5. Randomisierung
T-Test → 31. Statistische Testverfahren
Tertiärer Endpunkt → 6. Endpunkt
Teststärke → 15. Power
Testungen → 8. Testungen
Trennschärfe → 15. Power
Two Sided → 20. Zweiseitige Testung
U-Test → 31. Statistische Testverfahren
Überlegenheit → 19.Einseitige Testung
Überlegenheitsstudie → 19.Einseitige Testung
Umbrella-Studie → 13. Data Set
Univariat → 28. Univariat/Multivariat
Unmögliches Ereignis → 3. Ereignis
Untere Konfidenzgrenze → 18. Konfidenzintervall
Unterlegenheit → 19.Einseitige Testung
Untermedian → 9. Median/Arithmetisches Mittel
Variat → 28. Univariat/Multivariat
Verzerrung → 29. Bias/Verzerrung
Wilcoxon-Mann-Whithey-Test → 31.Statistische Testverfahren
Wilcoxon-Test → 31. Statistische Testverfahren
Zensierte Patienten → 23. Zensierte Patienten
Zentralwert → 9. Median/Arithmetisches Mittel
Zusammenhang α- und β-Fehler → 16. Zusammenhang zwischen α- und β-Fehler
Zweiseitige Testung → 20. Zweiseitige Testung
Zwei-Wege-Interaktion → 30. Interaktionstest
3. Ereignis
Ereignis
In einem Experiment wird ein normaler Würfel geworfen. Es können sechst mögliche Augenzahlen (1, 2, 3, 4, 5 oder 6) erscheinen. Die gewürfelte Zahl ist das Ergebnis des Experiments. Wenn nun vorher festgelegt wurde, dass nur die geraden Zahlen (2, 4, 6) betrachtet werden sollen, spricht man beim Auftreten eines Wurfs, der eine gerade Zahl zeigt, von einem Ereignis. Beim Wurf einer ungeraden Zahl spricht man von einem Gegenereignis.
In Studien bezieht sich das Ereignis immer auf den Endpunkt, der jeweils betrachtet werden soll. Ist der zu betrachtende Endpunkt z. B. in einer onkologischen Studie das Overall Survival (OS), können nur zwei Ergebnisse auftreten – entweder der Patient lebt noch oder der Patient ist verstorben. Der Tod des Patienten wäre in diesem Fall das Ereignis. Solange der Patient noch lebt, besteht das Gegenereignis fort.
© caro_oe92 (via pixabay.com), Pixabaylizenz
Nice to know
Neben dem Ereignis und Gegenereignis gibt es noch das sichere und das unmögliche Ereignis. Auf das obige Würfelexperiment angewendet wäre ein sicheres Ereignis, dass das Ergebnis eine Zahl zwischen 1 und 6 ist. Da der Würfel auf jeden Fall eine dieser sechs Zahlen zeigen wird, tritt bei jedem Wurf ein Ereignis auf. Ein unmögliches Ereignis wäre, dass das Ergebnis eine 7 ist. Da der Würfel nur Zahlen von 1 bis 6 zeigen kann, wird die 7 niemals auftreten und deren Erscheinen wäre somit unmöglich.
4. Nullhypothese/Alternativhypothese
Eine Hypothese ist eine Annahme, deren Gültigkeit noch nicht bewiesen ist. Eine Überprüfung der Hypothese kann sie bestätigen bzw. widerlegen und sie kann somit verworfen werden. Streng genommen besteht noch eine dritte Möglichkeit: Nämlich, dass anhand der Überprüfung keine Aussage über die Richtigkeit oder Nicht-Richtigkeit der Hypothese getroffen werden kann.
In der Statistik jedoch kann nur bewiesen werden, dass etwas nichtzutrifft, man kann nicht beweisen, dass etwas zutrifft.
Ich stelle z. B. die Hypothese “Ein Marmeladenbrot, das vom Tisch herunterfällt, landet öfter auf der Marmeladenseite als auf der Rückseite“. Anschließend führe ich ein Experiment durch und lasse 100 Mal ein Marmeladenbrot vom Tisch fallen. Es landet 70 Mal auf der Marmeladenseite und 30 Mal auf der Rückseite. Damit habe ich meine Hypothese nicht bewiesen, da sich womöglich bei 1000 Fallversuchen das Verhältnis der gelandeten Seiten vertauscht hätte und das Marmeladenbrot häufiger auf der Rückseite gelandet wäre.
Ist dagegen das Ergebnis meines Experiments, dass nach den 100 Fallversuchen das Marmeladenbrot 70 Mal auf der Rückseite und nur 30 Mal auf der Marmeladenseite gelandet wäre, müsste ich meine Hypothese (dass das Marmeladenbrot öfter auf der Marmeladenseite landet) verwerfen, da ich gerade in dem Experiment nachgewiesen hätte, dass dem nicht so wäre.
© Pexels (via pixabay.com), Pixabaylizenz
Um dieses Dilemma zu umgehen, behilft man sich in der Statistik mit dem Konstrukt der Nullhypothese und der Alternativhypothese.
Dabei besagt die Nullhypothese genau das Gegenteil dessen, was man beweisen will und die Alternativhypothese das, was man beweisen will. Wenn das Ergebnis einer Studie zeigt, dass die Nullhypothese nicht zutrifft (also verworfen oder abgelehnt werden muss), muss die Alternativhypothese richtig sein. Sollte jedoch die Nullhypothese zutreffen, kann daraus nicht geschlossen werden, dass die Alternativhypothese falsch ist. Die Nullhypothese wird üblicherweise mit H0 und die Alternativhypothese mit HA bezeichnet.
Auf das obige Marmeladenbrotbeispiel angewendet, wäre die Nullhypothese “Ein Marmeladenbrot, das vom Tisch fällt, landet gleich oft oder weniger oft auf der Marmeladenseite als auf der Rückseite“ (somit genau das Gegenteil dessen, was ich beweisen möchte) und die Alternativhypothese wäre meine ursprüngliche Aussage “Ein Marmeladenbrot, das vom Tisch fällt, landet öfter auf der Marmeladenseite als auf der Rückseite“.
Nun führe ich wieder das Experiment durch – bei 100 Fallversuchen landet es 65 Mal auf der Marmeladenseite und 35 Mal auf der Rückseite. Somit wäre meine Nullhypothese nicht erfüllt und die Alternativhypothese muss wahr sein. Hätte der Versuch das umgekehrte Ergebnis ergeben, wäre die Nullhypothese erfüllt, aber es wäre keine Aussage über die Alternativhypothese möglich.
Auf medizinische Studien übertragen bedeutet das: Soll in einer Studie eine bessere Wirksamkeit (Überlegenheit) eines Medikaments A gegenüber einem Medikament B nachgewiesen werden, wird als Nullhypothese angenommen “Medikament A wirkt gleich gut oder schlechter als Medikament B“ und als Alternativhypothese “Medikament A wirkt besser als Medikament B“.
Soll dagegen gezeigt werden, dass Medikament A nicht schlechter wirkt als Medikament B (Nichtunterlegenheit), wird als Nullhypothese “Medikament A wirkt schlechter als Medikament B“ und als Nullhypothese “Medikament A wirkt genauso gut oder besser als Medikament B“ gewählt.
Zudem gibt es noch die Möglichkeit, dass es einen Unterschied (egal ob besser oder schlechter) in der Wirksamkeit des Medikaments A gegenüber Medikament B gibt (Gleichheit). Die Nullhypothese lautet in dem Fall “Medikament A wirkt gleich gut wie Medikament B” und die Alternativhypothese “Medikament A wirkt besser oder schlechter als Medikament B”.
Bei der Formulierung der Null- und Alternativhypothese muss darauf geachtet werden, dass keine Überschneidungen stattfinden, d. h. es dürfen keine Elemente auftreten, auf die beide Hypothesen zutreffen. So ist z. B. das Hypothesenpaar: Nullhypothese = “Wiederkäuer stoßen gleichviel oder weniger Methan aus als Haustiere” und Alternativhypothese = “Wiederkäuer stoßen mehr Methan aus als Haustiere” unzulässig, da Rinder sowohl zur Gruppe der Wiederkäuer als auch zur Gruppe der Haustiere gehören.
Nice to know
Das Marmeladenbrot fällt beim Herunterfallen vom Tisch tatsächlich öfter auf die Marmeladenseite als auf die Rückseite. Dies liegt allerdings nicht an Murphys Gesetz, sondern lässt sich durch die Physik erklären. Wenn das Brot vom Tisch fällt erhält es einen Drehimpuls. Die Fallhöhe von ca. 1m bedingt jedoch, dass das Brot häufig nur eine halbe Drehung vollziehen kann und landet somit auf der Marmeladenseite. Würde man im Experiment das Marmeladenbrot aus größerer Höhe fallen lassen – statt vom Tisch fällt es nun z. B. vom Balkon – erhält man eine ziemliche Gleichverteilung der Seiten, auf die das Brot fällt. [1]
Ücretsiz ön izlemeyi tamamladınız.