Odds Ratio (OR), Relatives Risiko, Absolutes Risiko und weitere statistische Grundbegriffe

„Odds“ bedeutet eigentlich: Die Wahrscheinlichkeit, beim Wetten zu gewinnen. Die „Odds“ in medizinischen Studien zeigt an, wieviele Ereignisse auf wieviele Nicht-Ereignisse kommen. Beispiel: 5 Medizinstudenten gehen in die Mensa. Dabei verdirbt sich 1 Student den Magen, während sich die 4 anderen Studenten nicht den Magen verderben. Die „Odds“ für das „Magenverderben“ beträgt hier 1 : 4 = 0,25 = 25%. (Im Vergleich dazu würde sich das „Risiko“ auf die Gesamtzahl der Studenten beziehen: Risiko = 1:5 = 0,2 = 20%.)

Odds Ratio (OR)

Die „Odds Ratio“ nun ist der Vergleich der Odds in zwei Gruppen. Beispiel: Eine Gruppe aus 80 Studenten geht in der Uni X in die Mensa, die andere Gruppe aus 80 Studenten geht in die Uni Y in die Mensa. In Uni X verdirbt sich einer von 80 den Magen, 79 bleiben also gesund (Odds = 1:79 = 0,012 = 1,2%), in Uni Y verderben sich drei von 80 Studenten den Magen, also bleiben 77 gesund (Odds = 3:77 = 0,039 = 3,9%). Die Odds Ratio beträgt dann: 1,2%:3,9% = 30,7%. Anhand der Odds Ratio gemessen, ist die Wahrscheinlichkeit, sich den Magen zu verderben, in Uni Y um 30,7% höher als in Uni X.

Relatives Risiko (RR)

Das Relative Risiko vergleicht auch zwei Gruppen. In jeder Gruppe bezieht sich der „Fall“ immer auf die Gesamtzahl, also jeweils auf alle 80 Studenten und nicht nur auf die, die gesund geblieben sind. So würde man ausrechnen: Risiko, an der Uni X zu erkranken = 1:80 = 0,0125 = 1,25%; an der Uni Y beträgt das Risiko 3:80 = 0,0375 = 3,75%. Das Relative Risiko beträgt dann 1,25%:3,75% = 0,33 = 33%. Das heißt, das Relative Risiko, sich in Uni Y den Magen zu verderben, ist um 33% höher als in Uni X. Heißt: Wenn an Uni X einer von 100 erkrankt, dann erkranken an Uni Y also 3 von 100 – das sind „nur“ 2 Studenten mehr. Hieran sieht man, wie die hohen Prozentzahlen die Leser verwirren und unnötig beeindrucken können.

Relatives Risiko (RR) = (Inzidenz bei Exponierten) : (Inzidenz bei Nicht-Exponierten).
Inzidenz
= Neues Auftreten einer Erkrankung.
Exponierte = Menschen, die einem Risiko ausgesetzt sind.
Beispiel: Menschen, die im Büro Erkältungsviren ausgesetzt sind, sind den Viren gegenüber „exponiert“.
RR > 1 = Die Exposition führt verstärkt zur Erkrankung.
RR = 1 = Die Exposition hat keinen Einfluss auf die Entstehung einer Krankheit.
RR < 1 = Die Exposition schützt vor der Krankheit.

Absolutes Risiko

Wenn in Studienergebnissen das „absolute Risiko“ präsentiert wird, dann sollten wir als Leser etwas über „absolute Zahlen“ erfahren (leider werden in Artikeln nicht immer alle Zahlen genannt). Beispiel: An der Krankheit X versterben normalerweise 20 von 1000 Menschen. Unter dem Einfluss des schlechten Medikamentes Y versterben 26 von 1000 Menschen an der Krankheit X. Das absolute Risiko beträgt dann „6 von 1000 mehr“, also 6 Promille. Siehe: Wegwarth, Odette und Gigerenzer, Gerd: Risikokommunikation: Nutzen und Risiken richtig verstehen. Dtsch Arztebl 2011; 108(11): A-568 / B-461 / C-461

Cox-Modell

Das Cox-Modell wird auch als proportionales Hazard-Modell bezeichnet. Mit einem Cox-Modell wird gemessen, welchen Einfluss mehrere Variablen gleichzeitig auf eine Zielvariable haben.

Konfidenzintervall

Wer eine Frage anhand einer Stichprobe beantworten will, kann nie sicher sein, wie repräsentativ diese Stichprobe ist. Ausgedachtes Beispiel: Ich nehme 100 Schüler, um die Frage zu beantworten, welche Mathe-Note am häufigsten vergeben wird. Angenommen, von diesen 100 Schülern haben 60 Schüler die Note „3“ erhalten. Dann kann ich nicht sagen, dass in ganz Deutschland die meisten Schüler eine „3“ in Mathe haben.

Würde ich erneut 100 Schüler auswählen, hätten hier vielleicht 54 Schüler eine „3“. Nehmen wir an, ich würde immer wieder 100 Schüler auswählen und feststellen, dass in 95% der Fälle zwischen 54 und 60 Schülern eine „3“ haben. Dann lässt sich das statistisch gesprochen so ausdrücken: Das Konfidenzintervall liegt zwischen 54 und 60. Geschrieben sieht es dann so aus: „95% CI 54-60“.

p-Wert

Der „p-Wert“ wird in wissenschaftlichen Studien angegeben, um zu zeigen, ob ein Studienergebnis „signifikant“ ist oder nicht. „Signifikant“ heißt, dass das Studienergebnis von Bedeutung für den Patienten ist: Zusammenhänge zwischen zwei Faktoren konnten überdurchschnittlich häufig festgestellt werden.

Beispiel: Der Zusammenhang zwischen der Senkung des Blutdrucks und der Einnahme eines Betablockers ist hochsignifikant. Obwohl in der Medizin oft nur Zusammenhänge beschrieben werden können und man nicht immer sagen kann, dass der Faktor „X“ ursächlich zum Ergebnis „Y“ geführt hat, so kann man beim Beispiel der Betablocker davon ausgehen, dass Betablocker den Blutdruck senken. Zum p-Wert gibt es sehr viele Abhandlungen, Erklärungen, Kritiken und Interpretationen.

Häufig haben die p-Werte diese Bedeutung: p < 0,05 = das Ergebnis ist signifikant. In vielen Studien wird die Grenze auch bei 0,01 gesetzt, also: p < 0,01 = das Ergebnis ist signifikant, p < 0,001 = das Ergebnis ist hochsignifikant.

Intent-to-Treat-Analyse (ITT)

Wissenschaftler, die eine klinische Studie durchführen, haben zu Beginn der Untersuchung eine bestimmte Anzahl von Patienten. Über die Dauer der Studie fallen jedoch immer wieder Patienten aus, deren Daten dann am Ende fehlen. Ein Studienergebnis ist sehr genau, wenn ich am Schluss nur die Patienten untersuche, die von Anfang bis Ende der Studie dabei waren. Bei der Intent-to-treat-Analyse allerdings wird das Ergebnis auf alle Studienteilnehmer bezogen, also auch auf diejenigen, die ausgefallen sind.

Diese Art der Analyse kann dann sinnvoll sein, wenn Wissenschaftler die Realität widerspiegeln möchten. Beispielsweise landen im Alltag viele Medikamente im Müll. So könnte man beispielsweise sagen, dass ein Medikament, das 100-mal verschrieben wurde, durchschnittlich 30 Patienten hilft. Das bedeutet nicht unbedingt, dass das Medikament nur wenig Wirkung zeigt. Sondern es kann auch heißen, dass immer wieder einige Patienten aus der Therapie „aussteigen“.

Effektstärke: Cohen’s d

Der „d-Wert“ wird auch „Cohens d“ genannt. Wenn Studien mit zwei Gruppen durchgeführt werden, dann vergleicht man unter anderem die Mittelwerte der Ergebnisse von Gruppe 1 und Gruppe 2. Ob die Mittelwertunterschiede bedeutsam sind, zeigt sich im „d-Wert“.
d = 0,2: kleiner Effekt
d = 0,5: mittlerer Effekt
d = 0,8: starker Effekt

Die Effektstärke ist ein Maß, mit dem der Erfolg einer Therapie beurteilt werden kann. In Studien zur Psychotherapie misst man damit, in welchem Ausmaß sich therapierte Patienten besser fühlen als solche, die keine Therapie erhalten haben, weil sie beispielsweise noch auf der Warteliste standen (Kontrollgruppe). Effektstärken werden unterschiedlich bewertet und sind sehr umstritten. Der Psychologe Jacob Cohen bewertet die Effektstärken beispielsweise so:
ES > 0,2 = geringe Wirksamkeit der Therapie
ES > 0,5 = mittlere und ab
ES = 0,8 bis 1,0 = hohe Wirksamkeit.
Die Formel zur Berechnung der Effektstärke lautet: d = (Mt – Mc) / s, was bedeutet: Mittelwert der Therapiegruppe minus Mittelwert der Kontrollgruppe geteilt durch die Standardabweichung.

t-Test

Der „t-Test“ vergleicht die Mittelwerte zweier Gruppen.

Standardisierte Mittelwertdifferenz, SMD

Die Standardisierte Mittelwertdifferenz (Standardized Mean Difference, SMD) wird als Effektmaß verwendet, wenn man viele Studien zu einer Frage untersucht, also eine Meta-Analyse durchführt. Beispiel: Ich möchte wissen, ob ein Antidepressivum bei Fibromyalgie wirkt. Dann kann ich verschiedene Studien unter die Lupe nehmen, die dieser Frage bereits nachgegangen sind. Angenommen, in den verschiedenen Studien wurden verschiedene Messmethoden vorgenommen, z. B. verschiedene Fragebögen zu Schmerzen oder Lebensqualität benutzt. Dann ist es schwierig, die verschiedenen Studienergebnisse als ein Ergebnis zusammenzufassen. Wenn ich trotzdem auf ein Ergebnis kommen möchte, kann ich dazu die Standardisierte Mittelwertdifferenz benutzen. Hieraus kann ich dann ablesen, wie sehr ein Antidepressivum im Mittel die Fibromyalgiesymptome verändert hat.

Kappa-Koeffizient nach Cohen

Der Kappa-Koeffizient nach Cohen misst, wie sehr die Untersuchungsergebnisse von zwei Gutachtern übereinstimmen. Zum Beispiel misst er, wie zuverlässig zwei Forscher mit einer bestimmten Methode eine bestimmte Erkrankung erkennen können (z.B. „Das Dermoskopie-Bild zeigt Hautkrebs/keinen Hautkrebs“). Die beiden Untersucher sind die „Rater“. Wie hoch die Übereinstimmung zwischen den beiden „Ratern“ ist, nennt man „Inter-Rater-Korrelation“. Wenn ? den Wert „1“ hat, heißt das, dass die beiden Untersucher immer zum selben Ergebnis kommen – es gibt eine perfekte Übereinstimmung. Werte > 8 sind exzellent, Werte zwischen 0,61-0,80 sind gut, Werte zwischen 0,4-0,6 sind ausreichend und Werte < 0,4 schwach.

Kumulative Inzidenz

Die Kumulative Inzidenz beschreibt, wieviele Personen neu erkranken, bezogen auf die Personenzahl zu Beginn der Beobachtung. Will ein Chef wissen, wieviele Mitarbeiter im Laufe von 5 Jahren an einer Grippe erkranken, so beobachtet er den Verlauf. Hat er 1000 Mitarbeiter und stellt fest, dass innerhalb von 5 Jahren 200 Mitarbeiter erkranken, so kann er sagen: „Die KI innerhalb von 5 Jahren beträgt 200/1000 = 0,2. Das heißt: 20% der Mitarbeiter erkranken im Laufe von 5 Jahren an einer Grippe (Quelle: Ch. Vutuc et al., meduniwien.ac.at).

Number needed to treat

Die Number needed to treat (NNT) gibt an, wieviele Patienten behandelt werden müssen, um bei einem Patienten ein Ergebnis zu erzielen (z. B. ein Medikament zeigt Wirkung) oder um ein Ereignis zu verhindern (z. B. ein Medikament verhindert Herzinfarkt). Die „Number needed to treat“ ist ein Maß für die Effektivität einer Therapie. Beispiel: Ich habe 100 Patienten mit Knieschmerzen. Ich will wissen, ob mein Schmerz-Gel es schafft, die Patienten vollständig von ihren Schmerzen zu befreien. Ich teste mein Schmerz-Gel und stelle fest: Erst, wenn ich 4 Patienten mit meinem Schmerz-Gel behandele, zeigt sich bei einem Patienten eine vollständige Schmerzreduktion. Dann ist die NNT = 4. Das bedeutet: Mein Schmerz-Gel ist nur bei jedem 4. Patienten komplett wirksam.

Verwandte Artikel in diesem Blog:

Links:

Karl Ernst von Mühlendahl:
Odds Ratio (OR) und Relatives Risiko (RR)
Statistik und Verschleierungsmöglichkeiten
Umweltmed Forsch Prax 3 (3) 124 (1998)
ecomed verlagsgesellschaft, Landsberg 1998

Wolfgang Ludwig-Mayerhofer, Uni Siegen:
„Konfidenzintervalle so einfach wie möglich erklärt“.

A. Ziegler et al.:
Überlebenszeitanalyse: Die Cox-Regression.
Statistik-Serie der Deutschen Medizinischen Wochenschrift (DMW)
Artikel Nr. 17, Thieme-Verlag
http://rbsd.de/PDF/DMW/DMW-2007-S1-17.pdf

Dieser Beitrag wurde erstmals veröffentlicht am 14.9.2010
Aktualisiert am 26.11.2025

3 thoughts on “Odds Ratio (OR), Relatives Risiko, Absolutes Risiko und weitere statistische Grundbegriffe

  1. Dunja Voos sagt:

    Herzlichen Dank für diesen Kommentar, lieber Heiner! Wie man leicht merkt, kenne ich mich mit Statistik leider nicht aus und versuche nur, wenigstens einen groben Anhaltspunkt zu geben für Laien. Daher freue ich mich immer über Richtigstellungen und Erklärungen. Danke!

  2. Heiner sagt:

    Liebe Frau Voos,

    ist es nicht eher so:

    Odds(X) = 1/79 = 1,266 % Odds(Y) = 3/77 = 3,896 % OR(Y,X) = Odds(Y)/Odds(X) = 3,896/1,266 = 3,07 = 307 % = 207 % höher in Y als in X (was nicht ganz „hinkommt“, die Abweichung ist bei größeren Odds-Werten noch größer).
    Demnach wäre das Risiko in Y 3,07 mal so hoch wie in X (wenn denn die OR eine geeignete Kennzahl wäre, so etwas zu berechnen), oder OR(X,Y) = 0,325 = 32,5 % : Das Risiko in X ist um 67,5 % geringer als in Y.

    Analog zum RR:

    Risk(X) = 1/80 = 1,25 % Risk(Y) = 3/80 = 3,75 % RR(Y,X) = 3,75/1,25 = 3,000 = 300 % = 200 % höher in Y als in X
    Womit das Risiko in Y genau 3 mal so groß ist wie in X, was offenbar genau stimmt.

    Was mich an der ganzen Sache interessiert: Warum arbeitet man in Ihrem Fachbereich überhaupt mit Odds-Werten? Oder anders gefragt: Was lässt sich mit Odds besser oder anschaulicher ausdrücken als mit Risk? Was ließe sich damit korrekt berechnen, das mit Risk (so einfach) nicht ginge?

    Herzliche Grüße
    Heiner

  3. Adrian sagt:

    Liebe Frau Voos,

    ich bin eher zufällig auf Ihre Seite gestoßen und würde gern die Erläuterung zum OddRatio (OR) kommentieren, die nicht ganz richtig sind. Der OR beschreibt ein Quoten- oder Chancenverhältnis, damit lassen sich keine Aussagen über Wahrscheinlichkeiten machen. Eine Wahrscheinlichkeit beschränkt sich auf das Intervall [0,1] wohingegen der OR zwischen [0, unendlich) liegen kann. OR = 1 bedeutet keinen Unterschied, OR 1 eben höhere Chancen. In Ihrem Beispiel ist der OR für Schule X ca. 0.3, die Chancen in Schule X sind deutlich geringer als in Schule Y sich den Magen zu verderben. Mit diesem OR von 0.3, der für Schule X bestimmt wurde, lässt sich nicht direkt auf Schule Y schließen. Der OR für Schule Y ist 3.9/1.2 ~ 3.2 oder 1/OR für Schule X = 1/0.3, damit sind die Chancen in Schule Y um mehr als 200% höher als in Schule X.

    LG, Adrian

Schreibe einen Kommentar