EINFÜHRUNG
In der modernen Medizin ist man fortwährend auf der Suche nach möglichen Biomarkern, mit denen man etwa Erkrankungen diagnostizieren, den Therapieverlauf verfolgen oder eine Prognose über den Krankheitsverlauf stellen kann. Statistisch gesprochen geht es darum, klinisch relevante Zusammenhänge (Assoziationen) zwischen erhobenen Messgrößen (Variablen) zu erkennen und zu quantifizieren. Eine einfache statistische Möglichkeit hierfür besteht in der sogenannten Korrelationsanalyse, mit deren Hilfe gewisse Zusammenhänge zwischen zwei Variablen X und Y bestimmt werden können. Es ergeben sich bei der Korrelation immer Werte zwischen -1 und +1, welche die Stärke und die Richtung des Zusammenhangs widerspiegeln. Aber Achtung, eine (signifikante) statistische Korrelation zwischen zwei Variablen ist nicht gleichbedeutend mit einem Kausalzusammenhang zwischen diesen beiden Variablen. Man spricht in diesem Fall auch von einer Scheinkorrelation („spurious correlation“) [1], wobei man dies besser eine Scheinkausalität nennen sollte. Ein klassisches Beispiel hierfür ist der Zusammenhang zwischen der Geburtenrate und der Anzahl der Störche. Matthews (2000) etwa präsentiert Daten aus den Jahren 1980–1990, die eine signifikant positive Korrelation von 0,62 zwischen der Geburtenrate beim Menschen und der Anzahl brütender Storchpaare in 17 europäischen Ländern belegen [2]. Eine Vielzahl weiterer Beispiele für Scheinkorrelationen finden sich z. B. auf den Internetseiten von N. Zellmer (https://schein- korrelation.jimdofree.com/) und T. Vigen (https://www.tylervigen.com/spurious- correlations). Da sich aus verschiedensten Gründen eine statistisch signifikante Korrelation ergeben kann (Abb. 1), sollte diese immer auf seine fachliche Plausibilität geprüft und mit großer Vorsicht als ein möglicher Kausalzusammenhang interpretiert werden.

BRAVAIS-PEARSON-KORRELATION
Der wohl am häufigsten verwendete Korrelationskoeffizient ist die sogenannte Bravais-Pearson-Korrelation oder auch kurz Pearson-Korrelation (Abb. 2).

Es kann damit die Stärke des linearen Zusammenhangs zwischen zwei metrischen Variablen X und Y bestimmt werden. Die Pearson-Korrelation rxy ist folglich eng mit der einfachen linearen Regression verwandt (Y = β0 + β1 * X + ε, mit Achsenabschnitt β0, Steigung β1 und Zufallsschwankung ε) und ist insbesondere nicht dazu geeignet, nicht-lineare Zusammenhänge zu untersuchen. Speziell erhält man für das Bestimmtheitsmaß R2 der einfachen linearen Regressionsanalyse = (rxy)2 (vgl. Abschnitt 5.2 in [4]). Gilt = -1 oder rxy = +1, so liegt ein perfekter linearer Zusammenhang (Y = β0 + β1 * X) mit R2 = 1 vor. In Abbildung 3 sind einige Beispiele für andere Pearson-Korrelationen dargestellt. Wir sehen, dass sich bei einem linearen Zusammenhang zwischen den beiden Variablen ellipsenförmige Punktwolken ergeben sollten. Diese Tatsache kann umgekehrt zur Diagnose genutzt werden, um im Nachhinein festzustellen, ob die Annahme eines linearen Zusammenhangs gerechtfertigt war. Diese Annahme ist insbesondere erfüllt, falls die Werte von X und Y einer gemeinsamen (bivariaten) Normalverteilung folgen, womit auch die Werte von X und Y, separat betrachtet, jeweils normalverteilt sein müssen. In manchen Anwendungen lässt sich die bivariate Normalverteilung mit Hilfe einer Transformation von einer oder beiden Variablen erreichen.
Abb. 3: Beispiel für Pearson-Korrelationen (erstellt mit der Statistiksoftware R [5] und den R Paketen MKdescr [6] und ggplot2 [7])
Es sollte weiter beachtet werden, dass die Pearson-Korrelation sehr leicht durch Ausreißer verfälscht werden kann. Die Einschränkungen der Pearson-Korrelation lassen sich z. B. anhand des Quartetts von Anscombe verdeutlichen [8]. Es handelt sich dabei um vier Datensätze, die zu sehr ähnlichen Pearson-Korrelationen und Regressionsgeraden führen, wobei diese Analysen aber nur für den ersten der vier Datensätze statistisch sinnvoll sind (Abb. 4). Im Fall des zweiten Datensatzes liegt ein nicht-linearer und nicht-monotoner Zusammenhang vor, welcher nicht mit einer Korrelationsanalyse, sondern z. B. mit Hilfe einer nicht-linearen Regressionsanalyse genauer untersucht werden könnte. Der dritte Datensatz enthält einen Ausreißer in y-Richtung. Hier kann ein robuster Korrelationskoeffizient bzw. eine robuste lineare Regressionsanalyse Abhilfe schaffen. Berechnet man für diesen Datensatz die Korrelation z. B. mit dem robusten Minimum Covariance Determinant (MCD)-Schätzer [9], so ergibt sich eine Korrelation von 0,9999966. Beim vierten Datensatz wurde entweder ein schlechtes Versuchsdesign gewählt oder es liegt ein Ausreißer in x-Richtung vor. In diesem Fall könnte die Erhebung weiterer Daten hilfreich sein und Klarheit bringen.
Abb. 4: Das Quartett von Anscombe (erstellt mit den R Paketen datasets [5] und ggplot2 [7])
RANGKORRELATION NACH SPEARMAN
Da der Korrelationskoeffizient ρ von Spearman (kurz: Spearmans ρ) auf Rängen basiert, kann dieser nicht nur bei metrischen, sondern auch bei ordinalen Variablen angewendet werden. Für die Berechnung müssen die beobachteten Werte für X und Y zunächst aufsteigend angeordnet werden. Der kleinste Wert von x1, x2, …, xn bekommt den Rang 1, der größte Wert den Rang n. Entsprechend verfährt man mit y1, y2, …, yn. Treten gleich große Werte auf (sog. Bindungen), wird für alle diese Werte der Mittelwert der Ränge verwendet. Anstelle der Beobachtungspaare (xi, yi) (i = 1, 2, …, n) werden die Rangpaare (Rxi, Ryi) für die Berechnungen herangezogen und in die Gleichungen (1) – (4) von Abbildung 2 eingesetzt (vgl. Abschnitt 5.4 in [4]). Hierbei wird vorausgesetzt, dass ein linearer Zusammenhang für die Ränge der Beobachtungen vorliegt. Überträgt man diese Voraussetzung auf die ursprünglichen Beobachtungen, bedeutet dies, dass die Spearman-Korrelation angewendet werden kann, wenn es einen monotonen Zusammenhang zwischen den beiden Variablen X und Y gibt. Bei ordinalen Variablen sollten außerdem die Abstände zwischen den möglichen Werten der Variablen möglichst gleich groß (äquidistant) sein, da bei der Berechnung des Korrelationskoeffizienten auch die Differenzen der Ränge eingehen. Dies trifft z. B. auf viele medizinische Scores zu. Ergibt sich ρ = -1 oder ρ = +1, so liegt ein streng monotoner Zusammenhang vor. Durch die Betrachtung der Ränge besitzt die Spearman-Korrelation, wie auch andere Rangstatistiken, eine gewisse Robustheit gegenüber Ausreißern [10]. Wenden wir Spearmans ρ auf den dritten Anscombe-Datensatz (Abb. 4) an, so ergibt sich eine deutlich höhere Korrelation als im Fall der Pearson-Korrelation mit ρ = 0,991.
RANGKORRELATION NACH KENDALL
Für die Berechnung des Korrelationskoeffizienten τ von Kendall (kurz: Kendalls τ) werden erneut die Ränge der Beobachtungen verwendet. Im Unterschied zu Spearmans ρ werden aber keine Rangdifferenzen benötigt, so dass die Kendall-Korrelation auch bei ordinalen Variablen mit ungleichmäßigen Abständen zwischen den möglichen Werten der Variablen anwendbar ist. Dies kann etwa bei den Antwortmöglichkeiten von Fragebögen der Fall sein. Für die Details zur Berechnung von Kendalls τ verweisen wir auf Ab- schnitt 3.2.5 von [11]. Es gilt, wie im Fall von Spearmans ρ, dass im Fall τ = -1 oder τ = +1 ein streng monotoner Zusammenhang vorliegt. Analog zur Spearman-Korrelation besitzt auch die Kendall-Korrelation eine gewisse Robustheit gegenüber Ausreißern. Für den dritten Anscombe-Datensatz (Abb. 4) erhalten wir τ = 0,964. Dies deckt sich mit der Beobachtung, dass die Kendall-Korrelation oftmals etwas kleiner als die Spearman-Korrelation ist.
KONFIDENZINTERVALLE DER KORRELATIONSKOEFFIZIENTEN
Bei der Berechnung von Konfidenzintervallen (und statistischen Tests) für die vorgestellten Korrelationskoeffizienten kommen in der Regel approximative Ansätze zum Einsatz, die entweder auf der Normalverteilung basieren (vgl. Abschnitt 7.8 in [11]) oder Resampling-Verfahren (Permutation, Bootstrap) nutzen (vgl. [12]).
STÄRKE DER KORRELATION
Für die Beschreibung der beobachteten Korrelation ist es hilfreich, die möglichen Werte in Kategorien einzuteilen. Hierfür gibt es verschiedene Möglichkeiten, die auch vom Anwendungsbereich abhängen. Eine mögliche und aus unserer Sicht für medizinische Anwendungen sinnvolle Einteilung findet sich in Tab. 1 [13].
Tab. 1: Mögliche Bezeichnungen für die Stärke einer beobachteten Korrelation
BEISPIEL: ISCHÄMIEZEIT UND TROPONIN
Wir untersuchen den Zusammenhang zwischen Ischämiezeit und Troponin auf Basis der Daten von 140 Patient:innen (eigene Daten). Wir erwarten einen monotonen wachsenden Zusammenhang, da eine längere Ischämiezeit zu größeren Zellschädigungen führen sollte, welche durch einen Anstieg der Troponinwerte angezeigt werden sollte. Das Streudiagramm der Originaldaten in Abbildung 5 bestätigt die Vermutung, wobei wir auch vereinzelte Ausreißer sowie eine deutliche Zunahme der Streuung der Troponinwerte mit der Ischämiezeit (Heteroskedastizität) sehen. Im Fall einer Heteroskedastizität kann oftmals mit Hilfe einer log-Transformation eine Varianzstabilisierung und Annäherung an die Normalverteilung (Symmetrisierung) erreicht werden. Dies gelingt auch hier recht gut, wie das rechte Streudiagramm in Abbildung 5 zeigt. Wir erhalten eine Annäherung der Punktewolke an eine Ellipsenform. Zur Berechnung der 95 %-Konfidenzintervalle (CI95) für die Korrelationskoeffizienten verwenden wir die Bootstrap-Bca-Methode mit 9999 Wiederholungen (vgl. Supplement von [12] – auch über diesen QR-Code einsehbar: ).
Abb. 5: Troponinkonzentration in ng/ml in Abhängigkeit von der Ischämiezeit in min (erstellt mit R Paket ggplot2 [7])
Wir erhalten eine Spearman-Korrelation von ρ = 0,566 (CI95: 0,426–0,677) und eine Kendall-Korrelation von τ = 0,406 (CI95: 0,297–0,491), wobei bei den Rängen die log-Transformation als streng monotone Transformation zu keiner Veränderung der Ergebnisse führt. Für die Pearson-Korrelation erhalten wir mit Hilfe der log10- Transformation rxy = 0,570 (CI95: 0,429– 0,669) in sehr guter Übereinstimmung mit der Spearman-Korrelation. Im Fall des robusten MCD-Schätzers erhalten wir ebenfalls ein ähnliches Ergebnis mit einer Korrelation von 0,563 (CI95: 0,273–0,771). Da die Untergrenzen der 95 %-Konfidenzintervalle jeweils größer 0 sind, dürfen wir die entsprechenden Korrelationen auch als signifikant größer als 0 bezeichnen. Wir erhalten demnach eine signifikant positive, moderate Korrelation zwischen der Ischämiezeit und der Troponin- bzw. log10-Troponin-Konzentration, was sich mit unserer Ausgangshypothese deckt.
ZUSAMMENFASSUNG
Die Pearson-Korrelation sollte, um Fehlinterpretationen zu vermeiden, nur zum Einsatz kommen, wenn ein Datensatz sicher frei von Ausreißern ist und wenn bereits vor der Analyse bekannt bzw. zumindest plausibel ist, dass ein linearer Zusammenhang zwischen den beiden Variablen vorliegt. Dies ist insbesondere erfüllt, falls eine bivariate Normalverteilung vorliegt. Die Annahme eines linearen Zusammenhangs kann bei ausreichend großen Datensätzen gut mit Hilfe eines Streudiagramms überprüft werden, welches eine ellipsenförmige Punktwolke zeigen sollte. Leider haben wir den Eindruck, dass die oben genannten Einschränkungen für die Pearson-Korrelation nicht allseits bekannt sind bzw. beachtet werden. Daher sollte man Pearson-Korrelationen, die berichtet werden, immer mit großer Vorsicht betrachten. Die Rangkorrelationen von Spearman und Kendall reagieren im Unterschied zur Pearson-Korrelation deutlich weniger sensibel auf Ausreißer und sind außerdem allgemeiner bei monotonen Zusammenhängen einsetzbar. Hierbei sollte die Kendall-Korrelation vor allem bei ordinalen Variablen mit ungleichmäßigen Abständen zwischen den möglichen Werten der Variablen zum Einsatz kommen. In allen anderen Fällen ist in der Regel die Spearman-Korrelation vorzuziehen. Aufgrund der oben angeführten Argumente empfehlen wir in medizinischen Anwendungen verstärkt Rangkorrelationen anstelle der Pearson-Korrelation zu verwenden.