Von Korrelation zu Kausalität: Die häufigste statistische Falle
In den USA korreliert die Anzahl der Filme, in denen Nicolas Cage mitspielt, statistisch signifikant mit der Zahl der Menschen, die in Swimmingpools ertrinken. Der Zusammenhang existiert in den Daten — aber wer würde daraus schließen, dass Cage-Filme Menschen ins Wasser locken? Niemand. Und dennoch begehen Menschen diesen Fehler täglich, in ernsteren Kontexten: Sie schließen von gleichzeitigem Auftreten auf Ursächlichkeit. Das Argument von Korrelation zu Kausalität ist die häufigste statistische Falle im öffentlichen Diskurs.
Die logische Struktur
Das Argument folgt einem einfachen Muster:
- A und B treten gemeinsam auf (oder: wenn A steigt, steigt auch B).
- Daher verursacht A B (oder: B verursacht A).
In dieser Kürze ist der Fehler offensichtlich. In echten Debatten ist er es selten. Die Korrelationsdaten sind oft echt und eindrucksvoll. Die Kausalbehauptung folgt so nahtlos, dass die fehlende Begründung gar nicht auffällt.
Warum das Gehirn Kausalität liebt
Der Fehler hat eine tiefe kognitive Wurzel. Menschen sind biologisch darauf ausgelegt, Kausalbeziehungen zu erkennen — oder genauer: zu konstruieren. Daniel Kahneman hat in Thinking, Fast and Slow gezeigt, dass das Gehirn narrativ arbeitet: Es sucht ständig nach Geschichten, die Ereignisse verbinden. Wenn A und B gemeinsam auftreten, liefert das Gehirn blitzschnell eine Kausalhypothese — und hält sie für eine Erklärung.
David Hume hat dieses Problem bereits im 18. Jahrhundert präzise analysiert: Kausalität ist nie direkt beobachtbar. Wir sehen nur, dass B auf A folgt — die Verursachung selbst ist eine Interpretation, die wir hinzufügen. „The mind is carried by habit," schrieb Hume, „upon the appearance of the cause, to expect its usual attendant." Gewohnheit konstruiert Kausalität.
Die drei Alternativen zur Direktkausalität
Wenn A und B korrelieren, gibt es mindestens vier Möglichkeiten:
- A verursacht B — die intuitive Interpretation.
- B verursacht A — umgekehrte Kausalität. (Sind depressive Menschen häufiger in sozialen Netzwerken, weil das Netz deprimiert — oder sind depressive Menschen häufiger online, weil sie wenig soziale Aktivitäten haben?)
- C verursacht sowohl A als auch B — ein gemeinsamer Drittfaktor. (Eisverkauf und Ertrinkungsfälle: beide korrelieren mit Hitze/Sommer.)
- Zufall — bei genug Variablen und genug Datenpunkten tauchen spurious correlations immer auf. Tyler Vigen hat hunderte solcher Scheinkorrelationen auf spuriouscorrelations.com gesammelt.
Die wissenschaftliche Methode ist im Wesentlichen eine Maschinerie, die entwickelt wurde, um zwischen diesen vier Optionen zu unterscheiden — vor allem durch das Mittel des kontrollierten Experiments und der statistischen Kontrolle von Drittvariablen.
Konfundierung: Der unsichtbare Dritte
Der häufigste Grund für irreführende Korrelationen ist der Konfundierungsfaktor (engl. confounder): eine dritte Variable, die sowohl mit A als auch mit B zusammenhängt. In der Medizin ist das besonders tückisch.
Ein berühmtes Beispiel: Studien zeigten jahrzehntelang, dass Menschen, die Rotwein trinken, gesünder sind als Abstinenzler. Kausalschluss: Rotwein schützt das Herz. Die Realität: Rotwein trinken Menschen, die sich eine bestimmte Lebensweise leisten können — bessere Ernährung, weniger Stress, höhere Bildung. Der sozioökonomische Status ist der Konfundierungsfaktor. Das „Confounding by indication" und andere Verzerrungen in Beobachtungsstudien sind Gegenstand ganzer methodologischer Disziplinen.
Das hängt eng zusammen mit dem, was der Falsche-Ursache-Fehlschluss beschreibt: der allgemeinen Tendenz, fälschlich auf eine Ursache zu schließen.
Das Experiment als Goldstandard
Kausalität nachzuweisen erfordert mehr als Beobachtung. Der Goldstandard ist das randomisierte kontrollierte Experiment (RCT): Probanden werden zufällig Gruppen zugewiesen — eine erhält die Intervention (z.B. das Medikament), eine nicht. Durch die Randomisierung werden alle anderen Faktoren gleichmäßig verteilt, sodass Unterschiede im Ergebnis auf die Intervention zurückzuführen sind.
In vielen Bereichen sind RCTs nicht möglich — aus ethischen oder praktischen Gründen. Man kann nicht zufällig entscheiden, wer raucht. Man kann Länder nicht zufällig Wirtschaftssystemen zuordnen. In diesen Bereichen muss Kausalität durch Quasi-Experimente, Instrumentalvariablen, Differenz-in-Differenzen und andere ökonometrische Methoden erschlossen werden — aufwändige Verfahren, die erheblich mehr Raum für Fehler lassen.
Das Missverständnis in Medienkommunikation
Wissenschaftsjournalismus ist notorisch anfällig für den Korrelations-Kausalitäts-Fehler. Studien, die Zusammenhänge berichten, landen mit Schlagzeilen wie „Kaffee schützt vor Herzinfarkt" oder „Soziale Medien machen Jugendliche depressiv." Die Originalstudien sind vorsichtiger — sie sprechen von Assoziationen, adjustierten Odds Ratios, und listen ihre methodischen Einschränkungen auf. Die Übersetzung in Schlagzeilen schneidet diese Vorsicht regelmäßig ab.
Hinzu kommt das Problem des P-Hacking: Wenn Forscher viele Variablen testen, tauchen rein zufällig statistisch signifikante Korrelationen auf — und diese werden veröffentlicht, während Null-Ergebnisse in Schubladen verschwinden (Publication Bias). Das aufgeblähte Repertoire an korrelativen Befunden in der Literatur lädt zu Fehlinterpretationen ein.
Kausaldiagramme: Klarheit durch Visualisierung
Judea Pearl hat mit seiner do-calculus-Theorie und dem Konzept der kausalen Graphen einen formalen Rahmen geschaffen, um Kausalfragen präzise zu stellen. Kausaldiagramme (Directed Acyclic Graphs, DAGs) machen explizit, welche Variablen man kontrollieren muss, um einen Kausaleffekt zu schätzen, und welche man gerade nicht kontrollieren sollte (Kolliderverzerrung). Pearls Arbeit zeigt: Kausalinferenz ist möglich — aber sie erfordert explizite Annahmen über die Struktur des Problems, die über reine Datenanalyse hinausgehen.
Im Alltag: Wann der Schluss legitim ist
Nicht jeder Korrelationsschluss ist falsch. In vielen Alltagskontexten ist Korrelation ein vernünftiger, pragmatischer Startpunkt. Wenn jedes Mal, wenn ich den Lichtschalter betätige, das Licht angeht, schließe ich auf Kausalität — und liege damit praktisch immer richtig, ohne die Elektrophysik zu verstehen.
Der Schluss von Korrelation zu Kausalität wird problematisch, wenn:
- Die Kausalbeziehung komplex und durch viele Faktoren vermittelt ist.
- Politische oder kommerzielle Interessen mit dem Schluss verbunden sind.
- Praktische Interventionen auf der Grundlage des Schlusses geplant werden.
- Alternative Erklärungen systematisch nicht untersucht werden.
Die kritischen Fragen
- Sind A und B wirklich korreliert, oder ist das eine Scheinkorrelation durch selektive Datenpräsentation?
- Könnte die Kausalrichtung umgekehrt sein?
- Gibt es bekannte Drittvariablen, die den Zusammenhang erklären könnten?
- Wurde die Korrelation in einem experimentellen oder nur in einem Beobachtungskontext gefunden?
- Wurden konkurrierende Hypothesen systematisch geprüft?
Verwandte Aspekte
Direkt verwandt ist der Falsche-Ursache-Fehlschluss. Wer bei wenigen Fällen zu schnell generalisiert, begeht zudem eine Vorschnelle Verallgemeinerung. Das Apophänie-Phänomen erklärt, warum das Gehirn selbst in Zufallsdaten Muster sieht. Und das Simpson-Paradoxon zeigt, wie Aggregation statistische Zusammenhänge auf den Kopf stellen kann.
Quellen & Weiterführendes
- Pearl, Judea; Mackenzie, Dana. The Book of Why: The New Science of Cause and Effect. Basic Books, 2018.
- Kahneman, Daniel. Thinking, Fast and Slow. Farrar, Straus and Giroux, 2011.
- Hume, David. An Enquiry Concerning Human Understanding. 1748.
- Vigen, Tyler. Spurious Correlations. Hachette Books, 2015. Auch: spuriouscorrelations.com
- Hernán, Miguel A.; Robins, James M. Causal Inference: What If. Chapman & Hall/CRC, 2020. (Open access)
- Walton, Douglas. Appeal to Expert Opinion. Penn State University Press, 1997.
- Wikipedia: Cum hoc ergo propter hoc