Korrelation
Eine Korrelation (mittellat. correlatio für „Wechselbeziehung“) beschreibt eine Beziehung zwischen zwei oder mehreren Merkmalen, Ereignissen, Zuständen oder Funktionen. Zwischen Merkmalen, Ereignissen oder Zuständen braucht keine kausale Beziehung zu bestehen: manche Elemente eines Systems beeinflussen sich gegenseitig nicht; oder es besteht eine stochastische (= vom Zufall beeinflusste) Beziehung zwischen ihnen.
- In der Statistik wird der Zusammenhang zwischen zwei statistischen Variablen mit verschiedenen Zusammenhangsmaßen gemessen. Ein bekanntes Zusammenhangmaß ist der Korrelationskoeffizient von Bravais und Pearson.
- In der Signalanalyse bzw. Bildanalyse wird zur Beschreibung des Zusammenhangs zweier Signale mit unterschiedlichen Zeit- bzw. Ortsverschiebungen die Kreuzkorrelationsfunktion eingesetzt. Für Details siehe Korrelation (Signalverarbeitung).
- In der Informationstheorie kann die allgemeine (nicht notwendigerweise lineare) Korrelation zweier Zufallsgrößen mit Hilfe der Transinformation quantifiziert werden.
Beschreibung
Eine Korrelation als Maß des Zusammenhangs soll zwei Fragen klären:
- Wie stark ist der Zusammenhang?
- Die Maßzahlen der Korrelation liegen betragsmäßig meist in einem Bereich von Null (=kein Zusammenhang) bis Eins (=starker Zusammenhang). Betrachtet man die Haar- und Augenfarbe von Studenten, so ergibt sich ein korrigierter Kontingenzkoeffizient von 0,55. Da dieser im mittleren Bereich zwischen Null und Eins liegt, haben wir einen mittelstarken Zusammenhang vorliegen.
- Falls möglich, welche Richtung hat der Zusammenhang?
- Ein Beispiel für eine positive Korrelation (wenn mehr, dann mehr) ist: „Mehr Futter, dickere Kühe.“ Ein Beispiel für eine negative Korrelation (wenn mehr, dann weniger) ist: „Mehr zurückgelegte Strecke mit dem Auto, weniger Treibstoff im Tank.“
Oft gibt es Sättigungsgrenzen. Beispiel: Wenn ich mehr Gas gebe, fährt mein Auto schneller (aber nicht schneller als seine technisch bedingte Maximalgeschwindigkeit). In vielen Korrelationen der Wirtschaft gilt: die Grenzkosten steigen und der Grenznutzen sinkt.
Korrelation und Kausalzusammenhang
Von der Korrelation zum Kausalzusammenhang
Eine Korrelation beschreibt jedoch keine Ursache-Wirkungs-Beziehung in die eine und/oder andere Richtung, d.h. aus einem starken Zusammenhang folgt nicht, dass es auch eine eindeutige Ursache-Wirkungs-Beziehung gibt.
Beispiele:
- Aus der Tatsache, dass in Sommern mit hohem Speiseeisumsatz viele Sonnenbrände auftreten, kann man nicht schlussfolgern, dass Eisessen Sonnenbrand erzeugt.
- Zwischen dem Rückgang der Störche im Burgenland und einem Rückgang der Anzahl Neugeborener kann es durchaus eine Korrelation geben, aber weder bringen Störche Kinder noch umgekehrt.
In beiden Beispielen hängen die jeweiligen Messgrößen allerdings über eine dritte Größe als Ursache kausal zusammen. Im ersten Fall ist es die Sonneneinstrahlung, die sowohl Eisverkauf als auch Sonnenbrand bewirkt, im zweiten Fall die Verstädterung, die sowohl Nistplätze vernichtet als auch begünstigt, dass mehr Paare kinderlos sind bzw. nur ein Kind haben. Korrelationen dieser Art werden Scheinkorrelationen genannt.
In der Presse werden Korrelationen oft in einer Weise berichtet, die eine direkte Kausalität suggeriert, obwohl eine Gemengelage direkter und indirekter Zusammenhänge besteht. Beispiele für Schlagzeilen:
- Zuwanderer sind häufiger kriminell
- CO2 erklärt Nahtoderfahrung
- Größere Leute verdienen mehr
- Kreative haben mehr Sex
- Glückliche Menschen sind gesünder
- Senkung der Arbeitslosigkeit erfordert starkes Wirtschaftswachstum
Vom Kausalzusammenhang zur Korrelation
Liegt allerdings tatsächlich eine Ursache-Wirkungs-Beziehung vor, dann erwartet man eine Korrelation von Ursache und Wirkung. Daher benutzt man häufig die Korrelation auch, um einen Hinweis darauf zu bekommen, ob zwei statistische Größen ursächlich miteinander zusammenhängen könnten.
Das funktioniert immer dann besonders gut, wenn beide Größen durch eine „Je … desto“-Beziehung miteinander zusammenhängen und eine der Größen nur von der anderen Größe abhängt.
Beispielsweise kann man nachweisen, dass Getreide unter bestimmten Bedingungen besser gedeiht, wenn man es mehr bewässert. Diese Erkenntnis beruht auf dem Wissen über das Getreide – zum Beispiel durch Erfahrung oder wissenschaftliche Überlegungen. Die Korrelation unterscheidet nicht, ob das Wasser auf das Wachstum des Getreides wirkt, oder etwa das Getreide auf die Menge des Wassers. Eine Ursache-Wirkung-Beziehung kann nur beschreiben, welche Seite (hier das Wasser) eine Wirkung (das Wachstum des Getreides) hat. Gibt es mehrere Einflussfaktoren auf das Wachstum des Getreides (beispielsweise die Temperatur, den Nährstoffgehalt des Bodens, das einfallende Licht usw.), ist die Menge des Wassers nicht mehr die einzige Erklärung für das Wachstum des Getreides. Die Erklärungskraft reduziert sich somit. Die Korrelation zwischen der Menge des Wassers und dem Wachstum des Getreides bleibt jedoch unverändert; sie ist ein tatsächlicher Zusammenhang, den man aber nicht immer beweisen bzw. vollständig beschreiben kann. Beispiel: der Vollmond oder ein anderer Faktor wie die Konstellation von Sonne und Mond könnte das Getreidewachstum auch beeinflussen.
Fehlschlüsse – Cum hoc ergo propter hoc
Der Fehlschluss von Korrelation auf Kausalität wird auch als Cum hoc ergo propter hoc bezeichnet. Um Kausalitäten wirklich herstellen und Kausalitätsrichtungen definieren zu können, ist grundsätzlich eine substanzwissenschaftliche Betrachtung notwendig. Die Frage „warum wirkt sich Lärm im Haus negativ auf die Intelligenz der Kinder aus?“ kann in diesem Fall nur von Personengruppen mit entsprechendem Fachwissen, wie zum Beispiel Psychologen und Umweltwissenschaftlern, erklärt werden.
Zur Beurteilung einer Hypothese wären zum Beispiel Experimente nötig, bei denen ein Faktor experimentell festgelegt wird (z. B. der Lärm im Haus) und der andere Faktor gemessen wird (z.B. Intelligenz der Kinder). Solche Experimente würden mithilfe der Regressionsanalyse oder Varianzanalyse evaluiert. Eine Regression dagegen beschreibt den Zusammenhang, kann ihn aber nicht erklären. Viele derartige Experimente sind nicht durchführbar:
- zu lange Dauer und/oder
- zu hohe Kosten und/oder
- unethisch.
Aufgrund ihres Fokus auf den Menschen sind für viele sozialwissenschaftliche und medizinische Fragestellungen nur korrelative Studien, meist aber keine Experimente ethisch zu rechtfertigen. Um Korrelationsergebnisse als kausal interpretieren zu können, sind weitere Untersuchungen erforderlich (dabei können z.B. langzeitige Zusammenhänge hilfreich sein; dazu macht man Längsschnittstudien). Teilweise werden korrelative Studien fälschlicherweise wie Experimente interpretiert.
Mathematische Darstellung
Im Gegensatz zur Proportionalität ist die Korrelation nur ein statistischer Zusammenhang. Häufig wird der lineare oder monotone Zusammenhang zweier Variablen bestimmt. Das bedeutet in diesen Fällen, dass die Korrelation zwischen und durch die Gleichung beschrieben werden kann; ist liegt eine positive Korrelation vor, bei liegt eine negative Korrelation vor. Aus dieser Eigenschaft folgt, dass keine Schätzung von ohne die Kenntnis der Parameter und möglich ist. Die Parameter für den unterstellten linearen Zusammenhang können mittels einer linearen Regression bestimmt werden.
Die Verwechslung von Korrelation und direktem Kausalzusammenhang wird dadurch gefördert, dass bei Berechnung der Korrelationskoeffizienten nach Pearson und bei der linearen Regression mit einer unabhängigen Variablen mathematisch ganz ähnliche Verfahren zum Tragen kommen. In Regressionsanalysen wird das Bestimmtheitsmaß angegeben; es ist gleich dem quadrierten Korrelationskoeffizienten und beschreibt die erklärte Varianz des einfachen Regressionsmodells. Dies fördert die falsche Vermutung, die beiden Verfahren mit ihren jeweiligen Interpretationsmöglichkeiten seien austauschbar. Die Korrelation beschreibt die Stärke des Zusammenhangs, während die Regression eine unterstellte Kausalrichtung des Zusammenhangs misst.
Anwendung
Kapitalanlagen
Der Korrelationsbegriff ist von erheblicher Bedeutung bei Kapitalanlagen. Es gilt: Das Gesamtrisiko des gesamten Portfolios ist umso geringer, je geringer die einzelnen Anlagen (Assets) miteinander korrelieren.
Beispiel für positive Korrelation: Besteht ein Portfolio nur aus vielen einzelnen Aktien, so kann der Kursrückgang von Aktie 1 auch zum Wertverlust von Aktie 2 und auch Aktie 3 in einem bestimmten Verhältnis führen. Besteht das Portfolio jeweils zur Hälfte aus Aktien und Renten, so ist der Verlust geringer, da nur eine geringfügige Korrelation Aktien-Renten besteht.
Allerdings gibt es auch negative Korrelationen, wenn auch geringere, z.B. bezüglich Aktie-Rente. Ist der Aktienmarkt schwach, so wird tendenziell in Renten investiert (Kapitalflucht in den sicheren Hafen). Die Rentenkurse steigen. Dies fängt jedoch nicht den Komplettverlust im Aktienbereich auf. Daher ist es sinnvoll, noch in andere Anlagen als Renten und Aktien zu diversifizieren. Die Risikominderung durch Diversifikation oder Investition in negativ korrelierte Assets bezeichnet man als Hedging.
Die ideale Diversifikation ist so umfassend, dass keine Korrelationen zwischen den einzelnen Assets existieren. Erwirtschaften zudem die einzelnen, nicht korrelierenden Assets noch eine maximale Rendite, so ergibt sich das ideale, jedoch in Realität nie existierende Portfolio.
Reduktion der Korrelation des Gesamtportfolios im Verhältnis zu seinen Einzelanlagen verbessert nach dem Markowitz-Modell das Rendite-Risiko-Verhältnis. Auf langfristiger Basis wird damit prinzipiell eine höhere Rendite bei geringerem Risiko erzielt.
Die Korrelation macht in erster Linie Aussagen über die Richtung des Verlaufs, z.B. von Aktienkursen, nicht jedoch über das Ausmaß der jeweiligen Veränderung. Aus der positiven Korrelation etwa einer Aktie von 0,8 lässt sich nicht errechnen, um wie viel der Aktienkurs bei einem 3-%-Anstieg des DAX steigt. Auch besagt die Korrelation nicht, ob der DAX auf die Aktie wirkt oder die Aktie auf den DAX. Für die Analyse von Wertpapieren wurde das Capital Asset Pricing Model entwickelt, dort kommt der Betafaktor als wichtige Kennzahl ins Spiel.
Siehe auch
Basierend auf einem Artikel in: Wikipedia.de Seite zurück© biancahoegel.de
Datum der letzten Änderung: Jena, den: 31.07. 2022