Bedingte Varianz

Die bedingte Varianz beschreibt in der Wahrscheinlichkeitstheorie und Statistik die Varianz einer Zufallsvariablen unter der Voraussetzung, dass noch zusätzliche Informationen über den Ausgang des zugrunde liegenden Zufallsexperiments verfügbar sind. Sie ist definiert als der bedingte Erwartungswert der quadratischen Abweichung der Zufallsvariablen von ihrem bedingten Erwartungswert. Wie bei diesem kann die Bedingung beispielsweise darin bestehen, dass bekannt ist, ob ein gewisses Ereignis eingetreten ist oder welche Werte eine weitere Zufallsvariable angenommen hat; abstrakt kann die Zusatzinformation als Unterraum des zugrunde liegenden Ereignisraums aufgefasst werden.

Eine wichtige Anwendung ist die Varianzzerlegung, eine Formel, mit der Varianzen durch bedingte Varianzen und bedingte Erwartungswerte dargestellt werden können und die auch in der Regressionsanalyse eine Rolle spielt. Zeitreihenmodelle wie ARCH oder dessen Verallgemeinerung GARCH verwenden bedingte Varianzen, um gezielt stochastische Abhängigkeiten in Prozessen zu modellieren, wie sie vor allem in finanzmathematischen Fragestellungen auftreten.

Definition

Es seien X und Y zwei reelle Zufallsvariable auf einem Wahrscheinlichkeitsraum (\Omega ,\Sigma ,P), dann heißt

\operatorname {Var}(X\mid Y)=\operatorname {E}{\bigl (}(X-\operatorname {E}(X\mid Y))^{2}\mid Y{\bigr )}

die bedingte Varianz von X gegeben Y (oder Varianz von X bedingt auf Y).

Analog zum bedingten Erwartungswert betrachtet man auch die bedingten Varianzen

sowie allgemein

Dazu werden in der Definition die beiden Erwartungswerte jeweils auf A, Y=y bzw. \Sigma' bedingt.

Im Folgenden werden alle Formeln nur für die Bedingung auf eine weitere Zufallsvariable angegeben, für die anderen Fälle gelten sie entsprechend. Es ist jedoch zu beachten, dass \operatorname{Var}(X \mid A) und \operatorname{Var}(X \mid Y=y) nichtnegative reelle Zahlen (oder \infty ) sind, während es sich bei \operatorname{Var}(X \mid Y) und \operatorname{Var}(X \mid \Sigma') um Zufallsvariablen handelt. Alle folgenden Gleichungen und Ungleichungen für Letztere sind wegen der Nichteindeutigkeit von bedingten Erwartungswerten als P-fast sicher zu verstehen, ohne dass dies explizit angegeben wird.

Definition im diskreten und stetigen Fall

Im diskreten und stetigen Fall sind die bedingten Varianzen definiert durch

Falls X,Y diskret Falls X,Y stetig
{\displaystyle \operatorname {Var} (X\mid Y=y)=\sum _{x}(x-\operatorname {E} (X\mid y))^{2}P_{X\mid Y}(x\mid y)} {\displaystyle \operatorname {Var} (X\mid Y=y)=\int _{-\infty }^{\infty }(x-\operatorname {E} (X\mid y))^{2}f_{X\mid Y}(x\mid y)\,\mathrm {d} x}

Hierbei stellt {\displaystyle \operatorname {E} (X\mid y)^{2}} den bedingten Erwartungswert und {\displaystyle f_{X\mid Y}(x\mid y)} die bedingte Dichte dar.

Einfache Rechenregeln

Aus der zur (unbedingten) Varianz analogen Definition ergibt sich zusammen mit den Rechenregeln für bedingte Erwartungswerte, dass die Rechenregeln für Varianzen entsprechend weiterhin gelten. Insbesondere hat man:

Varianzzerlegung

Eine wichtige Aussage im Zusammenhang mit der bedingten Varianz ist die Varianzzerlegung (auch Satz von der totalen Varianz genannt), nach der die (unbedingte) Varianz einer Zufallsvariablen die Summe aus dem Erwartungswert ihrer bedingten Varianz und der Varianz ihres bedingten Erwartungswerts ist:

\operatorname {Var}(X)=\operatorname {E}(\operatorname {Var}(X\mid Y))+\operatorname {Var}(\operatorname {E}(X\mid Y)).

Das sieht man so: Der bedingte Erwartungswert U := \operatorname{E}(X \mid Y) ist eine Zufallsvariable mit Erwartungswert \operatorname{E}(U) = \operatorname{E}(X) und Varianz

\operatorname{Var}(U) = \operatorname{E}(U^2) - (\operatorname{E}(X))^2.

Die bedingte Varianz hat den Erwartungswert

\operatorname{E}(\operatorname{Var}(X \mid Y)) = \operatorname{E}(\operatorname{E}(X^2 \mid Y)) - \operatorname{E}(U^2) = \operatorname{E}(X^2) - \operatorname{E}(U^2).

Addition der letzten beiden Gleichungen ergibt

\operatorname{E}(\operatorname{Var}(X \mid Y)) + \operatorname{Var}(\operatorname{E}(X \mid Y)) = \operatorname{E}(X^2) - (\operatorname{E}(X))^2 = \operatorname{Var}(X).

Beispiele

Wie viele Küken?
\operatorname{E}(X \mid N = n) = np\quad und \quad\operatorname{Var}(X \mid N = n) = np(1-p),
also
\operatorname{E}(X \mid N) = Np\quad und \quad\operatorname{Var}(X \mid N) = Np(1-p).
Mit dem Satz vom totalen Erwartungswert folgt
\operatorname{E}(X) = \operatorname{E}(Np) = p\operatorname{E}(N) = p \mu
und mit der Varianzzerlegung
\operatorname{Var}(X) = \operatorname{E}(Np(1-p)) + \operatorname{Var}(Np) = p(1-p) \operatorname{E}(N) + p^2 \operatorname{Var}(N) = p(1-p)\mu + p^2\mu = p\mu.
\operatorname{Var}(X \mid Y) = (1-\varrho^2)\sigma_X^2
konstant (unabhängig von Y).
Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 19.04. 2019