Zufallsvariable

In der Stochastik ist eine Zufallsvariable oder Zufallsgröße (auch zufällige Größe, Zufallsveränderliche, selten stochastische Variable oder stochastische Größe) eine Größe, deren Wert vom Zufall abhängig ist. Formal ist eine Zufallsvariable eine Zuordnungsvorschrift, die jedem möglichen Ergebnis eines Zufallsexperiments eine Größe zuordnet. Ist diese Größe eine Zahl, so spricht man von einer Zufallszahl. Beispiele für Zufallszahlen sind die Augensumme von zwei geworfenen Würfeln und die Gewinnhöhe in einem Glücksspiel. Zufallsvariablen können aber auch komplexere mathematische Objekte, wie Zufallsbewegungen, Zufallspermutationen oder Zufallsgraphen, sein.

Über verschiedene Zuordnungsvorschriften können einem Zufallsexperiment auch verschiedene Zufallsvariablen zugeordnet werden. Den einzelnen Wert, den eine Zufallsvariable bei der Durchführung eines Zufallsexperiments annimmt, nennt man Realisation oder im Falle eines stochastischen Prozesses einen Pfad.

Während früher der von A. N. Kolmogorow eingeführte Begriff Zufallsgröße der übliche deutsche Begriff war, hat sich heute (ausgehend vom englischen random variable) der etwas irreführende Begriff Zufallsvariable durchgesetzt.

Motivation des formalen Begriffs

Die Funktionswerte X(\omega) einer Zufallsvariablen X sind abhängig von einer den Zufall repräsentierenden Größe \omega . Zum Beispiel kann \omega das zufällige Ergebnis eines Münzwurfs sein. Dann kann zum Beispiel eine Wette auf den Ausgang eines Münzwurfs mithilfe einer Zufallsvariablen modelliert werden. Angenommen, es wurde auf Zahl gewettet, und wenn richtig gewettet wurde, wird 1 EUR ausgezahlt, sonst nichts. Sei X die Auszahlungssumme. Da der Wert von X vom Zufall abhängt, ist X eine Zufallsvariable, insbesondere eine reelle Zufallsvariable. Sie bildet die Menge der Wurfergebnisse \{\text{Kopf}, \text{Zahl}\} auf die Menge der möglichen Auszahlungsbeträge \{0, 1\} ab:

X(\omega) = \begin{cases}
0, & \text{wenn }\omega = \text{Kopf},\\
1, & \text{wenn }\omega = \text{Zahl}.
\end{cases}

Wettet man bei zwei Münzwürfen beide Male auf Kopf und bezeichnet die Kombination der Ausgänge der Münzwürfe mit \omega=\left(\omega_1,\omega_2\right), so lassen sich beispielsweise folgende Zufallsvariablen untersuchen:

  1. X_1(\omega) := X(\omega_1) \in\{0,1\} als Auszahlung nach der ersten Wette,
  2. X_2(\omega) := X(\omega_2) \in\{0,1\} als Auszahlung nach der zweiten Wette,
  3. S(\omega) := X(\omega_1) + X(\omega_2) \in\{0,1,2\} als Summe der beiden Auszahlungen.

Zufallsvariable selbst werden üblicherweise mit einem Großbuchstaben bezeichnet (hier X_1, X_2, S), während man für die Realisierungen die entsprechenden Kleinbuchstaben verwendet (so beispielsweise für \omega=\left(\text{Zahl},\text{Kopf}\right) die Realisierungen x_1 = 1, x_2=0, s=1).

Im Beispiel hat die Menge \Omega = \{\text{Kopf}, \text{Zahl}\} eine konkrete Interpretation. In der weiteren Entwicklung der Wahrscheinlichkeitstheorie ist es oft zweckmäßig, die Elemente von \Omega als abstrakte Repräsentanten des Zufalls zu betrachten, ohne ihnen eine konkrete Bedeutung zuzuweisen, und dann sämtliche zu modellierende Zufallsvorgänge als Zufallsvariable zu erfassen.

Definition

Als Zufallsvariable bezeichnet man eine messbare Funktion von einem Wahrscheinlichkeitsraum in einen Messraum.

Eine formale mathematische Definition lässt sich wie folgt geben:

Es seien (\Omega,\Sigma,P) ein Wahrscheinlichkeitsraum und (\Omega',\Sigma') ein Messraum. Eine (\Sigma,\Sigma')-messbare Funktion X\colon\Omega\to\Omega' heißt dann eine \Omega '-Zufallsvariable auf \Omega .

Beispiel: Zweimaliger Würfelwurf

Summe von zwei Würfeln: (\Omega,\Sigma,P) \xrightarrow{S} (\Omega',\Sigma', P^S).

Das Experiment, mit einem fairen Würfel zweimal zu würfeln, lässt sich mit folgendem Wahrscheinlichkeitsraum (\Omega ,\Sigma ,P) modellieren:

Die Zufallsvariablen X_{1} (gewürfelte Zahl des ersten Würfels), X_{2} (gewürfelte Zahl des zweiten Würfels) undS (Augensumme des ersten und zweiten Würfels) werden als folgende Funktionen definiert:

  1. X_1\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_1,
  2. X_2\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_2, und
  3. S\colon \Omega \to \R;\quad\left(n_1,n_2\right) \mapsto n_1+n_2,

wobei für \Sigma' die borelsche σ-Algebra auf den reellen Zahlen gewählt wird.

Bemerkungen

In der Regel wird auf die konkrete Angabe der zugehörigen Räume verzichtet; es wird angenommen, dass aus dem Kontext klar ist, welcher Wahrscheinlichkeitsraum auf \Omega und welcher Messraum auf \Omega ' gemeint ist.

Bei einer endlichen Ergebnismenge \Omega wird \Sigma meistens als die Potenzmenge von \Omega gewählt. Die Forderung, dass die verwendete Funktion messbar ist, ist dann immer erfüllt. Messbarkeit wird erst wirklich bedeutsam, wenn die Ergebnismenge \Omega überabzählbar viele Elemente enthält.

Einige Klassen von Zufallsvariablen mit bestimmten Wahrscheinlichkeits- und Messräumen werden besonders häufig verwendet. Diese werden teilweise mit Hilfe alternativer Definitionen eingeführt, die keine Kenntnisse der Maßtheorie voraussetzen:

Reelle Zufallsvariable

Bei reellen Zufallsvariablen ist der Bildraum die Menge \mathbb {R} der reellen Zahlen versehen mit der borelschen \sigma -Algebra. Die allgemeine Definition von Zufallsvariablen lässt sich in diesem Fall zur folgenden Definition vereinfachen:

Eine reelle Zufallsvariable ist eine Funktion X\colon\Omega\to\R, die jedem Ergebnis \omega aus einer Ergebnismenge \Omega eine reelle Zahl X(\omega) zuordnet und die folgende Messbarkeitsbedingung erfüllt:
\forall x \in \R:\ \lbrace \omega \mid X(\omega) \leq x \rbrace \in \Sigma

Das bedeutet, dass die Menge aller Ergebnisse, deren Realisierung unterhalb eines bestimmten Wertes liegt, ein Ereignis bilden muss.

Im Beispiel des zweimaligen Würfelns sind X_{1}, X_{2} und S jeweils reelle Zufallsvariable.

Mehrdimensionale Zufallsvariable

Eine mehrdimensionale Zufallsvariable ist eine messbare Abbildung X\colon\Omega\to\R^n für eine Dimension n\in\Bbb N. Sie wird auch als Zufallsvektor bezeichnet. Damit ist X=(X_1,\dotsc,X_n) gleichzeitig ein Vektor von einzelnen reellen Zufallsvariablen X_i\colon\Omega\to\R, die alle auf dem gleichen Wahrscheinlichkeitsraum definiert sind. Die Verteilung von X wird als multivariat bezeichnet, die Verteilungen der Komponenten X_{i} nennt man auch Randverteilungen. Die mehrdimensionalen Entsprechungen von Erwartungswert und Varianz sind der Erwartungswertvektor und die Kovarianzmatrix.

Im Beispiel des zweimaligen Würfelns ist X=(X_1,X_2) eine zweidimensionale Zufallsvariable.

Zufallsvektoren sollten nicht mit Wahrscheinlichkeitsvektoren (auch stochastische Vektoren genannt) verwechselt werden. Diese sind Elemente des \mathbb {R} ^{n}, deren Komponenten positiv sind und deren Summe 1 ergibt. Sie beschreiben die Wahrscheinlichkeitsmaße auf Mengen mit n Elementen.

Komplexe Zufallsvariable

Bei komplexen Zufallsvariablen ist der Bildraum die Menge {\mathbb {C}} der komplexen Zahlen versehen mit der durch die kanonische Vektorraumisomorphie zwischen {\mathbb {C}} und \mathbb {R} ^{2} „geerbten“ borelschen σ-Algebra. X ist genau dann eine Zufallsvariable, wenn Realteil \operatorname{Re}(X) und Imaginärteil \operatorname{Im}(X) jeweils reelle Zufallsvariablen sind.

Die Verteilung von Zufallsvariablen, Existenz

Hauptartikel: Verteilung einer Zufallsvariablen

Eng verknüpft mit dem eher technischen Begriff einer Zufallsvariablen ist der Begriff der auf dem Bildraum von X\; induzierten Wahrscheinlichkeitsverteilung. Mitunter werden beide Begriffe auch synonym verwendet. Formal wird die Verteilung \;P^X einer Zufallsvariablen X\; als das Bildmaß des Wahrscheinlichkeitsmaßes P\; definiert, also

\;P^X (A) = P \left(X^{-1}(A)\right) für alle  A \in \Sigma', wobei \Sigma' die auf dem Bildraum der Zufallsvariablen X gegebene σ-Algebra ist.

Statt \;P^X werden in der Literatur für die Verteilung von X\; auch die Schreibweisen P_X, X(P)\; oder P \circ X^{-1} verwendet.

Spricht man also beispielsweise von einer normalverteilten Zufallsvariablen, so ist damit eine Zufallsvariable mit Werten in den reellen Zahlen gemeint, deren Verteilung einer Normalverteilung entspricht.

Eigenschaften, welche sich allein über gemeinsame Verteilungen von Zufallsvariablen ausdrücken lassen, werden auch wahrscheinlichkeitstheoretisch genannt. Für Behandlung solcher Eigenschaften ist es nicht notwendig, die konkrete Gestalt des (Hintergrund-)Wahrscheinlichkeitsraumes zu kennen, auf dem die Zufallsvariablen definiert sind.

Häufig wird deswegen von einer Zufallsvariablen lediglich die Verteilungsfunktion angegeben und der zu Grunde liegende Wahrscheinlichkeitsraum offen gelassen. Dies ist vom Standpunkt der Mathematik erlaubt, sofern es tatsächlich einen Wahrscheinlichkeitsraum gibt, der eine Zufallsvariable mit der gegebenen Verteilung erzeugen kann. Ein solcher Wahrscheinlichkeitsraum (\Omega,\Sigma,P) lässt sich aber zu einer konkreten Verteilung leicht angeben, indem beispielsweise \Omega=\R, \Sigma als die Borelsche σ-Algebra auf den reellen Zahlen und P als das durch die Verteilungsfunktion induzierte Lebesgue-Stieltjes-Maß gewählt wird. Als Zufallsvariable kann dann die identische Abbildung X \colon \R \to \R mit X(\omega) = \omega gewählt werden.

Wenn eine Schar von Zufallsvariablen betrachtet wird, reicht es aus wahrscheinlichkeitstheoretischer Perspektive genauso, die gemeinsame Verteilung der Zufallsvariablen anzugeben, die Gestalt des Wahrscheinlichkeitsraums kann wiederum offen gelassen werden.

Die Frage nach der konkreten Gestalt des Wahrscheinlichkeitsraumes tritt also in den Hintergrund, es ist jedoch von Interesse, ob zu einer Schar von Zufallsvariablen mit vorgegebenen endlichdimensionalen gemeinsamen Verteilungen ein Wahrscheinlichkeitsraum existiert, auf dem sie sich gemeinsam definieren lassen. Diese Frage wird für unabhängige Zufallsvariablen durch einen Existenzsatz von É. Borel gelöst, der besagt, dass man im Prinzip auf den von Einheitsintervall und Lebesgue-Maß gebildeten Wahrscheinlichkeitsraum zurückgreifen kann. Ein möglicher Beweis nutzt, dass sich die binären Nachkommastellen der reellen Zahlen in [0,1] als ineinander verschachtelte Bernoulli-Folgen betrachten lassen.

Mathematische Attribute für Zufallsvariablen

Verschiedene mathematische Attribute, die in der Regel denen für allgemeine Funktionen entlehnt sind, finden bei Zufallsvariablen Anwendung. Die häufigsten werden in der folgenden Zusammenstellung kurz erklärt:

diskret

Eine Zufallsvariable wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt. Im obigen Beispiel des zweimaligen Würfelns sind alle drei Zufallsvariablen X_{1}, X_{2} und S diskret. Ein weiteres Beispiel für diskrete Zufallsvariablen sind zufällige Permutationen.

konstant

Eine Zufallsvariable wird als konstant bezeichnet, wenn sie nur einen Wert annimmt: X(\omega)=c für alle \omega . Sie ist ein Spezialfall der diskreten Zufallsvariable.

unabhängig

Hauptartikel: Stochastisch unabhängige Zufallsvariablen

Zwei reelle Zufallsvariablen X,Y heißen unabhängig, wenn für je zwei Intervalle [a_1,b_1] und [a_2,b_2] die Ereignisse E_X := \{ \omega | X(\omega) \in [a_1,b_1] \} und E_Y := \{ \omega | Y(\omega) \in [a_2,b_2] \} stochastisch unabhängig sind. Das sind sie, wenn gilt: P(E_X \cap E_Y ) = P(E_X) P(E_Y).

In obigem Beispiel sind X_{1} und X_{2} unabhängig voneinander; die Zufallsvariablen X_{1} und S hingegen nicht.

Unabhängigkeit mehrerer Zufallsvariablen X_1, X_2, \dotsc, X_n bedeutet, dass das Wahrscheinlichkeitsmaß P_X des Zufallsvektors X=\left(X_1, X_2, \dotsc, X_n\right) dem Produktmaß der Wahrscheinlichkeitsmaße der Komponenten, also dem Produktmaß von P_{X_1}, P_{X_2}, \dotsc, P_{X_n} entspricht. So lässt sich beispielsweise dreimaliges unabhängiges Würfeln durch den Wahrscheinlichkeitsraum (\Omega,\Sigma,P) mit

\Omega=\{1,2,3,4,5,6\}^3,
\Sigma der Potenzmenge von \Omega und
P\left(\left(n_1, n_2, n_3\right)\right)=\frac{1}{6^3}=\frac{1}{216}

modellieren; die Zufallsvariable "Ergebnis des k-ten Wurfes" ist dann

X_k\left(n_1, n_2, n_3\right)=n_k für k\in\{1,2,3\}.

Die Konstruktion eines entsprechenden Wahrscheinlichkeitsraums für eine beliebige Familie unabhängiger Zufallsvariable mit gegebenen Verteilungen ist ebenfalls möglich.

identisch verteilt

Zwei oder mehr Zufallsvariablen heißen identisch verteilt (bzw. i.d. für identically distributed), wenn ihre induzierten Wahrscheinlichkeitsverteilungen gleich sind. In Beispiel des zweimaligen Würfelns sind X_{1}, X_{2} identisch verteilt; die Zufallsvariablen X_{1} und S hingegen nicht.

unabhängig und identisch verteilt

Häufig werden Folgen von Zufallsvariablen untersucht, die sowohl unabhängig als auch identisch verteilt sind; demnach spricht man von unabhängig identisch verteilten Zufallsvariablen. Dieser Fall wird üblicherweise mit u.i.v. bzw. i.i.d. (für independent and identically distributed) abgekürzt.

In obigem Beispiel des dreimaligen Würfelns sind X_{1}, X_{2} und X_{3} i.i.d. Die Summe der ersten beiden Würfe S_{1,2}=X_1+X_2 und die Summe des zweiten und dritten Wurfs S_{2,3}=X_2+X_3 sind zwar identisch verteilt, aber nicht unabhängig. Dagegen sind S_{1,2} und X_{3} unabhängig, aber nicht identisch verteilt.

austauschbar

Austauschbare Familien von Zufallsvariablen sind Familien, deren Verteilung sich nicht ändert, wenn man endlich viele Zufallsvariablen in der Familie vertauscht. Austauschbare Familien sind stets identisch verteilt, aber nicht notwendigerweise unabhängig.

Mathematische Attribute für reelle Zufallsvariablen

Kenngrößen

Zur Charakterisierung von Zufallsvariablen dienen einige wenige Funktionen, die wesentliche mathematische Eigenschaften der jeweiligen Zufallsvariable beschreiben. Die wichtigste dieser Funktionen ist die Verteilungsfunktion, die Auskunft darüber gibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert bis zu einer vorgegebenen Schranke annimmt, beispielsweise die Wahrscheinlichkeit, höchstens eine Vier zu würfeln. Bei stetigen Zufallsvariablen wird diese durch die Wahrscheinlichkeitsdichte ergänzt, mit der die Wahrscheinlichkeit berechnet werden kann, dass die Werte einer Zufallsvariablen innerhalb eines bestimmten Intervalls liegen. Des Weiteren sind Kennzahlen wie der Erwartungswert, die Varianz oder höhere mathematische Momente von Interesse.

stetig oder kontinuierlich

Das Attribut stetig wird für unterschiedliche Eigenschaften verwendet.

  • Eine reelle Zufallsvariable wird als stetig (oder auch absolut stetig) bezeichnet, wenn sie eine Dichte besitzt (ihre Verteilung absolutstetig bezüglich des Lebesgue-Maßes ist).
  • Eine reelle Zufallsvariable wird als stetig bezeichnet, wenn sie eine stetige Verteilungsfunktion besitzt. Insbesondere bedeutet das, dass P(\{X=x\})=0 für alle x\in \mathbb {R} gilt.

Messbarkeit, Verteilungsfunktion und Erwartungswert

Wenn eine reelle Zufallsvariable X auf dem Ergebnisraum \Omega und eine messbare Funktion g\colon \R \to \R gegeben ist, dann ist auch Y = g(X) eine Zufallsvariable auf demselben Ergebnisraum, da die Verknüpfung messbarer Funktionen wieder messbar ist. g(X) wird auch als Transformation der Zufallsvariablen X unter g bezeichnet. Die gleiche Methode, mit der man von einem Wahrscheinlichkeitsraum (\Omega ,\Sigma ,P) nach (\R, \mathcal{B}(\R),P^X) gelangt, kann benutzt werden, um die Verteilung von Y zu erhalten.

Die Verteilungsfunktion von Y lautet

F_Y(y) = \operatorname{P}(g(X) \leq y).

Der Erwartungswert einer quasi-integrierbaren Zufallsgröße X von (\Omega ,\Sigma ,P) nach (\bar{\R}, \mathcal{B}(\bar{\R})) berechnet sich folgend:

\operatorname{E}(X) = \int_\Omega X(\omega)\mathrm{d}P(\omega)\,.

integrierbar und quasi-integrierbar

Eine Zufallsvariable heißt integrierbar, wenn der Erwartungswert der Zufallsvariable existiert und endlich ist. Die Zufallsvariable heißt quasi-integrierbar, wenn der Erwartungswert existiert, möglicherweise aber unendlich ist. Jede integrierbare Zufallsvariable ist folglich auch quasi-integrierbar.

Beispiel

Es sei X eine reelle stetig verteilte Zufallsvariable und Y = X^2.

Dann ist

F_Y(y) = \operatorname{P}(X^2 \leq y).

Fallunterscheidung nach y:

y<0:


  \begin{alignat}{2}
    &            & \operatorname P(X^2 \leq y) &= 0\\
    &\Rightarrow & F_Y(y)                      &= 0
  \end{alignat}

y\geq 0:


  \begin{alignat}{2}
    &            & \operatorname P\left(X^2\leq y\right) &=\operatorname P\left(|X|\leq\sqrt y\right)\\
    &            &                        &= \operatorname P\left(-\sqrt y\leq X\leq\sqrt y\right)\\
    &\Rightarrow & F_Y\left(y\right)                 &= F_X\left(\sqrt y\right) - F_X\left(-\sqrt y\right)
  \end{alignat}

Standardisiertheit

Hauptartikel: Standardisierung (Statistik)

Eine Zufallsvariable nennt man standardisiert, wenn ihr Erwartungswert 0 und ihre Varianz 1 ist. Die Transformation einer Zufallsvariable Y in eine standardisierte Zufallsvariable

X=\frac{Y-\operatorname{E}(Y)}{\sqrt{\operatorname{Var}(Y)}}

bezeichnet man als Standardisierung der Zufallsvariable Y.

Sonstiges

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 23.03. 2024