Konvergenz in Verteilung
Die Konvergenz in Verteilung, manchmal auch Konvergenz nach Verteilung genannt, ist ein Konvergenzbegriff, der aus der Stochastik stammt. Sie ist neben der Konvergenz im p-ten Mittel, der Konvergenz in Wahrscheinlichkeit und der fast sicheren Konvergenz einer der Wahrscheinlichkeitstheoretischen Konvergenzbegriffe und im Vergleich zu diesen ein schwächerer Konvergenzbegriff.
Im Gegensatz zu den anderen Konvergenzbegriffen der Stochastik handelt es sich bei der Konvergenz in Verteilung nicht um die Konvergenz von Zufallsvariablen, sondern um die Konvergenz der Verteilungen von Zufallsvariablen, bei denen es sich um Wahrscheinlichkeitsverteilungen handelt. Daher entspricht die Konvergenz in Verteilung im Wesentlichen der schwachen Konvergenz (im Sinne der Maßtheorie), angewandt auf Wahrscheinlichkeitsverteilungen und mittels Zufallsvariablen formalisiert.
Verwendung findet die Konvergenz in Verteilung beispielsweise bei der Formulierung der zentralen Grenzwertsätze, deren bekanntester Vertreter der zentrale Grenzwertsatz von Lindeberg-Lévy ist.
Definition für reellwertige Zufallsvariablen
Gegeben seien reelle Zufallsvariablen
mit zugehörigen Verteilungsfunktionen
Dann konvergiert die Folge
in Verteilung gegen
,
wenn eine der beiden folgenden äquivalenten Bedingungen erfüllt ist:
- Die Verteilungsfunktionen
konvergieren schwach gegen die Verteilungsfunktion
. Das bedeutet, dass
-
für alle
, an denen
stetig ist.
- Es ist
-
- für alle reellen stetigen
beschränkten Funktionen
.
Bemerkungen zur Definition
Im Gegensatz zu den anderen Konvergenzarten der Stochastik handelt es sich bei der Konvergenz in Verteilung nicht um eine Konvergenz von Zufallsvariablen, sondern von Maßen. Streng genommen müsste man also davon sprechen, dass die Verteilungen der Zufallsvariablen konvergieren und nicht die Zufallsvariablen in Verteilung. Zu beachten ist außerdem, dass bei der Definition alle Zufallsvariablen auf verschiedenen Wahrscheinlichkeitsräumen definiert sein können.
Es existieren eine Vielzahl von verschiedenen Notationen für die Konvergenz
in Verteilung in der Literatur, unter anderem ,
,
oder
,
teilweise auch
.
Das „W“ und das „D“ stehen dabei für weak convergence bzw. convergence
in distribution, das „L“ für Law. Die Notation
sollte nicht mit der Notation für die -->Konvergenz im (ersten)
Mittel
verwechselt werden.
Motivation der Definition
Intuitiv würde man von einer Folge von Wahrscheinlichkeitsmaßen
sagen, dass sie gegen
konvergiert, wenn
für jede Menge
aus der betrachteten σ-Algebra gilt. Setzt man nun aber als Folge von
Wahrscheinlichkeitsmaßen
das Dirac-Maß
im Punkt
,
so konvergiert diese Folge intuitiv gegen
,
das Dirac-Maß in der 0. Auf dem Messraum
ist dann aber beispielsweise für die Menge
die obige Forderung an die Konvergenz der Maße verletzt. Um derartige
Widersprüche zu vermeiden, definiert man eine Folge von Maßen
als konvergent gegen
,
wenn
für alle
aus einer gewissen Funktionenklasse (stetig, beschränkt etc.) ist.[1]
Wendet man nun diese Definition auf Wahrscheinlichkeitsmaße (beziehungsweise
Verteilungen von Zufallsvariablen) und stetige beschränkte Funktionen an, so
erhält man die Konvergenz in Verteilung im allgemeinen Fall.
Erst der Satz von Helly-Bray verknüpft diese Konvergenz (in der Maßtheorie auch schwache Konvergenz genannt) mit der schwachen Konvergenz von Verteilungsfunktionen und liefert damit eine greifbarere Charakterisierung der Konvergenz in Verteilung über die Konvergenz der Verteilungsfunktion. Aus didaktischen Gründen wird diese Charakterisierung jedoch meist zuerst gegeben.
Beispiel
Betrachtet man eine Folge von auf dem Punkt
Dirac-Verteilten
Zufallsvariablen, so hat jede der Verteilungsfunktionen die Form
.
Die Folge dieser Verteilungsfunktionen konvergiert punktweise gegen die Verteilungsfunktion
,
denn für
stimmen alle Verteilungsfunktionen überein und für jedes
gibt es ein
,
so dass für alle
immer
gilt. Die Verteilungsfunktion
ist aber die Verteilungsfunktion einer Dirac-Verteilung in der 0, somit
konvergiert die Folge der Verteilungen der Zufallsvariablen in Verteilung gegen
die Dirac-Verteilung in der 0.
Definiert man umgekehrt jedoch eine Folge von Dirac-Verteilten
Zufallsvariablen auf den Punkten ,
so besitzen diese die Verteilungsfunktionen
.
Mit einer analogen Argumentation zu oben zeigt man, dass diese Folge von Verteilungsfunktionen punktweise gegen
konvergiert. Diese punktweise Grenzfunktion ist aber keine
Verteilungsfunktion, da sie nicht rechtsseitig stetig ist. Aber die Folge
der
konvergiert an jeder Stetigkeitsstelle der weiter oben beschriebenen
Verteilungsfunktion
punktweise gegen diese. Somit konvergiert auch die
in Verteilung gegen das Dirac-Maß in der 0.
Daher muss bei der Überprüfung auf Konvergenz in Verteilung beachtet werden, dass nicht nur punktweise Konvergenz relevant ist, sondern auch ob eventuelle Modifikationen der Grenzfunktion existieren, die den Ansprüchen an die Stetigkeitsstellen genügen.
Eigenschaften
- Das Portmanteau-Theorem beschreibt äquivalente Charakterisierungen der Konvergenz in Verteilung.
- Ist die Verteilungsfunktion einer reellen Zufallsvariable stetig, so ist die Konvergenz in Verteilung äquivalent zur gleichmäßigen Konvergenz der Verteilungsfunktionen.
- Da der Konvergenzbegriff nur über die Verteilungen der Zufallsvariablen definiert ist, ist nicht nötig, dass die Zufallsvariablen auf demselben Wahrscheinlichkeitsraum definiert sind.
- Konvergieren die
in Verteilung gegen
, so konvergieren die charakteristischen Funktionen
für alle
punktweise gegen
. Für den Umkehrschluss muss zusätzlich noch vorausgesetzt werden, dass
stetig im Nullpunkt ist.
Beziehung zu anderen Konvergenzbegriffen der Stochastik
Allgemein gelten für die Konvergenzbegriffe der Wahrscheinlichkeitstheorie die Implikationen
und
.
Die Konvergenz in Verteilung ist also der schwächste Konvergenzbegriff. In den unten stehenden Abschnitten sind die Beziehungen zu den andere Konvergenzarten genauer ausgeführt.
Konvergenz in Wahrscheinlichkeit
Aus Konvergenz
in Wahrscheinlichkeit folgt nach dem Satz von Slutzky die
Konvergenz in Verteilung, der Umkehrschluss gilt im Allgemeinen nicht. Ist
beispielsweise die Zufallsvariable
Bernoulli-verteilt
mit Parameter
,
also
,
und setzt man
für alle
,
so konvergiert
in Verteilung gegen
,
da sie dieselbe Verteilung haben. Es gilt aber immer
,
die Zufallsvariablen können also nicht in Wahrscheinlichkeit konvergieren. Es
existieren jedoch Kriterien, unter denen aus der Konvergenz in Verteilung die
Konvergenz in Wahrscheinlichkeit folgt. Sind beispielsweise alle
Zufallsvariablen
auf demselben Wahrscheinlichkeitsraum definiert und konvergieren in Verteilung
gegen die Zufallsvariable
,
die fast
sicher konstant ist, so konvergieren die
auch in Wahrscheinlichkeit gegen
.
Fast sichere Konvergenz
Die Skorochod-Darstellung trifft eine Aussage darüber, unter welchen Bedingungen aus der Konvergenz in Verteilung auf die fast sichere Konvergenz geschlossen werden kann.
Allgemeine Definition
Allgemein lässt sich die Konvergenz in Verteilung so definieren: Gegeben sein
eine Zufallsvariable
sowie eine Folge von Zufallsvariablen
mit Werten in einem metrischen
Raum
.
Dann konvergieren die
in Verteilung gegen
genau dann, wenn ihre Verteilungen
schwach
im Sinne der Maßtheorie gegen die Verteilung
von
konvergieren. Dies bedeutet, dass für alle stetigen
beschränkten Funktionen
gilt, dass
.
Beziehung zur schwachen Konvergenz
Die schwache
Konvergenz von endlichen Maßen wird wie folgt definiert: Eine Folge von
endlichen Maßen
auf einem metrischen Raum
,
versehen mit der Borelschen
σ-Algebra, konvergiert schwach gegen
,
wenn
für alle beschränkten
stetigen Funktionen
von
nach
.
Das Maß des Grundraumes
bleibt unter schwachen Grenzwerten erhalten, da die Funktion
stetig und beschränkt ist. Somit sind schwache Grenzwerte von Folgen von
Wahrscheinlichkeitsmaßen wieder Wahrscheinlichkeitsmaße. Somit ist es sinnvoll,
die schwache Konvergenz nur für Folgen von Wahrscheinlichkeitsmaßen zu
definieren, was auch einige Autoren tun.
Überträgt man diese Definition für eine Folge von Wahrscheinlichkeitsmaßen
auf Zufallsvariablen, so erhält man
,
was in stochastischer Notation der oben angegebenen Definition
.
entspricht. Die Konvergenz in Verteilung ist also ein Spezialfall der schwachen Konvergenz im Sinne der Maßtheorie, formuliert für Verteilungen von Zufallsvariablen und über den Erwartungswert.
Damit ist die Konvergenz in Verteilung auch gleichzeitig ein Beispiel für das funktionalanalytische Konzept der Schwach-*-Konvergenz, für Details hierzu siehe Schwache Konvergenz (Maßtheorie)#Einordnung.
Verallgemeinerung
Eine Abwandlung der Konvergenz in Verteilung für Zufallsvariablen mit Werten in unendlichdimensionalen Räumen ist die fdd-Konvergenz. Bei ihr wird die Konvergenz in Verteilung von allen endlichdimensionalen Randverteilungen gefordert.



© biancahoegel.de
Datum der letzten Änderung: Jena, den: 23.10. 2018