Gesetz der großen Zahlen

Visualisierung des starken Gesetzes der großen Zahlen: Auf der y-Achse ist die relative Häufigkeit einer gewürfelten Sechs aufgetragen, während auf der x-Achse die Anzahl der Durchgänge angegeben ist. Die horizontale graue Linie zeigt die Wahrscheinlichkeit eines Sechserwurfes von 16,67 % (=1/6), die schwarze Linie den in einem konkreten Experiment gewürfelten Anteil aller Sechserwürfe bis zur jeweiligen Anzahl der Durchgänge.
Visualisierung des schwachen Gesetzes der großen Zahlen beim Würfelbeispiel: Für wachsendes n zieht sich die Verteilung der relativen Häufigkeit immer enger auf den Wert 1/6 zusammen.

Als Gesetze der großen Zahlen werden bestimmte mathematische Sätze aus der Stochastik bezeichnet.

In ihrer einfachsten Form besagen diese Sätze, dass sich die relative Häufigkeit eines Zufallsergebnisses in der Regel um die theoretische Wahrscheinlichkeit eines Zufallsergebnisses stabilisiert, wenn das zu Grunde liegende Zufallsexperiment immer wieder unter denselben Voraussetzungen durchgeführt wird. Die häufig verwendete Formulierung, dass sich die relative Häufigkeit der Wahrscheinlichkeit „immer mehr annähert“ ist dabei irreführend, da es auch bei einer großen Anzahl von Wiederholungen Ausreißer geben kann. Die Annäherung ist also nicht monoton.

Formal handelt es sich um Aussagen über die Konvergenz des arithmetischen Mittels von Zufallsvariablen, zumeist unterteilt in „starke“ (fast sichere Konvergenz) und „schwache“ (Konvergenz in Wahrscheinlichkeit) Gesetze der großen Zahlen.

Beispiel: Wurf einer Münze

Die Wahrscheinlichkeit, dass eine Münze beim Werfen Kopf zeigt, betrage ½. Je häufiger die Münze geworfen wird, desto unwahrscheinlicher wird es, dass der Anteil der Würfe, bei denen Kopf erscheint (also die relative Häufigkeit des Ereignisses „Kopf“), um mehr als einen beliebigen vorgegebenen Wert von der theoretischen Wahrscheinlichkeit ½ abweicht. Dagegen ist es durchaus wahrscheinlich, dass die absolute Differenz zwischen der Anzahl der Kopf-Würfe und der halben Gesamtzahl der Würfe anwächst.

Insbesondere besagen diese Gesetze der großen Zahlen nicht, dass ein Ereignis, welches bislang nicht so häufig eintrat wie erwartet, seinen „Rückstand“ irgendwann ausgleichen und folglich in Zukunft häufiger eintreten muss. Dies ist ein bei Roulette- und Lottospielern häufig verbreiteter Irrtum, die „säumige“ Zahlenart müsse nun aber aufholen, um wieder der statistischen Gleichverteilung zu entsprechen. Es gilt damit kein Gesetz des Ausgleichs.

Ein Beispiel dazu: Angenommen, eine Serie von Münzwürfen beginne mit „Kopf“, „Zahl“, „Kopf“, „Kopf“. Dann wurde „Kopf“ bis dahin dreimal geworfen, „Zahl“ einmal. „Kopf“ hat gewissermaßen einen Vorsprung von zwei Würfen. Nach diesen vier Würfen ist die relative Häufigkeit von „Kopf“ ¾, die von „Zahl“ ¼. Nach 96 weiteren Würfen stelle sich ein Verhältnis von 47 Mal „Zahl“ zu 53 Mal „Kopf“ ein. Der Vorsprung von „Kopf“ ist also nach 100 Würfen sogar noch größer als nach vier Würfen, jedoch hat sich der relative Abstand von „Kopf“ und „Zahl“ stark verringert, beziehungsweise – und das ist die Aussage des Gesetzes der großen Zahlen – der Unterschied der relativen Häufigkeit von „Kopf“ zum Erwartungswert von „Kopf“. Der Wert \textstyle {\frac  {53}{100}}=0{,}53 liegt sehr viel näher beim Erwartungswert 0,5 als ¾ = 0,75.

Schwaches Gesetz für relative Häufigkeiten

Der einfachste Fall eines Gesetzes der großen Zahlen, das schwache Gesetz für relative Häufigkeiten, ist das Hauptergebnis in Jakob Bernoullis Ars Conjectandi (1713). Ein Zufallsexperiment mit genau zwei Ausgängen, genannt Erfolg und Misserfolg, also ein Bernoulli-Experiment, werde n Mal unabhängig wiederholt. Bezeichnet p\in (0,1) die Erfolgswahrscheinlichkeit bei einer einzelnen Durchführung, dann ist die Anzahl X_{n} der Erfolge binomialverteilt mit den Parametern n und p. Für den Erwartungswert von X_{n} gilt dann \operatorname {E}(X_{n})=np und für die Varianz \operatorname {Var}(X_{n})=np(1-p).

Für die relative Häufigkeit R_{n}={\tfrac  {1}{n}}X_{n} folgt daraus \operatorname {E}(R_{n})=p und \sigma ^{2}=\operatorname {Var}(R_{n})={\tfrac  {1}{n^{2}}}\operatorname {Var}(X_{n})={\tfrac  {p(1-p)}{n}}. Die Tschebyscheff-Ungleichung angewendet auf R_{n} lautet damit

\operatorname {P}\left(|R_{n}-p|\geq \varepsilon \right)\leq {\frac  {\sigma ^{2}}{\varepsilon ^{2}}}={\frac  {p(1-p)}{n\varepsilon ^{2}}}

für alle \varepsilon >0. Da die rechte Seite der Ungleichung für n\to \infty gegen null konvergiert, folgt

\lim _{{n\to \infty }}\operatorname {P}\left(|R_{n}-p|\geq \varepsilon \right)=0,

das heißt, für jedes noch so kleine \varepsilon >0 geht die Wahrscheinlichkeit, dass die relative Häufigkeit der Erfolge nicht im Intervall (p-\varepsilon ,p+\varepsilon ) liegt, gegen null, wenn die Anzahl der Versuche gegen unendlich geht.

Schwaches Gesetz der großen Zahlen

Hauptartikel: Schwaches Gesetz der großen Zahlen

Man sagt, eine Folge von Zufallsvariablen X_{1},X_{2},X_{3},\dotsc in mit E(|X_{i}|)<\infty genüge dem schwachen Gesetz der großen Zahlen, wenn für

\overline {X}_{n}={\tfrac  1n}\textstyle \sum \limits _{{i=1}}^{{n}}(X_{i}-E({X}_{i}))

für alle positiven Zahlen \varepsilon gilt:

\lim _{{n\rightarrow \infty }}\operatorname {P}\left(\left|\overline {X}_{n}\right|>\varepsilon \right)=0\,,

also wenn die arithmetischen Mittel der zentrierten Zufallsvariablen X_{i}-E(X_{i}) in Wahrscheinlichkeit gegen {\displaystyle 0} konvergieren.

Es gibt verschiedene Voraussetzungen, unter denen das schwache Gesetz der großen Zahlen gilt. Dabei werden teils Forderungen an die Momente oder an die Unabhängigkeit gestellt. Bedeutsame Voraussetzungen sind:

Weitere Formulierungen finden sich im Hauptartikel. Insbesondere lässt sich in der zweiten Aussage die Forderung der Beschränktheit der Varianzen etwas allgemeiner fassen.

Starkes Gesetz der großen Zahlen

Hauptartikel: Starkes Gesetz der großen Zahlen

Man sagt, eine Folge von Zufallsvariablen {\displaystyle (X_{n})_{n\in \mathbb {N} }} mit {\displaystyle \operatorname {E} (|X_{n}|)<\infty } genüge dem starken Gesetz der großen Zahlen, wenn für

\overline {X}_{n}={\tfrac  1n}\textstyle \sum \limits _{{i=1}}^{{n}}(X_{i}-E({X}_{i}))

gilt:

\operatorname {P}\left(\limsup _{{n\rightarrow \infty }}|\overline {X}_{n}|=0\right)=1,

also wenn die arithmetischen Mittel der zentrierten Zufallsvariablen fast sicher gegen 0 konvergieren.

Das starke Gesetz der großen Zahlen gilt beispielsweise, wenn einer der folgenden Fälle zutrifft:

Das starke Gesetz der großen Zahlen impliziert das schwache Gesetz der großen Zahlen. Eine allgemeinere Form des starken Gesetzes der großen Zahlen, die auch für abhängige Zufallsvariablen gilt, ist der individuelle Ergodensatz und der Lp-Ergodensatz, beide gelten für stationäre stochastische Prozesse.

Interpretation der formalen Aussagen

Anders als bei klassischen Folgen, wie sie in der Analysis untersucht werden, kann es in der Wahrscheinlichkeitstheorie in der Regel keine absolute Aussage über die Konvergenz einer Folge von Zufallsergebnissen geben. Grund ist, dass zum Beispiel bei einer Serie von Würfelversuchen Folgen von Zufallsergebnissen wie 6, 6, 6, … nicht ausgeschlossen sind. Bei einer solchen Folge von Zufallsergebnissen würde die Folge der daraus gebildeten arithmetischen Mittel aber nicht gegen den Erwartungswert 3,5 konvergieren. Allerdings besagt das starke Gesetz der großen Zahlen, dass das Ereignis, bei dem die arithmetischen Mittelwerte nicht gegen den Erwartungswert 3,5 konvergieren, die Wahrscheinlichkeit 0 besitzt. Man nennt ein solches Ereignis auch fast unmögliches Ereignis.

Gegenstand der Gesetze der großen Zahlen ist die zu einer gegebenen Folge von Zufallsvariablen X_{1},X_{2},X_{3},\dotsc gebildete Folge der arithmetischen Mittel der zentrierten Zufallsvariablen

\overline {X}_{1}=X_{1}-E(X_{1}),\;\overline {X}_{2}={\tfrac  {1}{2}}((X_{1}-E(X_{1}))+(X_{2}-E(X_{2}))),\;\overline {X}_{3}={\tfrac  {1}{3}}((X_{1}-E(X_{1}))+\dotsb +(X_{3}-E(X_{3}))),\dotsc

Aufgrund der beschriebenen Problematik muss die formale Charakterisierung der Konvergenz dieser Folge \overline {X}_{1},\overline {X}_{2},\overline {X}_{3},\dotsc gegen den Wert 0 nicht nur, wie bei einer klassischen Folge von Zahlen, von einem beliebig klein vorgegebenen Toleranzabstand \varepsilon >0 ausgehen. Zusätzlich wird eine beliebig kleine Toleranzwahrscheinlichkeit p_{{\text{max}}}>0 vorgegeben. Die Aussage des schwachen Gesetzes der großen Zahlen bedeutet dann, dass zu jeder beliebigen Vorgabe eines Toleranzabstands \varepsilon und einer Toleranzwahrscheinlichkeit p_{{\text{max}}} bei einem genügend groß gewählten Index n eine Abweichung |\overline {X}_{n}-0|=|\overline {X}_{n}|, die den Toleranzabstand \varepsilon überschreitet, höchstens mit der Wahrscheinlichkeit p_{{\text{max}}} eintritt. Demgegenüber bezieht sich das starke Gesetz der großen Zahlen auf das Ereignis, dass irgendeine der Abweichungen |\overline {X}_{n}|,|\overline {X}_{{n+1}}|,|\overline {X}_{{n+2}}|,\dotsc den Toleranzabstand \varepsilon überschreitet.

Praktische Bedeutung

Versicherungswesen
Das Gesetz der großen Zahlen hat bei Versicherungen eine große praktische Bedeutung. Es erlaubt eine ungefähre Vorhersage über den künftigen Schadensverlauf. Je größer die Zahl der versicherten Personen, Güter und Sachwerte, die von der gleichen Gefahr bedroht sind, desto geringer ist der Einfluss des Zufalls. Das Gesetz der großen Zahlen kann aber nichts darüber aussagen, wer im Einzelnen von einem Schaden getroffen wird. Unvorhersehbare Großereignisse und Trends wie der Klimawandel, die die Berechnungsbasis von Durchschnittswerten verändern, können das Gesetz zumindest teilweise unbrauchbar machen.
Medizin
Beim Wirksamkeitsnachweis von medizinischen Verfahren kann man es nutzen, um Zufallseinflüsse auszuschalten.
Naturwissenschaften
Der Einfluss von (nicht systematischen) Messfehlern kann durch häufige Versuchwiederholungen reduziert werden.
Siehe auch: Gesetz der kleinen Zahlen

Geschichte der Gesetze der großen Zahlen

Erstmals formuliert wurde ein Gesetz der großen Zahlen durch Jakob Bernoulli im Jahr 1689, wobei die posthume Veröffentlichung erst 1713 erfolgte. Bernoulli bezeichnete seine Version des schwachen Gesetzes der großen Zahlen als Goldenes Theorem. Die erste Version eines starken Gesetzes der großen Zahlen für den Spezialfall eines Münzwurfs wurde 1909 durch Émile Borel veröffentlicht. 1917 bewies Francesco Cantelli als Erster eine allgemeine Version des starken Gesetzes der großen Zahlen.

Einen gewissen Abschluss erlangte die Geschichte des starken Gesetzes der großen Zahlen mit dem 1981 bewiesenen Satz von N. Etemadi 1981. Der Satz von Etemadi zeigt die Gültigkeit des starken Gesetzes der großen Zahlen unter der Annahme, dass die Zufallsvariablen integrierbar sind (also einen endlichen Erwartungswert besitzen), jeweils dieselbe Verteilung haben und je zwei Zufallsvariablen unabhängig sind. Die Existenz einer Varianz wird nicht vorausgesetzt.

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 29.01. 2021