Poisson-Verteilung

Wahrscheinlichkeitsfunktion der Poisson-Verteilung für \lambda = 1, 5 und 9

Die Poisson-Verteilung (benannt nach dem Mathematiker Siméon Denis Poisson) ist eine Wahrscheinlichkeitsverteilung, mit der die Anzahl von Ereignissen modelliert werden kann, die bei konstanter mittlerer Rate unabhängig voneinander in einem festen Zeitintervall oder räumlichen Gebiet eintreten. Sie ist eine univariate diskrete Wahrscheinlichkeitsverteilung, die einen häufig vorkommenden Grenzwert der Binomialverteilung für unendlich viele Versuche darstellt. Sie lässt sich aber auch aus grundlegenden Prozesseigenschaften axiomatisch herleiten.

Die Zuwächse eines Poisson-Prozesses sind Poisson-verteilte Zufallsvariablen. Erweiterungen der Poisson-Verteilung wie die Verallgemeinerte Poisson-Verteilung und die Gemischte Poisson-Verteilung werden vor allem im Bereich der Versicherungsmathematik angewendet.

Definition

Die Poisson-Verteilung P_\lambda ist eine diskrete Wahrscheinlichkeitsverteilung. Sie wird durch einen reellen Parameter \lambda >0 bestimmt, der den Erwartungswert und gleichzeitig die Varianz der Verteilung beschreibt. Sie ordnet den natürlichen Zahlen  k = 0, 1, 2, \dotsc die Wahrscheinlichkeiten

P_{\lambda }(k)={\frac  {\lambda ^{k}}{k!}}\,{\mathrm  {e}}^{{-\lambda }}

zu, wobei \mathrm {e} die eulersche Zahl und k! die Fakultät von k bezeichnet. Der Parameter \lambda beschreibt anschaulich die bei einer Beobachtung erwartete Ereignishäufigkeit. Die Poisson-Verteilung gibt dann die Wahrscheinlichkeit einer bestimmten Ereignisanzahl k im Einzelfall an, wenn die mittlere Ereignisrate \lambda bekannt ist.

Eigenschaften

Verteilungsfunktion

Die Verteilungsfunktion F_{\lambda} der Poisson-Verteilung ist

F_{\lambda}(n)=\sum_{k=0}^n P_\lambda (k) = \mathrm{e}^{-\lambda} \sum_{k=0}^n \frac{\lambda^k}{k!} = Q(n+1,\lambda)=p

und gibt die Wahrscheinlichkeit p dafür an, höchstens n Ereignisse zu finden, wo man \lambda im Mittel erwartet. Dabei bezeichnet Q(a,x) die regularisierte Gammafunktion der unteren Grenze.

Erwartungswert, Varianz, Moment

Ist die Zufallsvariable X Poisson-verteilt, also X\sim P_{\lambda}, so ist \lambda zugleich Erwartungswert und Varianz, denn es gilt

\operatorname{E}(X) =\sum_{k=0}^{\infty}k\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}
              =  \lambda\, \mathrm{e}^{-\lambda}\sum_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!}
              =  \lambda\, \mathrm{e}^{-\lambda}\underbrace{\sum_{j=0}^{\infty}\frac{\lambda^{j}}{j!}}_{e^\lambda}
              = \lambda

sowie

\begin{align}\operatorname{E}(X^2) &=\sum_{k=0}^\infty k^2\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}= \mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty k\frac{\lambda^k}{(k-1)!} = \mathrm{e}^{-\lambda}\,\left ( \sum_{k=1}^\infty (k-1)\frac{\lambda^k}{(k-1)!} + \sum_{k=1}^\infty \frac{\lambda^k}{(k-1)!} \right )\\
 &= \mathrm{e}^{-\lambda}\,\sum_{k=2}^\infty \frac{\lambda^k}{(k-2)!} + \mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty \frac{\lambda^k}{(k-1)!}
 =\lambda^2\cdot\mathrm{e}^{-\lambda}\,\sum_{k=2}^\infty \frac{\lambda^{k-2}}{(k-2)!}+\lambda\cdot\mathrm{e}^{-\lambda}\,\sum_{k=1}^\infty \frac{\lambda^{k-1}}{(k-1)!}= \lambda^2+\lambda.
\end{align}

Nach der Verschiebungsformel folgt nun:

{\displaystyle \operatorname {Var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}=\lambda ^{2}+\lambda -\lambda ^{2}=\lambda .}

Auch für das dritte zentrierte Moment gilt \operatorname {E}\left(\left(X-\operatorname {E}\left(X\right)\right)^{3}\right)=\lambda .

Median

Es liegt die Vermutung nahe, dass der Median n_\text{median} nahe bei \lambda liegt. Eine exakte Formel existiert jedoch nicht, die genauest mögliche Abschätzung ist

\lambda -\ln 2\leq n_{{\text{median}}}<\lambda +{\frac  {1}{3}}.

Variationskoeffizient

Aus Erwartungswert und Varianz erhält man sofort den Variationskoeffizienten

\operatorname{VarK}(X) = \frac{\sqrt{\operatorname{Var}(X)}}{\operatorname{E}(X)} = \frac{1}{\sqrt{\lambda}}.

Schiefe und Wölbung

Die Schiefe ergibt sich zu

\operatorname{v}(X) = \frac{1}{\sqrt{\lambda}}.

Die Wölbung lässt sich ebenfalls geschlossen darstellen als

\beta_2 =3+\frac{1}{\lambda}.

Höhere Momente

Das k-te Moment lässt sich als Polynom von Grad k in  \lambda angeben und ist das k-te vollständige Bell-Polynom B_{k} ausgewertet an den k Stellen  \lambda :

m_{k}=B_{k}(\lambda ,\dots ,\lambda ).

Kumulanten

Die kumulantenerzeugende Funktion der Poisson-Verteilung ist

g_{X}(t)=\lambda (e^{t}-1).

Damit sind alle Kumulanten gleich \kappa _{i}=\lambda

Charakteristische Funktion

Die charakteristische Funktion hat die Form

\phi_{X}(s) = \sum_{k=0}^\infty\mathrm{e}^{iks}\frac{\lambda^k}{k!}\,\mathrm{e}^{-\lambda}
               = \mathrm{e}^{-\lambda} \sum_{k=0}^\infty\frac{\left(\lambda\, \mathrm{e}^{is}\right)^k}{k!}
               = \mathrm{e}^{-\lambda} \mathrm{e}^{\lambda\,\mathrm{e}^{is}}
               = \mathrm{e}^{\lambda\left(\mathrm{e}^{is}-1\right)}.

Wahrscheinlichkeitserzeugende Funktion

Für die wahrscheinlichkeitserzeugende Funktion erhält man

m_{X}(s) = \mathrm{e}^{\lambda(s-1)}.

Momenterzeugende Funktion

Die momenterzeugende Funktion der Poisson-Verteilung ist

M_{X}(s) = \mathrm{e}^{\lambda(\mathrm{e}^{s}-1)}.

>Reproduktivität

Die Poisson-Verteilung ist reproduktiv, d.h., die Summe X_{1}+X_{2}+\dotsb +X_{n} stochastisch unabhängiger Poisson-verteilter Zufallsvariabler X_{1},X_{2},\dotsc ,X_{n} mit den Parametern \lambda _{1},\lambda _{2},\dotsc ,\lambda _{n} ist wieder Poisson-verteilt mit dem Parameter \lambda _{1}+\lambda _{2}+\dotsb +\lambda _{n}. Für die Faltung gilt also

{\displaystyle \operatorname {Poi} (\lambda _{1})*\operatorname {Poi} (\lambda _{2})=\operatorname {Poi} (\lambda _{1}+\lambda _{2})}

Somit bilden die Poisson-Verteilungen eine Faltungshalbgruppe. Dieses Ergebnis folgt unmittelbar aus der charakteristischen Funktion der Poisson-Verteilung und der Tatsache, dass die charakteristische Funktion einer Summe unabhängiger Zufallsvariablen das Produkt der charakteristischen Funktionen ist.

Die Poisson-Verteilung ist also auch unendlich teilbar. Nach einem Satz des sowjetischen Mathematikers D. A. Raikow gilt auch die Umkehrung: Ist eine Poisson-verteilte Zufallsvariable X die Summe von zwei unabhängigen Zufallsvariablen X_{1} und X_{2}, dann sind die Summanden X_{1} und X_{2} ebenfalls Poisson-verteilt. Eine Poisson-verteilte Zufallsvariable lässt sich also nur in Poisson-verteilte unabhängige Summanden zerlegen. Dieser Satz ist ein Analogon zu dem Satz von Cramér für die Normalverteilung.

Ausdünnung

Häufig kommen stochastische Experimente vor, bei denen die Ereignisse eigentlich Poisson-verteilt sind, aber die Zählung nur erfolgt, wenn noch eine zusätzliche Bedingung erfüllt ist. Beispielsweise könnte die Anzahl der Eier, die ein Insekt legt, Poisson-verteilt sein, aber aus jedem Ei schlüpft nur mit einer bestimmten Wahrscheinlichkeit eine Larve. Ein Beobachter dieser Poisson-verteilten Zufallsvariable mit Parameter  \lambda zählt jedes Ereignis also nur mit einer Wahrscheinlichkeit p<1 (unabhängig voneinander).

Alternativ könnte aber auch ein Fehler bei der Zählung dazu führen, dass das Ereignis nicht registriert wird. Wenn also ursprünglich n Ereignisse vorliegen, werden entsprechend der Binomial-Verteilung B_{n,p}(r) nur r Ereignisse gezählt. In diesem Fall ist der wahre Wert n unbekannt und variiert zwischen dem gemessenen Wert r (alle vorhandenen Ereignisse gesehen) und unendlich (es gab mehr Ereignisse, als gesehen wurden). Die Wahrscheinlichkeit eines Messwertes r findet man dann mittels des Produktes der Wahrscheinlichkeit einer erfolgreichen Messung B_{n,p}(r) und der ursprünglichen Poisson-Verteilung  P_\lambda(n) , summiert über alle möglichen Werte n:

\sum\limits_{n=r}^\infty B_{n,p}(r) P_\lambda(n) = P_{p\lambda}(r).

Die gefundenen Werte r bei Nachweiswahrscheinlichkeit p sind also wieder Poisson-verteilt. Die Nachweiswahrscheinlichkeit p reduziert den Parameter  \lambda der ursprünglichen Poisson-Verteilung zu  p\lambda . Dies bezeichnet man auch als Ausdünnung der Poisson-Verteilung.

Berechnung

Die Berechnung von P_{\lambda }(k) kann folgendermaßen rekursiv erfolgen. Zuerst bestimmt man P_\lambda (0)=\mathrm{e}^{-\lambda}, dann ergeben sich nacheinander P_\lambda(k)=\tfrac{\lambda}{k}\cdot P_\lambda (k-1), (k=1,2,3,\dotsc). Mit wachsendem k werden dabei die Wahrscheinlichkeiten größer, solange k<\lambda ist. Wird k>\lambda, schrumpfen sie. Der Modus, also der Wert mit der größten Wahrscheinlichkeit, beträgt k_\mathrm{Modus} =\lfloor \lambda \rfloor, wenn \lambda nicht ganzzahlig ist, anderenfalls gibt es zwei benachbarte k_\text{Modus} = \lambda,\lambda -1 (siehe Diagramm rechts oben).

Falls die Berechnung von  \frac{\lambda^k}{k!}\, \mathrm{e}^{-\lambda} wegen zu großer Werte von \lambda und k Probleme bereitet, dann kann folgende mit der Stirlingformel erhaltene Näherung weiterhelfen:

\frac{\mathrm{e}^{k(1+\ln(\lambda/k))-\lambda}}{\sqrt{2\pi(k+1/6)}} .

Poisson-verteilte Zufallszahlen werden üblicherweise mit Hilfe der Inversionsmethode erzeugt.

Parameterschätzung

Maximum-Likelihood-Schätzer

Aus einer Stichprobe von N Beobachtungen n_{i}=0,1,2,\dotsc für i=1,\dotsc ,N soll der Parameter \lambda der Poisson-verteilten Grundgesamtheit geschätzt werden. Der Maximum-Likelihood-Schätzer ist gegeben durch das arithmetische Mittel

\widehat {\lambda }={\frac  {1}{N}}\sum _{{i=1}}^{N}n_{i}.

Der Maximum-Likelihood-Schätzer ist ein unverzerrter, effizienter und suffizienter Schätzer für den Parameter \lambda .

Konfidenzintervall

Das Konfidenzintervall für \lambda erhält man aus der Beziehung zwischen Poisson- und Chi-Quadrat-Verteilung. Liegt ein Stichprobenwert n vor, dann ist ein Konfidenzintervall für \lambda zum Konfidenzniveau 1-\alpha gegeben durch

{\tfrac  12}\chi ^{{2}}(\alpha /2;2n)\leq \lambda \leq {\tfrac  12}\chi ^{{2}}(1-\alpha /2;2n+2),

wobei \chi ^{{2}}(p;i) die Quantilfunktion der Chi-Quadrat-Verteilung mit i Freiheitsgraden bezeichnet.

Prognoseintervall

Das Prognoseintervall hat die Aufgabe, vor dem Ziehen einer Stichprobe einen Bereich vorherzusagen, in dem man die Realisierung einer Schätzfunktion mit hoher Wahrscheinlichkeit findet. Die Anzahl n_\text{up} Poisson-verteilter Ereignisse, die mit vorgegebener Wahrscheinlichkeit p<1 nicht überschritten wird, lässt sich aus der Inversion der Verteilungsfunktion berechnen:

n_\text{up} = F_{\lambda}^{-1}(p).

Dabei lässt sich wieder F_{\lambda}(n)=p durch die regularisierte Gammafunktion Q(n+1,\lambda)=p ausdrücken. Eine elementare Form der Inversion der Verteilungsfunktion F_{\lambda} oder der Gammafunktion ist nicht bekannt. Gute Dienste leistet in diesem Fall eine zweispaltige {\displaystyle (n,F_{\lambda }(n)=p)} Wertetabelle, die leicht mit der oben im Abschnitt Verteilungsfunktion angegebenen Summe berechenbar ist und zeigt, welche Wahrscheinlichkeiten bestimmten Werten von n zugeordnet sind.

Beziehung zu anderen Verteilungen

Beziehung zur Binomialverteilung

Hauptartikel: Poisson-Approximation

Ebenso wie die Binomialverteilung sagt die Poisson-Verteilung das zu erwartende Ergebnis einer Serie von Bernoulli-Experimenten voraus. Letzteres sind Zufallsexperimente, die nur zwei mögliche Ergebnisse kennen (zum Beispiel „Erfolg“ und „Misserfolg“), also einen dichotomen Ereignisraum besitzen. Wird das zeitliche oder räumliche Beobachtungsintervall immer weiter unterteilt, erhöht sich damit die Zahl der Versuche( n \to \infty ). Die fortschreitende Unterteilung bedingt eine Abnahme der Erfolgswahrscheinlichkeit ( p \to 0 ) derart, dass das Produkt n \cdot p gegen einen endlichen Grenzwert \lambda konvergiert. Dementsprechend nähert sich die binomiale Wahrscheinlichkeitsverteilung der mathematisch etwas einfacheren Poisson-Verteilung an.

Die Poisson-Verteilung lässt sich aus der Binomialverteilung herleiten. Sie ist die Grenzverteilung der Binomialverteilung bei sehr kleinen Anteilen der interessierenden Merkmale und sehr großem Stichprobenumfang: n\rightarrow \infty und p\rightarrow 0 unter der Nebenbedingung, dass das Produkt np=\lambda einen Wert annimmt, der weder null noch unendlich ist. \lambda ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poisson-Verteilung der Erwartungswert.

Sowohl die Poisson-Verteilung, als auch die Binomialverteilung sind Spezialfälle der Panjer-Verteilung.

Beziehung zur verallgemeinerten Binomialverteilung

Auch die verallgemeinerte Binomialverteilung kann für große Stichproben und kleine Erfolgswahrscheinlichkeiten mittels der Poisson-Approximation angenähert werden.

Beziehung zur Normalverteilung

Die Poisson-Wahrscheinlichkeiten für λ = 30 werden durch eine Normalverteilungsdichte angenähert

Die Poisson-Verteilung P_{\lambda} hat für kleine Werte von \lambda eine stark asymmetrische Gestalt. Für größer werdendes \lambda wird P_{\lambda} symmetrischer und ähnelt ab etwa \lambda =30 einer gaußschen Normalverteilung mit \mu=\lambda und \sigma^2=\lambda:

P_{\lambda}(k) \approx \frac {1}{\sqrt{2\pi\lambda}}\exp\left(-\frac{(k-\lambda)^2}{2\lambda}\right).

Beziehung zur Erlang-Verteilung

F_{\text{Erlang}}(n+1) + F_{\text{Poisson}}(n) = 1.

Beziehung zur Chi-Quadrat-Verteilung

Die Verteilungsfunktionen der Poisson-Verteilung F_{\lambda} und der Chi-Quadrat-Verteilung mit m Freiheitsgraden F_m hängen auf folgende Weise zusammen:

Die Wahrscheinlichkeit, n oder mehr Ereignisse in einem Intervall zu finden, innerhalb dessen man im Mittel \lambda Ereignisse erwartet, ist gleich der Wahrscheinlichkeit, dass der Wert von \chi_{2n}^2\leq 2\lambda ist. Es gilt also

1-F_{\lambda}(n-1)=F_{2n}(2\lambda).

Dies folgt aus 1 - Q(n, \lambda ) = P(n, \lambda ) mit P und Q als regularisierte Gammafunktionen.

Beziehung zur Skellam-Verteilung

Dagegen ist die Differenz X_{1}-X_{2} zweier stochastisch unabhängiger Poisson-verteilter Zufallsvariablen X_{1} und X_{2} mit den Parametern \lambda_1 und \lambda_2 nicht wieder Poisson-verteilt, sondern Skellam-verteilt. Es gilt:

P_{{\lambda _{1},\lambda _{2}}}(X_{1}-X_{2}=k)=e^{{-(\lambda _{1}+\lambda _{2})}}\left({\frac  {\lambda _{1}}{\lambda _{2}}}\right)^{{k/2}}I_{{k}}(2{\sqrt  {\lambda _{1}\lambda _{2}}}),

wobei I_{k}(z) die modifizierte Bessel-Funktion bezeichnet.

Weitere Poisson-Verteilungen

Einige weitere Verteilungen tragen teilweise den Namen „Poisson“ und sind Verallgemeinerungen der hier beschriebenen Poisson-Verteilung:

Freie Poisson-Verteilung

In der freien Wahrscheinlichkeitstheorie gibt es ein freies Analogon zur Poisson-Verteilung, die freie Poisson-Verteilung. Sie wird in Analogie zu einem entsprechenden Grenzwertsatz für die Poisson-Verteilung als der Grenzwert der iterierten freien Faltung {\displaystyle \left(\left(1-{\frac {\lambda }{N}}\right)\delta _{0}+{\frac {\lambda }{N}}\delta _{\alpha }\right)^{\boxplus N}} für N \to \infty definiert.

Bivariate Poisson-Verteilung

Die bivariate Poisson-Verteilung wird definiert durch


P(X_1=k_1,X_2=k_2)
=  \exp\left(-\lambda_1-\lambda_2-\lambda_3\right) \frac{\lambda_1^{k_1}}{k_1!} \frac{\lambda_2^{k_2}}{k_2!} \sum_{k=0}^{\min(k_1,k_2)} \binom{k_1}{k} \binom{k_2}{k} k! \left( \frac{\lambda_3}{\lambda_1\lambda_2}\right)^k

Die Randverteilungen sind Poisson-verteilt mit den Parametern \lambda_1 und \lambda_2 und es gilt \operatorname {Cov}(X_{1},X_{2})=\lambda _{3}. Die Differenz ist Skellam-verteilt mit den Parametern \lambda_1 und \lambda_2.

Dies bedeutet, dass man relativ einfach Abhängigkeiten zwischen Poisson-verteilten Zufallsvariablen einführen kann, wenn man die Mittelwerte der Randverteilungen sowie die Kovarianz kennt oder schätzen kann. Man kann dann die bivariate Poisson-Verteilung X_{1},X_{2} einfach erzeugen, indem man drei unabhängige Poisson-verteilte Zufallsvariablen Y_{1},Y_{2},Y_{3} definiert mit Parametern \lambda _{1},\lambda _{2},\lambda _{3} und dann X_{1}=Y_{1}+Y_{3},X_{2}=Y_{2}+Y_{3} setzt.

Analog kann die multivariate Poisson-Verteilung definiert werden.

Anwendungsbeispiele

„Seltene“ Ereignisse

Das klassische Beispiel stammt von Ladislaus von Bortkewitsch, der bei der Untersuchung der Anzahlen der Todesfälle durch Hufschlag in den einzelnen Kavallerie-Einheiten der preußischen Armee pro Jahr belegen konnte, dass diese Anzahlen gut durch eine Poisson-Verteilung beschrieben werden können.

Allgemein müssen für die einzelnen Zählereignisse (im Beispiel die einzelnen Todesfälle durch Hufschläge) die folgenden Bedingungen gelten, damit die Anzahl Poisson-verteilt ist:

  1. Einzelereignisse: Die Wahrscheinlichkeit, dass zwei Ereignisse in einem kurzen Zeitraum auftreten, ist vernachlässigbar.
  2. Proportionalität: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist proportional zur Länge des Zeitraums.
  3. Homogenität: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist unabhängig von der Lage des Zeitraums.
  4. Unabhängigkeit: Die Wahrscheinlichkeit, ein Ereignis in einem kurzen Zeitraum zu beobachten, ist unabhängig von der Wahrscheinlichkeit eines Ereignisses in anderen nicht-überlappenden Zeiträumen.

Alternativ kann man diese Bedingungen auch damit erklären, dass die Wartezeit zwischen zwei Ereignissen exponentialverteilt ist. Da diese gedächtnislos ist, treten die Ereignisse quasi zufällig und unabhängig voneinander ein.

Es ist in jedem Einzelfall zu prüfen, ob die Bedingungen vorliegen, aber typische Beispiele sind:

Nach dem Satz von Palm-Chintschin konvergieren sogar allgemeine Erneuerungsprozesse unter relativ milden Bedingungen gegen einen Poisson-Prozess, d.h., auch hier ergibt sich für die Anzahl der Ereignisse wieder die Poisson-Verteilung. Das bedeutet, dass die oben angegebenen Bedingungen noch erheblich abgeschwächt werden können.

Ankünfte von Kunden

In Warteschlangensystemen kommen Kunden oder Aufträge im System an, um bedient zu werden. In der Warteschlangentheorie werden die unterschiedlichen Modelle in der Kendall-Notation beschrieben. Dabei werden häufig insb. die Anzahl der Kunden, die in einem gewissen Zeitintervall ankommen, mit einer Poisson-Verteilung modelliert (abgekürzt durch M für exponentialverteilte Zwischenankunftszeiten). Diese Modellbildung ist sehr attraktiv, da sich unter dieser Annahme oft einfache analytische Lösungen ergeben.

Häufig kann diese Annahme auch näherungsweise gerechtfertigt werden, hier soll an einem Beispiel illustriert werden, was diese Annahme bedeutet: Ein Kaufhaus wird beispielsweise an einem Samstag durchschnittlich alle 10 Sekunden von einem Kunden betreten. Werden nun im Takt von einer Minute die Personen gezählt, die neu dazu kamen, so würde man im Mittel 6 Personen erwarten, die das Kaufhaus pro Minute betreten. Die Wahl der Länge des Intervalls liegt beim Beobachter. Würde man eine Stunde als Beobachtungsintervall wählen, ergäbe sich \lambda = 6 \cdot 60 = 360, bei einem Intervall von 1 Sekunde wäre \lambda =1/10=0{,}1. Die relative Schwankung der Kundenanzahl (\sqrt{\lambda} /  \lambda) nimmt mit größer werdendem Intervall und folglich größer werdendem \lambda ab. Das längere Intervall erlaubt also über die längere Mittelung eine im Prinzip präzisere Beobachtung, ist aber mit mehr Aufwand verbunden und kann innerhalb des Intervalls auftretende Veränderung der Bedingungen (z.B. Ankunft eines Busses mit einkaufswilligen Touristen) nicht erfassen.

Unter folgenden Randbedingungen könnte eine Poissonverteilung vorliegen:

  1. Die Kunden müssen einzeln ankommen. In der Realität kommen aber häufig Personengruppen gemeinsam an.
  2. Die Wahrscheinlichkeit, dass ein Kunde ankommt, könnte proportional zur Länge des Beobachtungszeitraums sein.
  3. Es gibt sicherlich über den Tag verteilt Stoßzeiten mit erhöhtem Kundenaufkommen, und Flauten.
  4. Die Kundenankünfte in verschiedenen Zeiträumen sind nicht notwendigerweise unabhängig. Z.B. bei Überfüllung des Kaufhauses könnten Kunden abgeschreckt werden.

In diesem Beispiel ist die Annahme der Poisson-Verteilung nur schwer zu rechtfertigen, daher gibt es Warteschlangenmodelle z.B. mit Gruppenankünften, endlichen Warteschlangen oder anderen Ankunftsverteilungen, um diesen Ankunftsprozess realistischer zu modellieren. Glücklicherweise sind einige wichtige Kennzahlen, wie z.B. nach Littles Gesetz die durchschnittliche Anzahl von Kunden im System, nicht von der konkreten Verteilung abhängig, d.h., auch wenn Annahmen verletzt sind, gilt dasselbe Ergebnis.

Ball-Fächer-Modell

Im Gebiet Abzählende Kombinatorik besteht eine Standard-Aufgabe darin, Bälle oder Kugeln auf Fächer zu verteilen und abzuzählen, wie viele Möglichkeiten es gibt. Ordnet man die N Bälle den n Fächern zufällig zu, so erhält man für die Anzahl der Bälle in einem festen Fach eine Binomialverteilung mit p=1/n. Eine Anwendung ist z.B. die Verteilung von Rosinen auf einem Kuchen, mit dem Ziel, dass jedes Stück eine Mindestanzahl von Rosinen enthält.

Zufällig auf dem Boden verstreute Reiskörner.

Das Bild rechts zeigt einen Ausschnitt eines Fußbodens mit quadratischen Fliesen, auf dem Reiskörner zufällig verstreut wurden. Die n=49 Felder enthalten je k=0,\dotsc,5 Reiskörner und insgesamt befinden sich N=66 Reiskörner im betrachteten Ausschnitt. Man kann die Wahrscheinlichkeiten jetzt direkt über die Binomialverteilung bestimmen, aber es sind auch die Voraussetzungen der Poisson-Approximation erfüllt.

Der Vergleich zwischen Experiment und berechneter Poisson-Verteilung P(X=k), wobei \lambda = N/n = 66/49 = 1{,}35 Reiskörner/Quadrate ist, zeigt intuitiv eine gute Übereinstimmung. Statistisch könnte man die Güte mit einem Anpassungstest überprüfen.

Verteilung des Beispiels, gezählt (blau) und nach Poisson (rot)
k gezählt P(X=k)\cdot49

0

15

12,7

1

15

17,2

2

11

11,6

3

5

5,2

4

1

1,7

5

2

0,5

Die Wahrscheinlichkeit, dass ein bestimmtes Feld leer bleibt, ist etwa 26 %:

P(X=0)=\frac{1{,}35^0}{0!}\,\mathrm{e}^{-1{,}35} \approx 0{,}26.

Sportergebnisse

In vielen Sportarten geht es in einem Wettbewerb darum, innerhalb eines bestimmten Zeitraums mehr zählende Ereignisse zu erwirken als der Gegner. Der Physiker Metin Tolan hat in seinem Buch zum Fußballspiel die Anwendbarkeit der Poisson-Verteilung im Sport ausführlich untersucht.

Die (zeitliche) Konstanz der Ereigniswahrscheinlichkeit – eine hinreichende Voraussetzung für die Anwendung der Poisson-Statistik (siehe oben unter Poissonsche Annahmen) – ist bei Sportergebnissen in der Regel höchstens näherungsweise gegeben. Aber ist man nur an dem reinen Zählwert, z.B. der Torzahl einer Mannschaft, interessiert, so ergibt sich auch bei zeitabhängiger Torrate eine Poisson-Verteilung. Schwieriger zu rechtfertigen ist die oft getroffene Annahme, dass die Tor- oder Punktzahlen zweier Mannschaften unabhängig sind. Kann man diese Annahme nicht statistisch ausreichend begründen, z.B. durch Hypothesen- oder Anpassungstest auf Übereinstimmung der Daten mit der Poisson-Verteilung, so kann man beispielsweise zur bivariaten Poisson-Verteilung übergehen und durch Schätzung der Kovarianz eine Abhängigkeit einführen.

Metin Tolan begründet, dass man die Torzahl einer Mannschaft in einem Fußballspiel in guter Näherung als Poisson-verteilt annehmen darf. In seinem Ansatz berücksichtigt er zur Schätzung allerdings nur die durchschnittliche Anzahl von Toren pro Spiel und Mannschaft, d.h., er betrachtet beispielsweise nicht die Spielstärke der gegnerischen Mannschaft. Er hat auch nachgewiesen, dass über 70 % der Varianz der Punkteverteilung in der Fußball-Bundesliga durch Zufall erklärt werden können. Dies belegt auch aus stochastischer Sicht, warum Fußball spannend ist.

Für das Pokalendspiel 2015 hätte Tolan z.B. auf Grundlage der abgelaufenen Bundesliga-Saison für den VfL Wolfsburg 2,12 Tore und für Borussia Dortmund 1,38 Tore geschätzt. Andreas Heuer geht einen Schritt weiter und definiert die Spielstärke einer Mannschaft als die mittlere Tordifferenz einer Mannschaft beim Spiel gegen einen durchschnittlichen Gegner auf neutralem Platz. Ebenfalls mit den Daten aus der abgelaufenen Bundesliga-Saison hätte man für den VfL Wolfsburg eine mittlere Tordifferenz von 1 und für Borussia Dortmund von 0,15 geschätzt. Um zu einer Spielprognose zu kommen, muss man nach Heuer noch die mittlere Anzahl der Tore pro Spiel berücksichtigen. Für diese beiden Mannschaften wäre das 2,92 und Heuer würde für den VfL Wolfsburg 1,885 Tore und für Borussia Dortmund 1,035 Tore schätzen. Für Saisonprognosen berücksichtigt Heuer in seinem kompletten Modell noch weitere Parameter wie die Heimstärke, den Marktwert oder das Abschneiden der Mannschaften in den Vorsaisons. Das Endspiel endete in der Praxis dann mit 3 Toren für Wolfsburg und einem Tor für Dortmund.

2/3-Gesetz beim Roulette

Die Poisson-Verteilung ergibt eine gute Schätzung, wie viele verschiedene Nummern bei 37 Roulette-Spielen getroffen werden.

Trenner
Basierend auf einem Artikel in Wikipedia.de
 
Seitenende
Seite zurück
©  biancahoegel.de; 
Datum der letzten Änderung:  Jena, den: 03.02. 2022