Momenterzeugende Funktion

Die momenterzeugende Funktion ist eine Funktion, die in der Wahrscheinlichkeitstheorie einer Zufallsvariablen zugeordnet wird. In vielen Fällen ist diese Funktion in einer Umgebung des Nullpunktes in den reellen bzw. komplexen Zahlen definiert und kann dann mittels Ableitung zur Berechnung der Momente der Zufallsvariablen verwendet werden, woraus sich ihr Name erklärt.

Definition

Die momenterzeugende Funktion einer Zufallsvariablen X ist definiert durch

M_X(t):=E\left(e^{tX}\right),

wobei für t reelle bzw. komplexe Zahlen eingesetzt werden können, sofern der Erwartungswert auf der rechten Seite existiert. Dieser Ausdruck ist mindestens für t=0 definiert. In vielen Fällen, siehe unten, ist diese Funktion in einer Umgebung der 0 definiert, und kann dann wie folgt in eine Potenzreihe entwickelt werden.

M_X(t)=E\left(\sum_{n=0}^{\infty}\frac{(tX)^n}{n!}\right)=\sum_{n=0}^{\infty}\frac{t^n}{n!}E(X^n)=\sum_{n=0}^{\infty}\frac{t^n}{n!}m_X^n.

Dabei gilt 0^0 := 1 und die m_X^n=E(X^n) sind die Momente von X.

Die momenterzeugende Funktion hängt nur von der Verteilung von X ab. Wenn die momenterzeugende Funktion einer Verteilung in einer Umgebung von 0 existiert, so sagt man, etwas unpräzise aber allgemein gebräuchlich, die Verteilung habe eine momenterzeugende Funktion. Existiert M_X(t) nur für t=0, so sagt man entsprechend, dass die Verteilung keine momenterzeugende Funktion habe.

Stetige Wahrscheinlichkeitsverteilungen

Falls X eine stetige Wahrscheinlichkeitsdichte f hat, kann man obigen Erwartungswert mittels dieser Dichte schreiben und erhält für die momenterzeugende Funktion

M_X(t) = \int_{-\infty}^\infty e^{tx} f(x)\,\mathrm{d}x
 = \int_{-\infty}^\infty \left( 1+ tx + \frac{t^2}{2!}x^2 + \dotsb\right) f(x)\,\mathrm{d}x
 = 1 + t m_X^1 + \frac{t^2}{2!}m_X^2 +\dotsb

gegeben, wobei m_X^k das k-te Moment von X ist. Der Ausdruck M_X\left(-t\right) ist also gerade die zweiseitige Laplacetransformation des durch X festgelegten Wahrscheinlichkeitsmaßes.

Bemerkungen

Ursprung des Begriffs der momenterzeugenden Funktion

Die Bezeichnung momenterzeugend bezieht sich darauf, dass die k-te Ableitung von M_X im Punkt 0 (Null) gleich dem k-ten Moment der Zufallsvariablen X ist:

\frac{\mathrm{d}^k}{\mathrm{d} t^k} M_X(t)\biggr\vert_{t=0} = E(X^k) = m_X^k.

Das liest man direkt an der oben angegebenen Potenzreihe ab. Durch die Angabe aller nicht verschwindenden Momente ist jede Wahrscheinlichkeitsverteilung vollständig festgelegt, falls die momenterzeugende Funktion auf einem offenen Intervall (-\varepsilon ,\varepsilon ) existiert (\varepsilon > 0).

Zusammenhang mit der charakteristischen Funktion

Die momenterzeugende Funktion steht in engem Zusammenhang mit der charakteristischen Funktion \varphi _{X}(t)=E\left(e^{{{\mathrm  {i}}tX}}\right). Es gilt \varphi _{X}(t)=M_{{iX}}(t)=M_{X}({\mathrm  {i}}t), falls die momenterzeugende Funktion existiert. Im Gegensatz zur momenterzeugenden Funktion existiert die charakteristische Funktion für beliebige Zufallsvariablen.

Zusammenhang mit der wahrscheinlichkeitserzeugenden Funktion

Des Weiteren besteht noch ein Zusammenhang zur wahrscheinlichkeitserzeugenden Funktion. Diese ist jedoch nur für  \mathbb{N}_0 -wertige Zufallsvariablen definiert und zwar als m_{X}(t)=\operatorname {E}(t^{X}). Damit gilt m_{X}(e^{t})=M_{X}(t) für diskrete Zufallsvariablen.

Zusammenhang mit der kumulantenerzeugenden Funktion

Die kumulantenerzeugende Funktion wird als natürlicher Logarithmus der momenterzeugenden Funktion definiert. Aus ihr wird der Begriff der Kumulante abgeleitet.

Summen unabhängiger Zufallsvariablen

Die momenterzeugende Funktion einer Summe unabhängiger Zufallsvariablen ist das Produkt ihrer momenterzeugenden Funktionen: Sind X_1, \dotsc, X_n unabhängig, dann gilt für Y = X_1 + \dotsb + X_n

M_Y(t) = E(e^{tY}) = E(e^{tX_1+ \ldots + tX_n}) = E(e^{tX_1}\cdots e^{tX_n}) = E(e^{tX_1})\cdots E(e^{tX_n}) = M_{X_1}(t) \cdots M_{X_n}(t),

wobei beim vorletzten Gleichheitszeichen verwendet wurde, dass der Erwartungswert eines Produktes unabhängiger Zufallsvariablen gleich dem Produkt ihrer Erwartungswerte ist.

Eindeutigkeitseigenschaft

Ist die momenterzeugende Funktion einer Zufallsgröße X in einer Umgebung von {\displaystyle 0} endlich, so bestimmt sie die Verteilung von X eindeutig. Formal bedeutet das:

Seien X und Y zwei Zufallsgrößen mit momenterzeugenden Funktionen M_X und M_Y derart, dass es ein \varepsilon >0 gibt mit M_X (s), M_Y (s) < \infty für alle s \in (-\varepsilon,\varepsilon). Dann gilt P_X = P_Y genau dann, wenn M_X(s) = M_Y(s) für alle s \in (-\varepsilon,\varepsilon) gilt.

Beispiele

Für viele Verteilungen kann man die momenterzeugende Funktion direkt angeben:

Verteilung Momenterzeugende Funktion MX(t)
Bernoulli-Verteilung \mathrm{B}(p) M_X(t) = 1-p+pe^t
Betaverteilung \mathrm{B}(a,b,p,q) M_X(t) = 1+\sum_{n=1}^{\infty} \left( \prod_{k=0}^{n-1} \frac{a+k}{a+b+k} \right) \frac{t^n}{n!}
Binomialverteilung {\displaystyle \mathrm {B} (p,n)} M_X(t) = (1-p+pe^t)^n
Cauchy-Verteilung Die Cauchy-Verteilung hat keine momenterzeugende Funktion.
Chi-Quadrat-Verteilung \chi_n^2 M_X(t) = \frac{1}{(1-2 t)^{n/2}}
Erlang-Verteilung \mathrm{Erlang}(\lambda,n) M_X(t) = \left(\frac{\lambda}{\lambda-t}\right)^n für t < \lambda
Exponentialverteilung \mathrm{Exp}(\lambda) M_X(t) = \frac{\lambda}{\lambda-t} für t < \lambda
Gammaverteilung \gamma(p,b) M_X(t) = \left(\frac{b}{b-t}\right)^p
Geometrische Verteilung mit Parameter p M_X(t) = \frac{pe^t}{1-(1-p)e^t}
Gleichverteilung über [0,a] M_X(t) = \frac{e^{ta}-1}{ta}
Laplace-Verteilung mit Parametern \mu, \sigma M_X(t) = \frac{e^{\mu t}}{1-\sigma^2 t^2}
Negative Binomialverteilung \mathrm{NB}(r,p) M_{X}(t) = \left(\frac{p e^{t}}{1-(1-p) e^{t}}\right)^{r} für t<|\ln(1-p)|
Normalverteilung \mathrm{N}(\mu,\sigma^2) M_X(t) = \exp{\left(\mu t+\frac{\sigma^2 t^2}{2}\right)}
Poisson-Verteilung mit Parameter \lambda M_X(t) = \exp(\lambda(e^t-1))

Verallgemeinerung auf mehrdimensionale Zufallsvariablen

Die momenterzeugende Funktion lässt sich auf \ell -dimensionale reelle Zufallsvektoren \mathbf{X} = (X_1, \dotsc , X_\ell) wie folgt erweitern:

M_{{{\mathbf  {X}}}}(t)=M_{{{\mathbf  {X}}}}(t_{1},\dots ,t_{l})=\operatorname {E}(e^{{\langle t,{\mathbf  {X}}\rangle }})=\operatorname {E}\left(\prod _{{j=1}}^{\ell }e^{{t_{j}X_{j}}}\right),

wobei \langle t,{\mathbf  {X}}\rangle =\sum \limits _{{j=1}}^{{\ell }}t_{j}X_{j} das Standardskalarprodukt bezeichnet.

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 03.02. 2022