Website durchsuchen

Charakteristische Funktion (Stochastik)

Als charakteristische Funktion bezeichnet man in der Wahrscheinlichkeitstheorie eine spezielle komplexwertige Funktion, die einem endlichen Maß oder spezieller einem Wahrscheinlichkeitsmaß auf den reellen Zahlen beziehungsweise der Verteilung einer Zufallsvariable zugeordnet wird. Dabei wird das endliche Maß eindeutig durch seine charakteristische Funktion bestimmt und umgekehrt, die Zuordnung ist also bijektiv.

Wesentlicher Nutzen von charakteristischen Funktionen liegt darin, dass viele schwerer greifbaren Eigenschaften des endlichen Maßes sich als Eigenschaft der charakteristischen Funktion wiederfinden und dort als Eigenschaft einer Funktion leichter zugänglich sind. So reduziert sich beispielsweise die Faltung von Wahrscheinlichkeitsmaßen auf die Multiplikation der entsprechenden charakteristischen Funktionen.

Definition

Gegeben sei ein endliches Maß \mu auf (\mathbb{R} ,{\mathcal  B}(\mathbb{R} )). Dann heißt die komplexwertige Funktion

{\displaystyle \varphi _{\mu }\colon \mathbb {R} \to \mathbb {C} }

definiert durch

{\displaystyle \varphi _{\mu }(t):=\int _{\mathbb {R} }\exp(\mathrm {i} tx)\mathrm {d} \mu (x)}

die charakteristische Funktion von \mu . Ist {\displaystyle \mu =P} ein Wahrscheinlichkeitsmaß, so folgt die Definition analog. Ist speziell eine Zufallsvariable X mit Verteilung P_{X} gegeben, so ist die charakteristische Funktion gegeben durch

{\displaystyle \varphi _{X}(t)=\operatorname {E} (\exp(\mathrm {i} tX))}.

Damit ergeben sich als wichtige Sonderfälle:

{\displaystyle \varphi _{X}(t)=\int _{-\infty }^{\infty }f_{X}(x)\exp(\mathrm {i} tx)\,\mathrm {d} x}.
{\displaystyle \varphi _{X}(t)=\sum _{k=1}^{\infty }\exp(\mathrm {i} tx_{k})p_{X}(x_{k})}.

Elementare Beispiele

Ist X Poisson-verteilt, so besitzt P_{X} die Wahrscheinlichkeitsfunktion

{\displaystyle p_{\lambda }(k)={\frac {\lambda ^{k}}{k!}}\,\mathrm {e} ^{-\lambda }\quad {\text{für}}\quad k\in \mathbb {N} }.

Mit der oben aufgeführten Darstellung für die charakteristische Funktion mittels Wahrscheinlichkeitsfunktionen ergibt sich dann

{\displaystyle \varphi _{X}(t)=\sum _{k=0}^{\infty }\exp(\mathrm {i} tk){\frac {\lambda ^{k}}{k!}}\,\mathrm {e} ^{-\lambda }=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\left(\lambda e^{it}\right)^{k}}{k!}}=\mathrm {e} ^{\lambda (e^{it}-1)}}

Ist Y exponentialverteilt zum Parameter  \lambda , so besitzt {\displaystyle P_{Y}} die Wahrscheinlichkeitsdichtefunktion

{\displaystyle f_{\lambda }(x)={\begin{cases}\displaystyle \lambda \mathrm {e} ^{-\lambda x}&x\geq 0\\0&x<0\end{cases}}}

Damit ergibt sich

{\displaystyle \varphi _{Y}(t)=\int _{0}^{\infty }e^{\mathrm {i} tx}\lambda \mathrm {e} ^{-\lambda x}\mathrm {d} x=\lambda \int _{0}^{\infty }e^{x(\mathrm {i} t-\lambda )}\mathrm {d} x={\frac {\lambda }{\lambda -\mathrm {i} t}}}

Weitere Beispiele für Charakteristische Funktionen sind weiter unten im Artikel tabelliert oder befinden sich direkt im Artikel über die entsprechenden Wahrscheinlichkeitsverteilungen.

Eigenschaften als Funktion

Die charakteristische Funktion einer Zufallsvariablen, die auf (–1,1) stetig gleichverteilt ist. Im Allgemeinen sind charakteristische Funktionen jedoch nicht reell-wertig.

Existenz

Die charakteristische Funktion existiert für beliebige endliche Maße und somit auch Wahrscheinlichkeitsmaße bzw. Verteilungen von Zufallsvariablen, da wegen

{\displaystyle \left|e^{\mathrm {i} tx}\right|=1}

das Integral stets existiert.

Beschränktheit

Jede charakteristische Funktion ist immer beschränkt, es gilt

{\displaystyle \left|\varphi _{X}(t)\right|\leq \varphi _{X}(0)=1}.

Symmetrie

Die charakteristische Funktion {\displaystyle \varphi _{X}} ist genau dann reellwertig, wenn die Zufallsvariable X symmetrisch ist.

Des Weiteren ist {\displaystyle \varphi _{X}} stets hermitesch, das heißt es gilt

\varphi_X(-t) = \overline{\varphi_X(t)}.

Gleichmäßige Stetigkeit

\varphi_X ist eine gleichmäßig stetige Funktion.

Charakterisierung

Interessant ist insbesondere, wann eine Funktion {\displaystyle f\colon \mathbb {R} \to \mathbb {C} } die charakteristische Funktion eines Wahrscheinlichkeitsmaßes ist. Eine hinreichende Bedingung liefert der Satz von Pólya (nach George Pólya): Ist eine Funktion

{\displaystyle f\colon \mathbb {R} \to [0,1]}

und gilt außerdem {\displaystyle f(0)=1}, so ist sie die charakteristische Funktion eines Wahrscheinlichkeitsmaßes.

Eine notwendige und hinreichende Bedingung liefert der Satz von Bochner (nach Salomon Bochner):

Eine stetige Funktion

{\displaystyle f\colon \mathbb {R} \to \mathbb {C} }

ist genau dann die charakteristische Funktion eines Wahrscheinlichkeitsmaßes, wenn f eine positiv semidefinite Funktion ist und {\displaystyle f(0)=1} gilt.

Weitere Eigenschaften

Lineare Transformation

\varphi_{aX+b}(t)=e^{\mathrm{i}tb}\varphi_X(at)   für alle reellen a,b\in\R\,.

Umkehrbarkeit

Ist \varphi_X integrierbar, dann lässt sich die Wahrscheinlichkeitsdichte von X rekonstruieren als

f_{X}(x) = \frac{1}{2\pi}\int\limits_{-\infty}^\infty e^{-\mathrm{i}tx}\varphi_{X}(t)\,\mathrm{d}t\,.

Momenterzeugung

\operatorname{E}(X^k)=\frac{\varphi_X^{(k)}(0)}{\mathrm{i}^{k}}   für alle natürlichen k\in\N, falls \operatorname{E}(|X|^k)<\infty.

Insbesondere ergeben sich die Spezialfälle

\operatorname{E}(X)=\frac{\varphi_X'(0)}{\mathrm i}\,,
\operatorname{E}(X^2)=-\varphi_X''(0)\,.

Wenn für eine natürliche Zahl n\in \mathbb {N} der Erwartungswert \operatorname{E}(|X|^n) endlich ist, dann ist \varphi_X n-mal stetig differenzierbar und in eine Taylor-Reihe um {\displaystyle 0} entwickelbar:

\varphi_X(t) = \sum\limits_{k=0}^n\frac{\varphi_X^{(k)}(0)}{k!}t^k+R_{n+1}(t) = \sum\limits_{k=0}^n\frac{(\mathrm{i}t)^k}{k!}\operatorname{E}(X^k)+R_{n+1}(t)\,.

Ein wichtiger Spezialfall ist die Entwicklung einer Zufallsvariablen X mit \operatorname{E}(X)=0 und \operatorname{Var}(X)=1:

{\displaystyle \varphi _{X}(t)=1-{\frac {1}{2}}t^{2}+R_{3}(t)\quad {\text{mit}}\quad \lim \limits _{t\rightarrow 0}{\frac {R_{3}(t)}{t^{2}}}=0\,.}

Faltungsformel für Dichten

Bei unabhängigen Zufallsvariablen X_{1} und X_{2} gilt für die charakteristische Funktion der Summe Y=X_1+X_2

\varphi_{Y}(t)=\varphi_{X_{1}}(t)\,\varphi_{X_{2}}(t)\,,

denn wegen der Unabhängigkeit gilt

\varphi_{Y}(t) = \operatorname{E}\left(e^{\mathrm{i}t(X_1 + X_2)}\right) = \operatorname{E}\left(e^{\mathrm{i}tX_1} e^{\mathrm{i}tX_2}\right) = \operatorname{E}\left(e^{\mathrm{i}tX_1}\right) \operatorname{E}\left(e^{\mathrm{i}tX_2}\right) = \varphi_{X_{1}}(t)\,\varphi_{X_{2}}(t)\,.

Charakteristische Funktion von zufälligen Summen

Sind (X_{i})_{{i\in {\mathbb  {N}}}} unabhängig identisch verteilte Zufallsvariablen und  N eine {\mathbb  {N}}_{0}-wertige Zufallsvariable, die von allen X_{i} unabhängig ist, so lässt sich die charakteristische Funktion der Zufallsvariable

S:=\sum _{{i=1}}^{N}X_{i}

als Verkettung der wahrscheinlichkeitserzeugenden Funktion m_{N}(t) von  N und der charakteristischen Funktion von X_{1} darstellen:

\varphi _{{S}}(t)=m_{N}(\varphi _{{X_{1}}}(t)).

Eindeutigkeitssatz

Es gilt der folgende Eindeutigkeitssatz: Wenn X, Y Zufallsvariablen sind und \varphi_X(t)=\varphi_Y(t) für alle t\in\R gilt, dann ist X\overset{d}{=}Y, d.h. X und Y haben die gleiche Verteilungsfunktion. Folglich kann damit die Faltung einiger Verteilungen leicht bestimmt werden.

Aus dem Eindeutigkeitssatz lässt sich der Stetigkeitssatz von Lévy folgern: Wenn (X_n)_{n\in\N} eine Folge von Zufallsvariablen ist, dann gilt X_n\stackrel{d}{\rightarrow}X (Konvergenz in Verteilung) genau dann, wenn \lim\limits_{n\rightarrow\infty}\varphi_{X_n}(t)=\varphi_X(t) für alle t\in\R gilt. Diese Eigenschaft kann bei zentralen Grenzwertsätzen ausgenutzt werden.

Beispiele

Verteilung Charakteristische Funktion \varphi _{X}(t)
Diskrete Verteilungen
Binomialverteilung {\displaystyle X\sim \operatorname {Bin} (n,p)} \varphi_X(t)=\left(pe^{\mathrm{i}t}+1-p\right)^n
Poisson-Verteilung {\displaystyle X\sim \operatorname {Poi} (\lambda )} \varphi_X(t)=e^{\lambda\left(e^{\mathrm{i}t}-1\right)}
Negative Binomialverteilung {\displaystyle X\sim \operatorname {NegBin} (r,p)} \varphi_X(t)= \left(\frac{1-pe^{\mathrm{i}t}}{1-p}\right)^{-r}
Absolutstetige Verteilungen
X\sim N(0,1) standardnormalverteilt \varphi_X(t)=e^{-\frac{t^2}{2}}
X\sim N(\mu,\sigma^2) normalverteilt \varphi_X(t)=e^{\mathrm{i}t\mu}e^{-\frac{\sigma^2t^2}{2}}
X\sim U(a,b) gleichverteilt \varphi_X(t)= \frac{e^{\mathrm{i}bt}-e^{\mathrm{i}at}}{\mathrm{i}(b-a)t}
X\sim \;C(0,1) Standard-Cauchy-verteilt \varphi_X(t)=e^{-|t|}
X\sim \;G(p,b) gammaverteilt \varphi_X(t)=\left(\frac{b}{b-\mathrm{i}t}\right)^p

Allgemeinere Definitionen

Definition für mehrdimensionale Zufallsvariablen

Die charakteristische Funktion lässt sich auf \ell -dimensionale reelle Zufallsvektoren \mathbf{X} = (X_1, \dotsc , X_\ell) wie folgt erweitern:

\varphi _{{{\mathbf  {X}}}}(t)=\varphi _{{{\mathbf  {X}}}}(t_{1},\dots ,t_{l})=\operatorname {E}(e^{{i\langle t,{\mathbf  {X}}\rangle }})=\operatorname {E}\left(\prod _{{j=1}}^{\ell }e^{{it_{j}X_{j}}}\right),

wobei \langle t,{\mathbf  {X}}\rangle =\sum \limits _{{j=1}}^{{\ell }}t_{j}X_{j} das Standardskalarprodukt bezeichnet.

Für zufällige Maße

Die charakteristische Funktion lässt sich auch für zufällige Maße definieren. Sie ist dann jedoch ein Funktional, ihre Argumente sind also Funktionen. Ist X ein zufälliges Maß, so ist die charakteristische Funktion gegeben als

{\displaystyle \varphi _{X}(f)=\operatorname {E} \left(\exp \left(i\int f\mathrm {d} X\right)\right)}

für alle beschränkten, messbaren reellwertigen Funktionen f mit kompaktem Träger. Das zufällige Maß ist durch die Werte der charakteristischen Funktion an allen positiven stetigen Funktionen mit kompaktem Träger eindeutig bestimmt.

Beziehung zu anderen erzeugenden Funktionen

Außer den charakteristischen Funktionen spielen noch die wahrscheinlichkeitserzeugenden Funktionen und die momenterzeugenden Funktionen eine wichtige Rolle in der Wahrscheinlichkeitstheorie.

Die wahrscheinlichkeitserzeugende Funktion einer  \mathbb{N}_0 -wertigen Zufallsvariable X ist definiert als m_{X}(t)=\operatorname {E}(t^{X}). Demnach gilt der Zusammenhang m_{X}(e^{{it}})=\varphi _{X}(t).

Die momenterzeugende Funktion einer Zufallsvariable ist definiert als M_{X}(t):=\operatorname {E}(e^{{tX}}). Demnach gilt der Zusammenhang M_{{iX}}(t)=M_{X}(it)=\varphi _{X}(t), wenn die momenterzeugende Funktion existiert. Im Gegensatz zur charakteristischen Funktion ist dies nicht immer der Fall.

Außerdem gibt es noch die kumulantenerzeugende Funktion als Logarithmus der momenterzeugenden Funktion. Aus ihr wird der Begriff der Kumulante abgeleitet.

Siehe auch

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 09.01. 2021