Momentenmethode

Die Momentenmethode ist eine Schätzmethode in der mathematischen Statistik und dient der Gewinnung von Schätzfunktionen. Die mittels der Momentenmethode gewonnenen Schätzer werden als Momentenschätzer bezeichnet. Die Momentenmethode ist im Allgemeinen einfach anzuwenden, die gewonnenen Schätzer erfüllen aber nicht immer gängige Optimalitätskriterien. So müssen Momentenschätzer weder eindeutig noch erwartungstreu sein. Der Momentenmethode liegt die Idee zugrunde, dass die Momente einer Zufallsvariable oder Wahrscheinlichkeitsverteilung durch die Stichprobenmomente geschätzt werden können. Ist dann allgemeiner eine zu schätzende Funktion als Funktion der Momente (der Zufallsvariable oder Wahrscheinlichkeitsverteilung) gegeben, so erhält man einen Schätzer, indem man diese Momente durch die Stichprobenmomente ersetzt.

Die Momentenmethode wurde erstmals 1894 von Karl Pearson verwendet und kann als Spezialfall des Substitutionsprinzips aufgefasst werden.

Vorgehen

Rahmenbedingungen

Gegeben sei eine Familie von Wahrscheinlichkeitsmaßen (P_{\vartheta })_{{\vartheta \in \Theta }} auf den reellen Zahlen, die mit einer beliebigen Indexmenge  \Theta indiziert ist. Es bezeichne {\displaystyle P_{\vartheta }^{n}} das n-fache Produktmaß der Wahrscheinlichkeitsverteilung {\displaystyle P_{\vartheta }}.

Das statistische Modell sei gegeben als das n-fache Produktmodell

{\displaystyle (\mathbb {R} ^{n},{\mathcal {B}}(\mathbb {R} ^{n}),(P_{\vartheta }^{n})_{\vartheta \in \Theta })}.

Sei {\displaystyle X=(X_{1},X_{2},\dots ,X_{n})}, wobei X_{i} die i-te Stichprobenvariable ist. Die X_{i} sind also unabhängig identisch verteilt. Es bezeichne {\displaystyle \operatorname {E} _{\vartheta }} die Bildung des Erwartungswertes bezüglich {\displaystyle P_{\vartheta }} und

{\displaystyle m_{j}(\vartheta )=\operatorname {E} _{\vartheta }(X_{1}^{j})}

das j-te Moment einer nach {\displaystyle P_{\vartheta }} verteilten Zufallsvariable bzw. des Wahrscheinlichkeitsmaßes {\displaystyle P_{\vartheta }}. Des Weiteren sei

{\displaystyle m_{j}(X)={\frac {1}{n}}\sum _{i=1}^{n}X_{i}^{j}}

das j-te Stichprobenmoment von X.

Methode

Geschätzt werden soll eine Funktion

{\displaystyle q\colon \Theta \to \mathbb {R} },

die im Falle eines parametrischen Modells auch als Parameterfunktion bezeichnet wird. Es gelten die folgenden Voraussetzungen:

{\displaystyle q(\vartheta )=g{\bigl (}m_{1}(\vartheta ),m_{2}(\vartheta ),\dots ,m_{k}(\vartheta ){\bigr )}}.

Die zu schätzende Funktion lässt sich also als Funktion der Momente darstellen.

Dann ist

{\displaystyle {\hat {q}}(X):=g{\bigl (}m_{1}(X),m_{2}(X),\dots ,m_{k}(X){\bigr )}=g\left({\frac {1}{n}}\sum _{i=1}^{n}X_{i},{\frac {1}{n}}\sum _{i=1}^{n}X_{i}^{2},\dots ,{\frac {1}{n}}\sum _{i=1}^{n}X_{i}^{k}\right)}

eine Schätzfunktion für q.

Man erhält also eine Schätzfunktion, indem man in der zu schätzenden Funktion die Momente {\displaystyle m_{j}(\vartheta )} der Wahrscheinlichkeitsverteilungen durch die Stichprobenmomente {\displaystyle m_{j}(X)} ersetzt.

Beispiele

Schätzung des Erwartungswertes

Es soll der Erwartungswert einer Stichprobe geschätzt werden. Aufgrund mangelnder Informationen über die Struktur möglicher Wahrscheinlichkeitsverteilungen wählt man als Familie von Wahrscheinlichkeitsmaßen alle Wahrscheinlichkeitsmaße mit endlichem Erwartungswert, versehen mit einer beliebigen Indexmenge  \Theta . Es handelt sich bei dem entsprechenden Produktmodell also um ein nichtparametrisches Modell. Aus der Indizierung kann keinerlei Schluss über den Erwartungswert gezogen werden oder umgekehrt.

Geschätzt werden soll der Erwartungswert, die zu schätzende Funktion ist also

{\displaystyle q(\vartheta )=\operatorname {E} _{\vartheta }(Y)}

Als Darstellung durch die Momente findet sich

{\displaystyle q(\vartheta )=m_{1}(\vartheta )},

da der Erwartungswert genau das erste Moment ist. Per Definition der Wahrscheinlichkeitsverteilungen existiert dieser immer, es ist somit {\displaystyle k=1}. Gesucht ist nun eine Darstellung von q als Verkettung des ersten Moments und einer unbekannten stetigen Funktion g. Diese ergibt sich trivialerweise als

{\displaystyle g(x)=x},

da

{\displaystyle g(m_{1}(\vartheta ))=m_{1}(\vartheta )=q(\vartheta )}.

Das Einsetzen des ersten Stichprobenmoments

{\displaystyle m_{1}(X)={\tfrac {1}{n}}\sum _{i=1}^{n}X_{i}}

in g liefert somit als Schätzfunktion für den Erwartungswert das Stichprobenmittel

{\displaystyle {\hat {q}}(X)=g(m_{1}(X))={\tfrac {1}{n}}\sum _{i=1}^{n}X_{i}={\overline {X}}}

Schätzung der Varianz

Analog zu oben soll nun ohne weiteres Vorwissen die Varianz geschätzt werden. Die Familie von Wahrscheinlichkeitsmaßen ist demnach so gewählt, dass alle eine endliche Varianz besitzen und mit einer Indexmenge  \Theta indiziert sind.

Zu schätzende Funktion ist die Varianz, also

{\displaystyle q(\theta )=\operatorname {Var} _{\theta }(Y)=\operatorname {E} _{\vartheta }(Y^{2})-(\operatorname {E} _{\vartheta }(Y))^{2}}

nach dem Verschiebungssatz. Es ist also

{\displaystyle q(\vartheta )=m_{2}(\vartheta )-m_{1}(\vartheta )^{2}}.

Die Funktion q lässt sich also als Verkettung der ersten beiden Momente und der stetigen Funktion

{\displaystyle g(x_{1},x_{2})=x_{2}-x_{1}^{2}}

schreiben. Substituiert man die Momente der Wahrscheinlichkeitsverteilungen durch die Stichprobenmomente, so erhält man

{\displaystyle {\hat {q}}(X)=m_{2}(X)-\left(m_{1}(X)\right)^{2}={\tfrac {1}{n}}\sum _{i=1}^{n}X_{i}^{2}-\left({\tfrac {1}{n}}\sum _{i=1}^{n}X_{i}\right)^{2}={\tfrac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}

mit \overline X wie oben als Schätzfunktion die (nicht korrigierte) Stichprobenvarianz. Sie ist ein klassisches Beispiel für einen nicht erwartungstreuen Momentenschätzer.

Allgemeine Formulierung

Die oben genannte Fassung lässt sich wie folgt verallgemeinern: Gegeben sei eine indizierte Menge {\displaystyle (P_{\vartheta })_{\vartheta \in \Theta }} von Wahrscheinlichkeitsmaßen auf {\displaystyle ({\mathcal {X}},{\mathcal {A}})} und sei {\displaystyle ({\mathcal {X}}^{n},{\mathcal {A}}^{n},(P_{\vartheta }^{n})_{\vartheta \in \Theta })} das entsprechende Produktmodell. Sei für integrierbares {\displaystyle \varphi _{j}}

{\displaystyle a_{j}(\vartheta )=\operatorname {E} _{\vartheta }(\varphi _{i}(Y))}

das j-te verallgemeinerte Moment und sei

{\displaystyle q(\vartheta )=g(a_{1}(\vartheta ),a_{2}(\vartheta ),\dots ,a_{n}(\vartheta ))}

die zu schätzende Funktion. Dann ist

{\displaystyle {\hat {q}}(X)=g\left({\tfrac {1}{n}}\sum _{i=1}^{n}\varphi _{1}(X_{i}),{\tfrac {1}{n}}\sum _{i=1}^{n}\varphi _{2}(X_{i}),\dots ,{\tfrac {1}{n}}\sum _{i=1}^{n}\varphi _{k}(X_{i})\right)}

eine Schätzfunktion für q. Der oben beschriebene Spezialfall folgt mit {\displaystyle \varphi _{j}(x)=x^{j}}.

Eigenschaften

Für stetige Funktionen g sind Momentenschätzer stark konsistent. Dies folgt direkt aus dem starken Gesetz der großen Zahlen. Für reelle und differenzierbare g sind Momentenschätzer auch asymptotisch normal. Sie sind aber im Allgemeinen nicht erwartungstreu, wie die oben im Beispiel hergeleitete unkorrigierte Stichprobenvarianz zeigt.

Literatur

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 05.10. 2022