Konsistente Schätzfolge

Als eine konsistente Schätzfolge bezeichnet man in der Schätztheorie, einem Teilgebiet der mathematischen Statistik, eine Folge von Punktschätzern, die sich dadurch auszeichnet, dass sie bei größer werdender Stichprobe den zu schätzenden Wert immer genauer schätzt.

Je nach Konvergenzart unterscheidet man schwache Konsistenz (Konvergenz in Wahrscheinlichkeit), starke Konsistenz (fast sichere Konvergenz) sowie L^{p}-Konsistenz (Konvergenz im p-ten Mittel) mit dem Spezialfall Konsistenz im quadratischen Mittel (Konvergenz im quadratischen Mittel, Sonderfall der Konvergenz im p-ten Mittel für p=2). Wird von Konsistenz ohne einen Zusatz gesprochen, so ist meist die schwache Konsistenz gemeint. Alternativ finden sich auch die Bezeichnungen konsistente Folge von Schätzern und konsistenter Schätzer, wobei Letzteres fachlich nicht korrekt ist. Allerdings ist die Konstruktion als Folge meist nur dadurch bedingt, dass die größer werdende Stichprobe formalisiert werden muss. Die der Folge zugrundeliegende Idee bleibt meist unverändert.

Das Konzept der Konsistenz lässt sich auch für statistische Tests formulieren, man spricht dann von konsistenten Testfolgen.

Definition

Rahmenbedingungen

Gegeben sei ein statistisches Modell

{\displaystyle (X^{\mathbb {N} },{\mathcal {A}}^{\mathbb {N} },(P_{\vartheta }^{\mathbb {N} })_{\vartheta \in \Theta })}

und eine Folge von Punktschätzern {\displaystyle (T_{n})_{n\in \mathbb {N} }} in einen Ereignisraum  (E, \mathcal E)

{\displaystyle T_{n}\colon (X^{n},{\mathcal {A}}^{n})\to (E,{\mathcal {E}})},

die nur von den ersten n Beobachtungen abhängen. Sei

{\displaystyle \tau \colon \Theta \to E}

eine zu schätzende Funktion.

Konsistenz oder schwache Konsistenz

Die Folge {\displaystyle (T_{n})_{n\in \mathbb {N} }} heißt eine schwach konsistente Schätzfolge oder einfach eine konsistente Schätzfolge, wenn sie für jedes \vartheta \in \Theta in Wahrscheinlichkeit gegen {\displaystyle \tau (\vartheta )} konvergiert. Es gilt also

{\displaystyle \lim _{n\to \infty }P_{\vartheta }(|T_{n}-\tau (\vartheta )|\geq \epsilon )=0}

für alle \epsilon >0 und alle \vartheta \in \Theta . Unabhängig davon, welches der Wahrscheinlichkeitsmaße {\displaystyle P_{\vartheta }} wirklich vorliegt, ist also für beliebig groß werdende Stichproben die Wahrscheinlichkeit, dass der geschätzte Wert sehr nah an dem zu schätzenden Wert liegt, gleich 1.

Weitere Konsistenzbegriffe

Die weiteren Konsistenzbegriffe unterscheiden sich nur bezüglich der verwendeten Konvergenzart von dem obigen schwachen Konsistenzbegriff. So heißt die Folge {\displaystyle (T_{n})_{n\in \mathbb {N} }}

Detaillierte Beschreibungen der Konvergenzarten sind in den entsprechenden Hauptartikeln zu finden.

Eigenschaften

Aufgrund der Eigenschaften der Konvergenzarten gilt: Sowohl aus der starken Konsistenz als auch aus der Konsistenz im p-ten Mittel folgt die schwache Konsistenz; alle anderen Implikationen sind im Allgemeinen falsch.

Wichtige Hilfsmittel, um starke und schwache Konsistenz zu zeigen, sind das starke Gesetz der großen Zahlen und das schwache Gesetz der großen Zahlen.

Beispiel

Es lässt sich zeigen, dass der Schätzer {\displaystyle {\hat {\boldsymbol {\beta }}}=(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} }, der durch die Methode der kleinsten Quadrate gewonnen wird, konsistent ist, d.h., für ihn gilt

{\displaystyle {\hat {\boldsymbol {\beta }}}\;{\stackrel {p}{\longrightarrow }}\;{\boldsymbol {\beta }}}

bzw.

{\displaystyle \operatorname {plim} ({\hat {\boldsymbol {\beta }}})={\boldsymbol {\beta }}.}

Die Konsistenz kann wie folgt gezeigt werden:

{\displaystyle {\begin{aligned}\operatorname {plim} ({\hat {\boldsymbol {\beta }}})&=\operatorname {plim} ((\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} )\\&=\operatorname {plim} ({\boldsymbol {\beta }}+(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }{\boldsymbol {\varepsilon }}))\\&={\boldsymbol {\beta }}+\operatorname {plim} ((\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }{\boldsymbol {\varepsilon }})\\&={\boldsymbol {\beta }}+\operatorname {plim} \left(((\mathbf {X} ^{\top }\mathbf {X} )^{-1}/T)\right)\cdot \operatorname {plim} \left(((\mathbf {X} ^{\top }{\boldsymbol {\varepsilon }})/T)\right)\\&={\boldsymbol {\beta }}+[\operatorname {plim} \left(((\mathbf {X} ^{\top }\mathbf {X} )/T)\right)]^{-1}\cdot \underbrace {\operatorname {plim} \left(((\mathbf {X} ^{\top }{\boldsymbol {\varepsilon }})/T)\right)} _{=0}={\boldsymbol {\beta }}\end{aligned}}}
Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 06.04. 2020