Störgröße und Residuum

Theoretische wahre Gerade y und geschätzte Regressionsgerade {\hat {y}}. Das Residuum {\displaystyle {\hat {\varepsilon }}_{i}} ist die Differenz zwischen dem Messwert y_{i} und Schätzwert \hat{y}_i.

In der Statistik sind Störgröße und Residuum zwei eng verwandte Konzepte. Die Störgrößen (nicht zu verwechseln mit Störparametern, oder Störfaktoren), auch Störvariablen, Störterme, Fehlerterme, oder kurz Fehler genannt, sind in einer einfachen oder multiplen Regressionsgleichung unbeobachtbare Zufallsvariablen, die den vertikalen Abstand zwischen Beobachtungspunkt und wahrer Gerade (Regressionsfunktion der Grundgesamtheit) messen. Für sie nimmt man für gewöhnlich an, dass sie unkorreliert sind, einen Erwartungswert von Null und eine homogene Varianz aufweisen (Gauß-Markow-Annahmen). Sie beinhalten unbeobachtete Faktoren, die sich auf die abhängige Variable auswirken. Die Störgröße kann auch Messfehler in den beobachteten abhängigen oder unabhängigen Variablen enthalten.

Im Gegensatz zu den Störgrößen sind Residuen (lateinisch residuum = „das Zurückgebliebene“) berechnete Größen und messen den vertikalen Abstand zwischen Beobachtungspunkt und der geschätzten Regressionsgerade. Mitunter wird das Residuum auch als „geschätztes Residuum“ bezeichnet. Diese Benennung ist problematisch, da die Störgröße eine Zufallsvariable und kein Parameter ist. Von einer Schätzung der Störgröße kann daher nicht die Rede sein.

Die Problematik bei der sogenannten Regressionsdiagnostik ist, dass sich die Gauß-Markow-Annahmen nur auf die Störgrößen, nicht aber auf die Residuen beziehen. Die Residuen haben zwar ebenfalls einen Erwartungswert von Null, sind aber nicht unkorreliert und weisen auch keine homogene Varianz auf. Um diesem Missstand Rechnung zu tragen, werden die Residuen meist modifiziert, um die geforderten Annahmen zu erfüllen, z.B. studentisierte Residuen. Die Quadratsumme der Residuen spielt in der Statistik in vielen Anwendungen eine große Rolle, z.B. bei der Methode der kleinsten Quadrate. Die Notation der Störgrößen als \varepsilon_i bzw. e_{i} ist an das lateinische Wort erratum (Irrtum) angelehnt. Die Residuen können mit Hilfe der Residualmatrix generiert werden.

Störgröße und Residuum

Störgrößen sind nicht mit den Residuen zu verwechseln. Man unterscheidet die beiden Konzepte wie folgt:

Einfache lineare Regression

Hauptartikel: Lineare Einfachregression
Diese Graphik zeigt die Zerlegung der „zu erklärenden Abweichung“ {\displaystyle \left(y_{i}-{\overline {y}}\right)} in die „erklärte Abweichung“ {\displaystyle \left({\hat {y}}_{i}-{\overline {y}}\right)} und das „Residuum“ {\displaystyle \left(y_{i}-{\hat {y}}_{i}\right)}.

In der einfachen linearen Regression mit dem Modell der linearen Einfachregression {\displaystyle Y_{i}=\beta _{0}+\beta _{1}x_{i}+\varepsilon _{i}} sind die gewöhnlichen Residuen gegeben durch

{\displaystyle {\hat {\varepsilon }}_{i}=y_{i}-{\hat {y}}_{i}=y_{i}-{\hat {\beta }}_{0}-{\hat {\beta }}_{1}x_{i}}.

Hierbei handelt es sich um Residuen, da vom wahren Wert ein geschätzter Wert abgezogen wird. Genauer gesagt werden von den Beobachtungswerten y_{i} die angepassten Werte (englisch fitted values) {\displaystyle {\hat {y}}_{i}={\hat {\beta }}_{0}+{\hat {\beta }}_{1}x_{i}} abgezogen. In der einfachen linearen Regression werden an die Störgrößen für gewöhnlich zahlreiche Annahmen getroffen.

Residualvarianz

Die Residualvarianz (auch Restvarianz genannt) ist eine Schätzung der Varianz der Regressionsfunktion in der Grundgesamtheit {\displaystyle \operatorname {Var} (y\mid X=x)=\operatorname {Var} (\beta _{0}+\beta _{1}x+\varepsilon )=\sigma ^{2}=\operatorname {konst} }. In der einfachen linearen Regression ist eine durch die Maximum-Likelihood-Schätzung gefundene Schätzung gegeben durch

{\displaystyle {\tilde {s}}_{\varepsilon }^{2}={\frac {1}{n}}\sum \limits _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}={\frac {1}{n}}\sum \limits _{i=1}^{n}(y_{i}-{\hat {\beta }}_{0}-{\hat {\beta }}_{1}x_{i})^{2}}.

Allerdings erfüllt der Schätzer nicht gängige Qualitätskriterien für Punktschätzer und wird daher nicht oft genutzt. Beispielsweise ist der Schätzer nicht erwartungstreu für \sigma ^{2}. In der einfachen linearen Regression lässt sich unter den Voraussetzungen des klassischen Modells der linearen Einfachregression zeigen, dass eine erwartungstreue Schätzung der Varianz der Störgrößen \sigma ^{2}, d..h eine Schätzung, die {\displaystyle \operatorname {E} ({\hat {\sigma }}^{2})=\sigma ^{2}} erfüllt, gegeben ist durch die um die Anzahl der Freiheitsgrade adjustierte Variante:

{\displaystyle {\hat {\sigma }}^{2}={\frac {1}{n-2}}\sum \limits _{i=1}^{n}(y_{i}-{\hat {\beta }}_{0}-{\hat {\beta }}_{1}x_{i})^{2}}.

Die positive Quadratwurzel dieser erwartungstreuen Schätzfunktion wird auch als Standardfehler der Regression bezeichnet.

Residuen als Funktion der Störgrößen

In der einfachen linearen Regression lassen sich die Residuen als Funktion der Störgrößen \varepsilon_i für jede einzelne Beobachtung schreiben als

{\displaystyle {\hat {\varepsilon }}_{i}=\varepsilon _{i}-({\hat {\beta }}_{0}-\beta _{0})-({\hat {\beta }}_{1}-\beta _{1})x_{i}}.

Summe der Residuen

Die KQ-Regressionsgleichung wird so bestimmt, dass die Residuenquadratsumme zu einem Minimum wird. Äquivalent dazu bedeutet das, dass sich positive und negative Abweichungen von der Regressionsgeraden ausgleichen. Wenn das Modell der linearen Einfachregression einen – von Null verschiedenen – Achsenabschnitt enthält, dann muss also gelten, dass die Summe der Residuen Null ist

{\displaystyle \sum _{i=1}^{n}{\hat {\varepsilon }}_{i}=0}

Multiple lineare Regression

Hauptartikel: multiple lineare Regression

Da die Residuen im Gegensatz zu den Störgrößen beobachtbar und berechnete Größen sind, können sie graphisch dargestellt oder auf andere Weise untersucht werden. Im Gegensatz zur einfachen linearen Regression, bei der eine Gerade bestimmt wird, bestimmt man bei der multiplen linearen Regression (Erweiterung der einfachen linearen Regression auf p Regressoren) eine Hyperebene, die durch die Punktwolke verläuft. Falls zwei Regressoren vorliegen, liegen die Beobachtungen bildlich gesprochen über beziehungsweise unter der Regressionsebene. Die Differenzen der beobachteten und der vorhergesagten, auf der Hyperebene liegenden y-Werte, stellen die Residuen dar. Für sie gilt:

{\displaystyle {\hat {\varepsilon }}_{i}=y_{i}-{\hat {y}}_{i}=y_{i}-{\hat {\beta }}_{0}-{\hat {\beta }}_{1}x_{i1}-{\hat {\beta }}_{2}x_{i2}-\dotsc -{\hat {\beta }}_{k}x_{ik}}.

Die Residuen, die durch die Kleinste-Quadrate-Schätzung gewonnen werden, werden gewöhnliche Residuen genannt. Wenn zusätzlich n Beobachtungen vorliegen, dann sind die gewöhnlichen KQ-Residuen in der multiplen linearen Regression gegeben durch

{\displaystyle {\hat {\boldsymbol {\varepsilon }}}=\mathbf {y} -{\hat {\mathbf {y} }}=\mathbf {y} -\mathbf {X} \mathbf {b} =\left(\mathbf {I} -\mathbf {X} \left(\mathbf {X} ^{\top }\mathbf {X} \right)^{-1}\mathbf {X} ^{\top }\right)\mathbf {y} =(\mathbf {I} -\mathbf {P} )\mathbf {y} },

wobei {\displaystyle \mathbf {Q} :=(\mathbf {I} -\mathbf {P} )} eine Projektionmatrix, oder genauer gesagt die idempotente und symmetrische Residualmatrix darstellt und {\displaystyle \mathbf {b} =(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} } den KQ-Schätzer im multiplen Fall darstellt.

Eigenschaften

Die gewöhnlichen Residuen sind im Mittel {\displaystyle 0}, d.h.

{\displaystyle \operatorname {E} ({\hat {\boldsymbol {\varepsilon }}})=\operatorname {E} {\begin{pmatrix}{\hat {\varepsilon }}_{1}\\{\hat {\varepsilon }}_{2}\\\vdots \\{\hat {\varepsilon }}_{n}\end{pmatrix}}={\begin{pmatrix}0\\0\\\vdots \\0\end{pmatrix}}=\mathbf {0} }

Die Kovarianzmatrix der gewöhnlichen Residuen ist gegeben durch

{\displaystyle \operatorname {Cov} ({\hat {\boldsymbol {\varepsilon }}})=\operatorname {Cov} (\mathbf {Q} \mathbf {y} )=\mathbf {Q} \operatorname {Cov} (\mathbf {y} )\mathbf {Q} ^{\top }=\mathbf {Q} \operatorname {Cov} ({\boldsymbol {\varepsilon }})\mathbf {Q} =\operatorname {Cov} ({\boldsymbol {\varepsilon }})\mathbf {Q} \mathbf {Q} =\sigma ^{2}(\mathbf {I} -\mathbf {P} )=\sigma ^{2}\mathbf {Q} }.

Die gewöhnlichen Residuen sind also heteroskedastisch, da

{\displaystyle \operatorname {Cov} ({\boldsymbol {\hat {\varepsilon }}})=\sigma ^{2}(\mathbf {I} -\mathbf {P} )=\sigma ^{2}\mathbf {Q} \neq \sigma ^{2}\mathbf {I} }.

Dies bedeutet, dass für die gewöhnlichen Residuen die Gauß-Markow-Annahmen nicht erfüllt sind, da die Homoskedastizitätsannahme {\displaystyle \operatorname {Cov} ({\boldsymbol {\varepsilon }})=\sigma ^{2}\mathbf {I} } nicht zutrifft.

Mithilfe der Prädiktions- und der Residualmatrix lässt sich zeigen, dass die Residuen mit den vorhergesagten Werten unkorreliert sind

{\displaystyle {\hat {\boldsymbol {\varepsilon }}}^{\top }{\hat {\mathbf {y} }}=\left(\left(\mathbf {I} -\mathbf {P} \right)\mathbf {y} \right)^{\top }\mathbf {P} \mathbf {y} =\mathbf {y} ^{\top }\left(\mathbf {I} -\mathbf {P} \right)\mathbf {P} \mathbf {y} =\mathbf {y} ^{\top }\left(\mathbf {P} -\mathbf {P} \right)\mathbf {y} =\mathbf {0} }.

Partielle Residuen

Partielle Residuen-Streudiagramme werden mithilfe von partiellen Residuen erstellt, die definiert sind durch

{\displaystyle {\hat {\varepsilon }}_{x_{j},i}:=y_{i}-{\hat {\beta }}_{1}-{\hat {\beta }}_{2}x_{i2}-\ldots -{\hat {\beta }}_{j-1}x_{i,j-1}-{\hat {\beta }}_{j+1}x_{i,j+1}-\ldots -{\hat {\beta }}_{k}x_{i,k}=y_{i}-\mathbf {x} _{t}^{\top }{\hat {\boldsymbol {\beta }}}+{\hat {\beta }}_{j}x_{ij}}.

Studentisierte Residuen

Für dieses einfache Modell sei die Versuchsplanmatrix

{\displaystyle \mathbf {X} ={\begin{pmatrix}1&x_{1}\\\vdots &\vdots \\1&x_{n}\end{pmatrix}}}

gegeben. Die Prädiktionsmatrix \mathbf{P} ist die Matrix der Orthogonalprojektion auf den Spaltenraum der Versuchsplanmatrix. \mathbf{P} ist gegeben durch

{\displaystyle \mathbf {P} =\mathbf {X} \left(\mathbf {X} ^{\top }\mathbf {X} \right)^{-1}\mathbf {X} ^{\top }}.

Die statistischen Hebelwerte {\displaystyle p_{ii}} sind die i-ten Diagonalelemente der Prädiktionsmatrix. Die Varianz des i-ten Residuums ist gegeben durch

{\displaystyle \operatorname {Var} ({\widehat {\varepsilon }}_{i})=\sigma ^{2}(1-p_{ii})}.

In diesem Fall hat die Versuchsplanmatrix {\mathbf  {X}} nur zwei Spalten, was zu folgender Varianz führt

{\displaystyle \operatorname {Var} ({\widehat {\varepsilon }}_{i})=\sigma ^{2}\left(1-{\frac {1}{n}}-{\frac {(x_{i}-{\overline {x}})^{2}}{\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}\right)}.

Die dazugehörigen studentisierten Residuen lauten

{\displaystyle t_{i}={{\widehat {\varepsilon }}_{i} \over {\widehat {\sigma }}{\sqrt {1-p_{ii}\ }}}}.

Die studentisierten Residuen sind identisch (aber nicht unabhängig) verteilt und damit insbesondere homoskedastisch. Sie könnten somit eine Lösung für die Verletzung der Homoskedastizitätsannahme darstellen.

Aufbauende Maße

Residuenquadratsumme

Bildet man die Summe der quadrierten Residuen für alle Beobachtungen, so erhält man die Residuenquadratsumme:

{\displaystyle SQR:=\sum _{i=1}^{n}{\hat {\varepsilon }}_{i}^{2}=\sum _{i=1}^{n}(y_{i}-{\hat {y}}_{i})^{2}}.

Diese spezielle Abweichungsquadratsumme taucht in vielen statistischen Maßen, wie z.B. dem Bestimmtheitsmaß, der F-Statistik und diversen Standardfehlern, wie dem Standardfehler der Regression auf. Die Minimierung der Residuenquadratsumme führt zum Kleinste-Quadrate-Schätzer.

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 16.03. 2020