Verallgemeinerte Kleinste-Quadrate-Schätzung
In der Statistik ist die Verallgemeinerte Kleinste-Quadrate-Schätzung (kurz VKQ-Schätzung), verallgemeinerte Methode der kleinsten Quadrate, kurz VMKQ (englisch generalized least squares, kurz GLS) eine Prozedur, um unbekannte wahre Regressionsparameter in einer linearen Regressionsgleichung, unter problematischen Voraussetzungen (vorliegen von Autokorrelation und Heteroskedastizität), effizient zu schätzen. Die VKQ-Methode kann benutzt werden, um bei einem Modell mit einer allgemeinen Störgrößenstruktur zielführend eine lineare Regression durchzuführen. Eine verallgemeinerte Störgrößenstruktur liegt vor, wenn ein bestimmter Grad an Korrelation zwischen den Residuen und eine nicht konstante Störgrößenvarianz zulässig sind. In diesen Fällen können die gewöhnliche Kleinste-Quadrate-Schätzung und die gewichtete Kleinste-Quadrate-Schätzung statistisch ineffizient sein oder sogar zu falschen Resultaten der statistischen Inferenz führen. Aus diesem Grund wird, um valide Resultate der statistischen Inferenz zu erhalten, eine Transformation des klassischen linearen Modells durchgeführt, durch welche die benötigten Annahmen für die statistische Inferenz weiterhin erfüllt sind. Die VKQ-Methode minimiert im Gegensatz zur gewöhnlichen Methode der kleinsten Quadrate eine gewichtete Residuenquadratsumme. Sie wurde von Alexander Aitken entwickelt und 1934 veröffentlicht und wird daher auch Aitken-Schätzung genannt.
Geschichte

Am Neujahrstag 1801 entdeckte der italienische Astronom Giuseppe Piazzi den Zwergplaneten Ceres. 40 Tage lang konnte er die Bahn verfolgen, dann verschwand Ceres hinter der Sonne. Im Laufe des Jahres versuchten viele Wissenschaftler erfolglos, anhand von Piazzis Beobachtungen die Bahn zu berechnen – unter der Annahme einer Kreisbahn, denn nur für solche konnten damals die Bahnelemente aus beobachteten Himmelspositionen mathematisch ermittelt werden. Der 24-jährige Gauß hingegen konnte auch elliptische Bahnen aus drei Einzelbeobachtungen berechnen. Da aber deutlich mehr Bahnpunkte vorlagen, wandte er seine Methode der kleinsten Quadrate an, um so die Genauigkeit zu erhöhen. Als Franz Xaver von Zach und Heinrich Wilhelm Olbers im Dezember 1801 den Kleinplaneten genau an dem von Gauß vorhergesagten Ort wiederfanden, war das nicht nur ein großer Erfolg für Gauß’ Methode: Piazzis Ruf, der aufgrund seiner nicht zu einer Kreisbahn passen wollenden Bahnpunkte stark gelitten hatte, war ebenfalls wiederhergestellt.
Den Grundstein der verallgemeinerten Methode der kleinsten Quadrate legte Gauß schon 1795 im Alter von 18 Jahren. Basis war eine Idee von Pierre-Simon Laplace, die Beträge von Fehlern aufzusummieren, so dass sich die Fehler zu Null addieren. Gauß nahm stattdessen die Fehlerquadrate und konnte die Nullsummen-Anforderung an die Fehler weglassen. Unabhängig davon entwickelte der Franzose Adrien-Marie Legendre dieselbe Methode erstmals im Jahr 1805 am Schluss eines kleinen Werkes über die Berechnung der Kometenbahnen und veröffentlichte eine zweite Abhandlung darüber im Jahr 1810. Von ihm stammt der Name Méthode des moindres carrés (Methode der kleinsten Quadrate).
1809 publizierte Gauß dann im zweiten Band seines himmelsmechanischen Werkes Theoria motus corporum coelestium in sectionibus conicis solem ambientium (Theorie der Bewegung der Himmelskörper, welche in Kegelschnitten die Sonne umlaufen) sein Verfahren, inklusive der Normalgleichungen und des Gaußschen Eliminationsverfahrens. Dabei erwähnte er, dass er es schon vor Legendre entdeckt und benutzt habe, was zu einem Prioritätsstreit zwischen den beiden führte. Die Methode der kleinsten Quadrate wurde nun schnell das Standardverfahren zur Behandlung von astronomischen oder geodätischen Datensätzen.
Gauß benutzte dann das Verfahren intensiv bei seiner Vermessung des Königreichs Hannover durch Triangulation. 1821 und 1823 erschien die zweiteilige Arbeit sowie 1826 eine Ergänzung zur Theoria combinationis observationum erroribus minimis obnoxiae (Theorie der den kleinsten Fehlern unterworfenen Kombination der Beobachtungen), in denen Gauß eine Begründung liefern konnte, weshalb sein Verfahren im Vergleich zu den anderen so erfolgreich war: Die Methode der kleinsten Quadrate ist in einer breiten Hinsicht optimal, also besser als andere Methoden. Die genaue Aussage ist als der Satz von Gauß-Markow bekannt, da die Arbeit von Gauß wenig Beachtung fand und schließlich im 20. Jahrhundert von Andrei Andrejewitsch Markow wiederentdeckt und bekannt gemacht wurde. Die Theoria Combinationis enthält ferner wesentliche Fortschritte beim effizienten Lösen der auftretenden linearen Gleichungssysteme, wie das Gauß-Seidel-Verfahren und die LR-Zerlegung.
Schließlich veröffentlichte Alexander Aitken 1935 eine Arbeit, in der er das Konzept der verallgemeinerten kleinsten Quadrate und den viel verwendeten verallgemeinerten kleinsten Quadrate-Schätzer einführte. Ebenso bewies er dort, dass dieser von ihm eingeführte Schätzer Beste Lineare Erwartungstreue Schätzfunktion, kurz BLES (englisch Best Linear Unbiased Estimator, kurz: BLUE) ist, d.h. in der Klasse der linearen erwartungstreuen Schätzern derjenige mit der kleinsten Kovarianzmatrix ist. Aitken wendete außerdem die statistischen Methoden auf die Theorie der linearen Modelle an und entwickelte die Notation, die man heutzutage als Standard-Vektor-Matrix-Notation betrachtet. Aitken veröffentlichte zusammen mit einem seiner Studenten namens Harold Silverstone eine Arbeit, in der sie die untere Grenze der Varianz eines Schätzers einführten, auch bekannt als Cramér-Rao-Ungleichung. Im Gegensatz zu Vorgängern fand er einen effizienten Weg, um das Problem einer nicht konstanten Varianz und korrelierten Störtermen zu lösen. Die verallgemeinerte Kleinste-Quadrate-Schätzung baut auf der Gauß-Markov-Theorie auf und spielt immer noch eine große Rolle in theoretischen und praktischen Aspekten der statistischen Inferenz in verallgemeinerten linearen (multiplen) Regressionsmodellen.
Ausgangslage
Da viele Variablen des Interesses nicht nur von einer unabhängigen Variablen
abhängen, betrachten wir eine abhängige Variable, die durch mehrere unabhängige
Variablen erklärt werden soll. Zum Beispiel ist die Gesamtproduktion einer
Volkswirtschaft von dessen Kapitaleinsatz, Arbeitseinsatz und dessen Fläche
abhängig. Solch eine multiple Abhängigkeit kommt der Realität viel näher und man
gibt die Annahme der einfachen
linearen Regression auf, bei der die Variable des Interesses nur von einer
Variablen abhängt. Um solch eine multiple Abhängigkeit zu modellieren,
betrachten wir als Ausgangslage ein typisches multiples
lineares Regressionsmodell mit gegebenen Daten
für
statistische
Einheiten. Hierbei ist zu beachten, dass wir zusätzlich zur Dimension der
unabhängigen Variablen auch eine zeitliche Dimension integrieren, wodurch sich
ein lineares Gleichungssystem ergibt was sich auch matriziell darstellen lässt.
Der Zusammenhang zwischen der abhängigen Variablen und den unabhängigen
Variablen kann wie folgt dargestellt werden
.
In Vektor-Matrix-Form auch
oder in kompakter Schreibweise
Hier stellt
einen Vektor von unbekannten Regressionsparametern
dar, die mithilfe der Daten geschätzt werden müssen. Des Weiteren wird
angenommen, dass die Störgrößen im Mittel null sind:
,
was bedeutet, dass wir davon ausgehen können, dass unser Modell im Mittel
korrekt ist. Für gewöhnlich stellt man an ein solches Modell die Anforderung,
dass die Gauß-Markow-Annahmen
gelten sollen. Dies soll hier aber nicht der Fall sein, da man nicht
opportunistisch von problematischen Voraussetzungen ausgeht. Aus diesem Grund
wird ein Modell betrachtet, bei dem eine allgemeine Störgrößenstruktur zulässig
ist.
Das verallgemeinerte lineare Regressionsmodell (VLR)
Weiterhin wird für das Modell angenommen, dass der Erwartungswert von
linear in
ist. Die Matrix
stellt die Kovarianzmatrix
der Störgrößen dar, wobei
als eine beliebige bekannte reelle nichtsinguläre positiv
definite
Matrix angenommen wird und
ein noch unbekannter Skalar darstellt. Die Besonderheit im Gegensatz zur
gewöhnlichen Methode der kleinsten Quadrate ist, dass Heteroskedastizität
(d.h., dass die Varianz der Störterme bedingt auf die erklärenden
Variablen nicht konstant ist) und Autokorrelation
(d.h. ein Korrelieren der Störterme) erlaubt ist:
- Die Varianz
der Störgrößen könnte heteroskedastisch sein:
- Wenn die Varianz der Residuen (und somit die Varianz der erklärten Variablen selbst) für alle Ausprägungen der Regressoren nicht unterschiedlich ist, liegt Homoskedastizität ((Residuen-)Varianzhomogenität) vor. Falls diese Annahme verletzt ist spricht man von Heteroskedastizität.
- Die Störgrößen könnten voneinander nicht unabhängige Zufallsvariablen
sein, d.h. autokorreliert sein:
.
- D. h. die Annahme der Abwesenheit von Autokorrelation könnte verletzt sein.
Für die Matrix
gibt es je nach Kontext unterschiedliche Definitionen. Bei Vorliegen von
Heteroskedastizität nimmt sie folgende Form an
und bei Vorliegen von Autokorrelation die Form
.
Ein Modell der Form
mit
,
wobei
heißt verallgemeinertes (multiples)
lineares Regressionsmodell (mit fixen Regressoren), kurz VLR.
Es ist dabei zu beachten, dass sich
immer als konstanter Faktor aus der Matrix ziehen lässt. Das Skalar
stellt einen beliebigen konstanten Proportionalitätsfaktor
dar. Manchmal ist es nützlich – insbesondere bei Heteroskedastizität –
anzunehmen, dass
.
Die Annahme ist equivalent zu sagen, dass die Kovarianzmatrix
vollständig bekannt ist. Wenn man
schreibt, wobei
bekannt ist und
unbekannt ist dann sagt man damit, dass es nicht notwendig ist anzunehmen, dass
die Kovarianzmatrix
vollständig bekannt sein muss; es ist ausreichend anzunehmen, dass
bekannt ist (die Matrix die man erhält, nachdem man einen beliebigen unbekannten
Skalierungsparameter
herauszieht).
Man kann das verallgemeinerte lineare Regressionsmodell mit heteroskedastischer
Störgrößenkovarianzmatrix
durch geeignete Wahl von
auf das gewöhnliche multiple Regressionsmodell mit homoskedastischer
Störgrößenkovarianzmatrix
zurückführen.
Die Auswirkungen der Anwendung der gewöhnlichen Methode der kleinsten Quadrate (KQ)
Auswirkungen auf Eigenschaften der Punktschätzer
Als einen ersten naiven Ansatz nehmen wir an, der Kleinste-Quadrate-Schätzer
,
der durch die Minimierung der Residuenquadratsumme
gewonnen wird, wäre ein zielführender Kandidat für den Punktschätzer für
bei einem Modell mit einer allgemeinen Störgrößenstruktur; dann ist der
Residualvektor
gegeben durch
.
Es wird jedoch ersichtlich, dass der Punktschätzer
für bei einem Modell mit allgemeiner Störgrößenstruktur zwar erwartungstreu, aber
nicht mehr effizient ist. Beim naiven Ansatz ist die Kovarianzmatrix nicht mehr
gleich
,
sondern sie ist gegeben durch
Dies resultiert vor allem daraus, dass eine nichtkonstante Störgrößenvarianz
(Heteroskedastizität) zulässig ist. Wenn man nämlich davon ausgeht, dass keine
Heteroskedastizität gegeben ist (),
dann ergibt sich wieder die Kovarianzmatrix der gewöhnlichen Methode der
kleinsten Quadrate (
).
Bei Vorliegen einer nichtskalaren Einheits-Kovarianzmatrix lässt sich zeigen, dass die Eigenschaft der Erwartungstreue des Kleinste-Quadrate-Schätzers weiterhin erfüllt ist, jedoch ist sie nicht mehr für die Varianz der Störgrößen erfüllt. Für die Varianz der Störgrößen gilt nämlich, dass sie keine Erwartungstreue Schätzung der Varianz der Störgrößen ist
.
Sie ist somit ein verzerrter Schätzer für die wahre Varianz .
Auswirkungen auf Hypothesentests
Eine wichtige Auswirkung ergibt sich für die Intervallschätzung und
Prozeduren der Hypothesentests. Die Resultate der statistischen Inferenz sind
nicht länger gültig, da die oben dargestellten Resultate für die Kovarianzmatrix
von
implizieren, dass wir fälschlicherweise
benutzen um
zu schätzen. Da dies ein verzerrter Schätzer ist, führt dies zu nicht validen
Resultaten der statistischen Inferenz. Eine weitere Konsequenz für die Inferenz
ist, dass die benötigte Teststatistik
für allgemeine
lineare Hypothesen nicht mehr F-verteilt
ist. Aus diesem Grund sollte man die Intervallschätzung auf dem
verallgemeinerten Kleinste-Quadrate-Schätzer aufbauen
oder robuste Standard-Fehler à la Eicker-Huber-White benutzen.
Gewinnung des verallgemeinerten Kleinste-Quadrate-Schätzers (VKQ)
Aus obigen ersten naiven Ansatz wird deutlich, dass die Methode der kleinsten
Quadrate bei einer allgemeinen Störgrößenstruktur nicht zielführend ist, da sie
zu Ineffizienzen führt. Aus diesem Grund besteht die Notwendigkeit diese
Ineffizienzen zu beseitigen, indem das Verfahren der verallgemeinerten Methode
der kleinsten Quadrate angewandt wird. Die verallgemeinerte Methode der
kleinsten Quadrate schätzt ,
indem der quadrierte Mahalanobis-Abstand
des Residualvektors minimiert wird:
Da der Ausdruck eine quadratische
Form in
ist, ist das Resultat der Minimierung:
.
Der Schätzer
heißt verallgemeinerter Kleinste-Quadrate-Schätzer, kurz
VKQ-Schätzer oder Aitken-Schätzer (englisch
generalized least squares estimator, kurz: GLSE). Die
Kovarianzmatrix des verallgemeinerten Kleinste-Quadrate-Schätzers ist gegeben
durch:
.
Der durch das Minimierungsproblem
gegebene Punktschätzer für
ist Beste
Lineare Erwartungstreue Schätzfunktion (Best Linear Unbiased
Estimator). Ein anderer Ansatz um den VKQ-Schätzer zu bekommen ist durch
eine Transformation des multiplen linearen Modells.
Transformation des multiplen linearen Modells
Die VKQ-Methode ist äquivalent zu der Anwendung einer linearen Transformation
auf die gewöhnliche Methode der kleinsten Quadrate (englisch ordinary
least squares, kurz OLS). Der Transformationsfaktor
kann durch die Cholesky-Zerlegung
gewonnen werden. Anschließend werden beide Seiten des Modells
mit
multipliziert. Das verallgemeinerte lineare Modell lässt sich über die
Transformationen
,
,
und
in ein klassisches
lineares Modell überführen
.
Eigenschaften der transformierten Störgrößen
Weiterhin stellt sich die Frage, was die transformierten Störgrößen im Mittel
ergeben. In diesem Modell gilt für die transformierten Störgrößen
ebenfalls, dass sie im Mittel Null ergeben, da
.
Die Eigenschaft gewährleistet, dass man im Mittel das wahre Modell schätzt und nicht eine verzerrte Form. Für die Kovarianzmatrix der transformierten Störgrößen gilt
.
Damit die Homoskedastizitätsannahme erfüllt ist, wird
so bestimmt, dass
,
wobei
die Einheitsmatrix
darstellt (weil
eine positiv definite Matrix ist existiert immer eine Matrix mit der Eigenschaft
).
Also ist für das transformierte Modell bei dieser Festlegung die
Homoskedastizitätsannahme
und auch alle anderen Gauß-Markov-Annahmen
erfüllt. Dadurch, dass man
setzt folgt
.
Dieses Resultat wird später noch für die Berechnung des VKQ-Schätzers benötigt. Da das transformierte Modell die Gauß-Markow-Annahmen erfüllt, muss der Kleinste-Quadrate-Schätzer dieses Modells gegeben sein durch
und beste lineare erwartungstreue Schätzfunktion (BLES) sein. Anders ausgedrückt
.
Mithilfe des obigen Resultates für
ergibt sich schließlich bei diesem Ansatz ebenfalls der VKQ-Schätzer
.
Man kann zeigen, dass multiplizieren der Störgrößenkovarianzmatrix mit einem Skalar den Wert des VKQ-Schätzer nicht ändert:
.
gilt.
Eigenschaften
Störgrößen-Kovarianzmatrix
Die Kovarianzmatrix der Störgrößen entspricht bei der verallgemeinerten Kleinste-Quadrate-Schätzung
.
Maximum-Likelihood-Schätzung (MLS)
Im Falle einer nichtskalaren Kovarianzmatrix, wie sie bei der verallgemeinerten Methode der kleinsten Quadrate zum Einsatz kommt, lässt sich die gemeinsame Wahrscheinlichkeitsdichte aus einer Maximum-Likelihood-Schätzung eines klassischen linearen Modells der Normalregression schreiben als:
,
wobei
die Determinante von
darstellt.
Erwartungstreue
Der VKQ-Schätzer ist erwartungstreu, d.h. er trifft im Mittel den wahren Parametervektor, da sein Erwartungswert gleich dem wahren Wert entspricht
Dies impliziert, dass keine Verzerrung vorhanden ist. Somit ist die Verteilung des VKQ-Schätzers gegeben durch
.
Beste lineare erwartungstreue Schätzfunktion (BLES)
Es lässt sich zeigen, dass der VKQ-Schätzer eine beste
lineare erwartungstreue Schätzfunktion ist. Ein Schätzer ist „besser“
als ein anderer, wenn er eine kleinere Varianz aufweist, da die Varianz ein Maß
für die Unsicherheit ist. Somit ist der beste Schätzer dadurch gekennzeichnet,
dass er eine minimale
Varianz und somit die geringste Unsicherheit aufweist. Für alle anderen
linearen erwartungstreuen Schätzer
gilt somit
.
Da der VKQ-Schätzer BLES ist, bedeutet dies, dass er mindestens so gut wie der gewöhnliche KQ-Schätzer sein muss. Die Effizienz dieses Ansatzes wird ersichtlich, weil die Differenz
positiv
semidefinit ist, was bedeutet, dass die Kovarianzmatrix des KQ-Ansatzes (bei
Vorliegen von Heteroskedastizität
())
die Variation überschätzt und somit „größer“ als die durch die verallgemeinerte
Kleinste-Quadrate-Schätzung gewonnene Kovarianzmatrix ist (siehe auch Kovarianzmatrix).
Der KQ-Schätzer entspricht dem VKQ-Schätzer wenn die Differenz
gleich die Nullmatrix ist, also wenn:
.
Asymptotische Eigenschaften
Eine asymptotische Eigenschaft ist, dass die über
Summanden gemittelte Produktsummenmatrix
in Wahrscheinlichkeit
zu einer positiv definiten, endlichen, nichtsingulären Matrix
konvergiert:
.
Aus dieser Eigenschaft folgt die Konsistenz des VKQ-Schätzers und der Varianz des VKQ-Schätzers und die Eigenschaft, dass der Schätzer in Verteilung gegen eine Normalverteilung konvergiert. Die letzte Eigenschaft ist für die statistische Inferenz von Bedeutung.
Konsistenz
Der VKQ-Schätzer ist unter den bisherigen Annahmen erwartungstreu ,
wobei die Stichprobengröße
keinen Einfluss auf die Unverzerrtheit hat (schwaches
Gesetz der großen Zahlen). Ein Schätzer ist genau dann konsistent
für den unbekannten Parameter, wenn er in Wahrscheinlichkeit
gegen den wahren Wert konvergiert.
Die Eigenschaft der Konsistenz bezieht also das Verhalten des Schätzers mit ein,
wenn die Anzahl der Beobachtungen größer wird.
Für die Folge
gilt unter oben genanntem asymptotischem Resultat, dass sie in
Wahrscheinlichkeit gegen den wahren Parametervektor konvergiert
,
oder vereinfacht ausgedrückt:
Der VKQ-Schätzer ist konsistent für .
Die Eigenschaft besagt, dass mit steigender Stichprobengröße die
Wahrscheinlichkeit, dass der Schätzer
vom wahren Parameter
abweicht, sinkt. Für die Varianz der VKQ-Schätzers gilt ebenfalls, dass sie
konsistent für
ist:
.
Konvergenz gegen Normalverteilung
Eine weitere Eigenschaft der VKQ-Schätzers ist, dass
in Verteilung gegen eine Normalverteilung konvergiert
.
Diese asymptotische Normalität ist vor allem für die statistische Inferenz von Bedeutung.
Prädiktionsmatrix
Die Prädiktionsmatrix des VKQ-Schätzers ist gegeben durch
Es kann gezeigt werden, dass ,
nicht mehr symmetrisch ist.
Durchführbare verallgemeinerte KQ-Schätzung (GVKQ)
In der Praxis ist die Kovarianzmatrix der Störgrößen
oft unbekannt, sodass die verallgemeinerte Methode der kleinsten Quadrate nicht
durchführbar ist. Ein konsistenter Schätzer für
ist gegeben durch
.
In diesem Fall, bei dem die Matrix
geschätzt werden muss, spricht man auch von der anwendbaren bzw.
durchführbaren verallgemeinerten KQ-Schätzung (englisch Feasible
Generalized Least Squares, kurz FGLS) oder auch von der
geschätzten verallgemeinerten KQ-Schätzung bzw. GVKQ-Schätzung (englisch Estimated
Generalised Least Squares, kurz EGLS); dessen Schätzer wird der
geschätzte VKQ-Schätzer, kurz GVKQ-Schätzer genannt. Er ist
gegeben durch:
.
Dadurch, dass die unbekannte Kovarianzmatrix der Störgrößen
durch eine Schätzung ersetzt wurde, ist der VKQ-Schätzer zu berechnen und man
spricht auch von der durchführbaren verallgemeinerten KQ-Schätzung. Es ist
wichtig zu erwähnen, dass die Kovarianzmatrix
Elemente besitzt und somit nicht durch nur
geschätzte Störgrößenvektoren
geschätzt werden kann. Aus diesem Grund wird angenommen, dass die Elemente in
Funktionen einer kleinen Anzahl von unbekannten Parametern sind.
Gewichtete kleinste Quadrate (GKQ)
Ein Spezialfall der VKQ-Methode stellt die sogenannte gewichtete Methode der
kleinsten Quadrate (englisch
weighted least squares, kurz WLS) dar. Sie wird angewendet, wenn
alle Elemente neben der Hauptdiagonalen von
Null sind. Diese Methode wird angewendet, wenn die Varianzen der beobachteten
Werte nicht konstant sind (d.h. es liegt Heteroskedastizität vor) und
keine Korrelation zwischen den beobachteten Störgrößen vorliegt. Das Gewicht der
Einheit
(
)
ist proportional zum Reziproken der Varianz der endogenen Variablen der Einheit
.
Das Optimalitätskriterium ist die gewichtete
Residuenquadratsumme
.
Anwendungen
Multiplikative Heteroskedastizität
Falls die Annahme der Homoskedastizität nicht erfüllt ist, d.h. die Diagonalelemente der Kovarianzmatrix nicht identisch sind, ergibt sich folgendes Modell:
mit
und
Allgemeine Kovarianzmatrix bei Heteroskedastizität:
Hierbei wird angenommen, dass
eine bekannte, reelle,
positiv definite und symmetrische
Matrix der Dimension
ist.
Falls die spezielle Form der multiplikativen Heteroskedastizität vorliegt, nimmt die allgemeine Kovarianzmatrix folgende Form an:
Bei Vorliegen dieser Form der Heteroskedastizität lässt sich die verallgemeinerte Kleinste-Quadrate-Schätzung.
Scheinbar unverbundene Regression
Die scheinbar unverbundene Regression (englisch: seemingly unrelated regression, kurz SUR), welche eine Verallgemeinerung des linearen Regressionsmodells ist, beinhaltet eine Vielzahl von Regressionsgleichungen, die jede ihre eigene abhängige Variable und potentiell verschiedene erklärende Variablen hat. Jede Gleichung selbst ist eine valide lineare Regression und kann separat von den anderen geschätzt werden. Dadurch ergibt sich ein System von Gleichungen, welches scheinbar unverbunden genannt wird. Da die Störgrößenkovarianzmatrix der scheinbar unverbundenen Regression die Struktur:
hat, ergibt sich bei der scheinbar unverbundenen Regression folgender VKQ-Schätzer:
.
Es kann gezeigt werden, dass dieser VKQ-Schätzer äquivalent zum KQ-Schätzer
ist, wenn man in obige Formel den Querschnitt
der Daten einsetzt.
Beweis |
|
Anmerkungen
- ↑
bezeichnet analog zu
(Argument des Maximums) das Argument des Minimums
- ↑
Bei der gewöhnlichen Methode der kleinsten
Quadrate wird im Gegensatz zur verallgemeinerten Methode der kleinsten
Quadrate eine ungewichtete Fehlerquadratsumme
minimiert



© biancahoegel.de
Datum der letzten Änderung: Jena, den: 12.02. 2023