F-Test
Als F-Test wird eine Gruppe von statistischen Tests bezeichnet, bei denen die Teststatistik unter der Nullhypothese einer F-Verteilung folgt. Im Kontext der Regressionsanalyse wird mit dem F-Test eine Kombination von linearen (Gleichungs-)Hypothesen untersucht. Beim Spezialfall der Varianzanalyse ist mit F-Test ein Test gemeint, mithilfe dessen mit einer gewissen Konfidenz entschieden werden kann, ob zwei Stichproben aus unterschiedlichen, normalverteilten Populationen sich hinsichtlich ihrer Varianz wesentlich unterscheiden. Er dient damit unter anderem zur generellen Überprüfung von Unterschieden zwischen zwei statistischen Populationen.
Der Test geht zurück auf einen der bekanntesten Statistiker, Ronald Aylmer Fisher (1890–1962).
F-Test für zwei Stichproben
Der F-Test ist ein Begriff aus der mathematischen Statistik, er bezeichnet eine Gruppe von Hypothesentests mit F-verteilter Teststatistik. Bei der Varianzanalyse ist mit dem F-Test der Test gemeint, der für zwei Stichproben aus unterschiedlichen, normalverteilten Grundgesamtheiten die Unterschiede in den Varianzen prüft.
Der F-Test setzt zwei unterschiedliche normalverteilte
Grundgesamtheiten (Gruppen) voraus mit den Parametern
und
bzw.
und
.
Es wird vermutet, dass die Varianz in der zweiten Grundgesamtheit (Gruppe)
größer sein könnte als die in der ersten Grundgesamtheit. Um dies zu prüfen,
wird aus jeder Grundgesamtheit eine Zufallsstichprobe
gezogen, wobei die Stichprobenumfänge
und
auch unterschiedlich sein dürfen. Die Stichprobenvariablen
der ersten Grundgesamtheit und
der zweiten Grundgesamtheit müssen dabei unabhängig sowohl innerhalb einer
Gruppe als auch untereinander sein.
Für den Test der: Nullhypothese:
gegen die Alternativhypothese:
eignet sich der F-Test, dessen Teststatistik der Quotient der geschätzten
Varianzen
der beiden Stichproben ist:
Dabei sind ,
die Stichprobenvarianzen
und
,
die Stichprobenmittel
innerhalb der beiden Gruppen.
Unter der Gültigkeit der Nullhypothese ist die Teststatistik
F-verteilt mit
Freiheitsgraden
im Zähler und
im Nenner. Die Nullhypothese wird abgelehnt für zu große Werte der
Teststatistik. Man bestimmt dazu den kritischen Wert oder man
berechnet den p-Wert des Prüfwerts. Dies
geschieht am einfachsten unter Zuhilfenahme einer F-Wert-Tabelle.
Der kritische Wert K ergibt sich aus der Bedingung:
mit
dem erwünschten Signifikanzniveau.
Den p-Wert berechnet man mittels:
mit ,
dem in der Stichprobe gefundenen Wert der Teststatistik
.
Hat man K bestimmt, dann lehnt man
ab, falls
.
Hat man den p-Wert p berechnet, lehnt man
ab, falls
.
Häufig wird für das Signifikanzniveau
der Wert 5 % gewählt. Es handelt sich dabei aber nur um eine gängige
Konvention, siehe auch den Artikel Statistische
Signifikanz. Allerdings können aus der erhaltenen Wahrscheinlichkeit
keine direkten Rückschlüsse auf die Wahrscheinlichkeit der Gültigkeit der
Alternativhypothese gezogen werden.
Beispiel
Ein Unternehmen will die Herstellung eines seiner Produkte auf ein Verfahren umstellen, das bessere Qualität verspricht. Das neue Verfahren wäre zwar teurer, aber sollte eine kleinere Streuung aufweisen. Als Test werden 100 Produkte, hergestellt mit dem neuen Verfahren B, verglichen mit 120 Produkten, die mit der alten Methode A produziert worden sind. Die Produkte B weisen eine Varianz von 80 auf, und die Produkte A eine Varianz von 95. Getestet wird
gegen
Die Teststatistik hat den Prüfwert:
Dieser F-Wert stammt unter der Nullhypothese aus einer -Verteilung.
Der p-Wert des Stichprobenergebnisses ist also:
Die Nullhypothese kann also nicht abgelehnt werden, und somit wird die
Produktion nicht auf das neue Verfahren umgestellt. Dabei bleibt die Frage, ob
diese Entscheidung gerechtfertigt ist. Was wäre, wenn das neue Verfahren
tatsächlich eine kleinere Varianz bewirkt, aber aufgrund der Stichprobe ist dies
unentdeckt geblieben? Aber auch wenn die Nullhypothese abgelehnt worden wäre,
also ein signifikanter Unterschied zwischen den Varianzen aufgefunden worden
wäre, hätte doch der Unterschied unbedeutend klein sein können. Zuerst stellt
sich natürlich die Frage, ob der Test im Stande wäre, den Unterschied zu
entdecken. Dazu betrachtet man die Teststärke. Das Signifikanzniveau
ist auch der Minimalwert der Teststärke. Das führt also nicht weiter. In der
Praxis aber würde die Produktion natürlich nur dann umgestellt, wenn eine
erhebliche Verbesserung zu erwarten wäre, z.B. eine Abnahme der
Standardabweichung um 25 %. Wie wahrscheinlich ist es, dass der Test einen
solchen Unterschied entdeckt? Das ist genau der Wert der Teststärke für
.
Die Berechnung erfordert zuerst die Berechnung des kritischen Werts
.
Dazu unterstellen wir
,
und lesen aus einer Tabelle ab:
Es gilt also:
Der gesuchte Wert der Teststärke ist die Wahrscheinlichkeit, die erwähnte Abnahme der Standardabweichung zu entdecken, also:
Das bedeutet: Wenn die Varianz um 25 % oder mehr abnimmt, so wird das in mindestens 91 % der Fälle entdeckt.
F-Test für mehrere Stichprobenvergleiche
Der einfachen Varianzanalyse liegt ebenfalls der F-Test zugrunde. Hier werden die Quadratsumme der Behandlung und die Residuenquadratsumme einander gegenübergestellt.
F-Test auf Gesamtsignifikanz eines Modells
Beim globalen F-Tests (auch Overall-F-Test oder F-Test auf Gesamtsignifikanz eines Modells) wird geprüft, ob mindestens eine erklärende Variable einen Erklärungsgehalt für das Modell liefert und das Modell somit als Gesamtes signifikant ist.
Einordnung
- F-Tests sind in der Regel Beispiele für Likelihood-Quotienten-Tests.



© biancahoegel.de
Datum der letzten Änderung: Jena, den: 17.05. 2020