Zweistichproben-t-Test

Der Zweistichproben-t-Test ist ein Signifikanztest aus der mathematischen Statistik. In der üblichen Form prüft er anhand der Mittelwerte zweier Stichproben, ob die Mittelwerte zweier normalverteilter Grundgesamtheiten gleich oder verschieden voneinander sind.

Es gibt zwei Varianten des Zweistichproben-t-Tests:

Liegen zwei unabhängige Stichproben mit ungleichen Standardabweichungen in beiden Grundgesamtheiten vor, so muss der Welch-Test (s. u.) eingesetzt werden.

Grundidee

Der Zweistichproben-t-Test prüft (im einfachsten Fall) mit Hilfe der Mittelwerte {\displaystyle {\overline {x}}_{1}} und \overline {x}_{2} zweier Stichproben, ob die Erwartungswerte \mu _{1} und \mu _{2} der zugehörigen Grundgesamtheiten verschieden sind.

Die untenstehende Grafik zeigt zwei Grundgesamtheiten (schwarze Punkte) und zwei Stichproben (blaue und rote Punkte), die zufällig aus den Grundgesamtheiten gezogen wurden. Die Mittelwerte der Stichproben {\displaystyle {\overline {x}}_{1}} und \overline {x}_{2} können aus den Stichproben berechnet werden, die Erwartungswerte der Grundgesamtheiten \mu _{1} und \mu _{2} sind jedoch unbekannt. In der Grafik sind die Grundgesamtheiten so konstruiert, dass die beiden Erwartungswerte gleich sind, also \mu _{1}=\mu _{2}.

Wir vermuten nun, z.B. aufgrund historischer Ergebnisse oder theoretischer Überlegungen, dass die Erwartungswerte \mu _{1} und \mu _{2} der Grundgesamtheiten verschieden sind, und möchten dies prüfen.

Im einfachsten Fall prüft der Zweistichproben-t-Test

Wenn die Stichproben geeignet gezogen wurden, zum Beispiel als einfache Zufallsstichproben, wird der Mittelwert {\displaystyle {\overline {x}}_{1}} der Stichprobe 1 mit hoher Wahrscheinlichkeit nahe dem Erwartungswert \mu _{1} der Grundgesamtheit 1 liegen und der Mittelwert \overline {x}_{2} der Stichprobe 2 mit hoher Wahrscheinlichkeit nahe dem Erwartungswert \mu _{2} der Grundgesamtheit 2 liegen. Das heißt, der Abstand zwischen der gestrichelten roten und schwarzen Linie bzw. der gestrichelten blauen und schwarzen Linie wird mit hoher Wahrscheinlichkeit klein sein.

Die genauen mathematischen Berechnungen finden sich in den folgenden Abschnitten.

Zweistichproben-t-Test für unabhängige Stichproben

Um Erwartungswertunterschiede zwischen zwei Grundgesamtheiten mit der gleichen unbekannten Standardabweichung \sigma zu untersuchen, wendet man den Zweistichproben-t-Test an. Dafür muss jede der Grundgesamtheiten normalverteilt sein oder die Stichprobenumfänge müssen so groß sein, dass der zentrale Grenzwertsatz anwendbar ist. Für den Test zieht man eine Stichprobe x_1, \ldots, x_n vom Umfang n aus der 1. Grundgesamtheit und unabhängig davon eine Stichprobe y_{1},\ldots ,y_{m} vom Umfang m aus der 2. Grundgesamtheit. Für die zugehörigen unabhängigen Stichprobenvariablen X_1,\ldots,X_n und Y_{1},\ldots ,Y_{m} gilt dann {\displaystyle \operatorname {E} (X_{i})=\mu _{X}} und {\displaystyle \operatorname {E} (Y_{j})=\mu _{Y}} mit den Erwartungswerten \mu _{X} und \mu _{Y} der beiden Grundgesamtheiten. Wird eine Zahl \omega _{0} für die Differenz der Erwartungswerte vorgegeben, so lautet die Nullhypothese

H_{0}:\,\mu _{X}-\mu _{Y}=\omega _{0}

und die Alternativhypothese

H_{1}:\,\mu _{X}-\mu _{Y}\neq \omega _{0}.

Häufig liegt der Fall {\displaystyle \omega _{0}=0} vor, in welchem die Nullhypothese die Gleichheit der Erwartungswerte und die Alternativhypothese die Ungleichheit der Erwartungswerte postuliert.

Die Teststatistik ergibt sich zu

{\displaystyle T={\frac {{\overline {X}}-{\overline {Y}}-\omega _{0}}{S{\sqrt {{\frac {1}{n}}+{\frac {1}{m}}}}}}={\sqrt {\frac {nm}{n+m}}}{\frac {{\overline {X}}-{\overline {Y}}-\omega _{0}}{S}}.}

Darin sind {\displaystyle {\overline {X}}} und {\overline {Y}} die respektiven Stichprobenmittelwerte und

S^{2}={\frac  {(n-1)S_{X}^{2}+(m-1)S_{Y}^{2}}{n+m-2}}

die gewichtete Varianz, berechnet als gewichtetes Mittel der respektiven korrigierten Stichprobenvarianzen S_{X}^{2} und S_{Y}^{2}.

Die Teststatistik T ist unter der Nullhypothese t-verteilt mit m+n-2 Freiheitsgraden. Der Prüfwert, also die Realisierung der Teststatistik anhand der Stichprobe, berechnet sich dann als

{\displaystyle t={\sqrt {\frac {nm}{n+m}}}{\frac {{\overline {x}}-{\overline {y}}-\omega _{0}}{s}}.}

Dabei sind \overline x und \overline y die aus der Stichprobe berechneten Mittelwerte und

s^{2}={\frac  {(n-1)s_{x}^{2}+(m-1)s_{y}^{2}}{n+m-2}}

die Realisierung der gewichteten Varianz, berechnet aus den Stichprobenvarianzen s_x^2 und s_y^2. Sie wird auch als gepoolte Stichprobenvarianz bezeichnet.

Zum Signifikanzniveau \alpha wird die Nullhypothese abgelehnt zugunsten der Alternative, wenn

|t|>t(1-{\tfrac  12}\alpha ,\ n+m-2).

Dabei bezeichnet {\displaystyle t(p,\nu )} das p-Quantil einer t-Verteilung mit \nu Freiheitsgraden. Im weiteren Verlauf des Artikels werden dafür auch die Notationen {\displaystyle t(p;\nu )} und {\displaystyle t_{p;\nu }} verwendet. Im Artikel t-Verteilung wird dagegen die Notation {\displaystyle t_{\nu ;p}} für das 1-p-Quantil einer t-Verteilung mit \nu Freiheitsgraden verwendet.

Alternativ können folgende Hypothesen mit der gleichen Teststatistik T getestet werden:

Bemerkung[Bearbeiten | Quelltext bearbeiten]

Sind die Varianzen in den Grundgesamtheiten ungleich, dann muss der Welch-Test durchgeführt werden.

Beispiel 1

Zwei Düngemittelsorten sollen verglichen werden. Dazu werden 25 Parzellen gleicher Größe gedüngt, und zwar n=10 Parzellen mit Sorte A und m=15 Parzellen mit Sorte B. Angenommen wird, dass die Ernteerträge normalverteilt seien mit gleichen Varianzen. Bei Ersteren ergibt sich ein mittlerer Ernteertrag {\displaystyle {\overline {x}}=23{,}6} mit Stichprobenvarianz s_{x}^{2}=9{,}5 und bei den anderen Parzellen das Mittel {\displaystyle {\overline {y}}=20{,}1} mit Varianz s_{y}^{2}=8{,}9. Für die gewichtete Varianz berechnet man damit

s^{2}={\frac  {9\cdot 9{,}5+14\cdot 8{,}9}{10+15-2}}=9{,}135.

Daraus erhält man die Prüfgröße

t={\sqrt  {{\frac  {10\cdot 15}{10+15}}}}\cdot {\frac  {23{,}6-20{,}1}{{\sqrt  {9{,}135}}}}=2{,}837.

Das vorgegebene Signifikanzniveau sei 5 %. Es wird ein zweiseitiger Test durchgeführt. Der Wert der Prüfgröße ist größer als das 0,975-Quantil der t-Verteilung mit 10+15-2=23 Freiheitsgraden t(0{,}975;\ 23)=2{,}069. Es kann also mit einer Konfidenz von {\displaystyle 95\,\%} behauptet werden, dass ein Unterschied in der Wirkung der beiden Düngemittel besteht.

Kompaktdarstellung

Zweistichproben-t-Test für zwei unabhängige Stichproben
Voraussetzungen
  • X_{1},\ldots ,X_{n} und Y_{1}\ldots ,Y_{m} unabhängig voneinander
  • {\displaystyle X_{i}\sim {\mathcal {N}}(\mu _{X};\sigma )\,} oder X_{i}\sim (\mu _{X};\sigma )\, mit n>30
  • {\displaystyle Y_{j}\sim {\mathcal {N}}(\mu _{Y};\sigma )\,} oder Y_{j}\sim (\mu _{Y};\sigma )\, mit m>30
  • \sigma unbekannt
Hypothesen H_{0}:\mu _{X}-\mu _{Y}\leq \omega _{0}\,
H_{1}:\mu _{X}-\mu _{Y}>\omega _{0}\,
(rechtsseitig)
H_{0}:\mu _{X}-\mu _{Y}=\omega _{0}\,
H_{1}:\mu _{X}-\mu _{Y}\neq \omega _{0}\,
(zweiseitig)
H_{0}:\mu _{X}-\mu _{Y}\geq \omega _{0}\,
H_{1}:\mu _{X}-\mu _{Y}<\omega _{0}\,
(linksseitig)
Teststatistik {\displaystyle T={\sqrt {\frac {nm}{n+m}}}{\frac {{\overline {X}}-{\overline {Y}}-\omega _{0}}{S}}}

Im Fall {\displaystyle \mu _{X}-\mu _{Y}=\omega _{0}} gilt für die Teststatistik {\displaystyle T\sim t_{n+m-2}}.

Prüfwert {\displaystyle t={\sqrt {\frac {nm}{n+m}}}{\frac {{\overline {x}}-{\overline {y}}-\omega _{0}}{s}}}
mit {\displaystyle {\overline {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}, {\displaystyle {\overline {y}}={\frac {1}{m}}\sum _{i=1}^{m}y_{i}},

{\displaystyle s_{x}={\sqrt {{\frac {1}{n-1}}\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}}}},
{\displaystyle s_{y}={\sqrt {{\frac {1}{m-1}}\sum _{j=1}^{m}(y_{j}-{\overline {y}})^{2}}}}
und s={\sqrt  {{\frac  {{(n-1)s_{x}^{2}+(m-1)s_{y}^{2}}}{n+m-2}}}}
Ablehnungsbereich H_{0} \{t|t>t_{{1-\alpha ;n+m-2}}\}\, \{t|t<-t_{{1-\alpha /2;n+m-2}}\}\,
oder
\{t|t>t_{{1-\alpha /2;n+m-2}}\}\,
\{t|t<-t_{{1-\alpha ;n+m-2}}\}\,

Zweistichproben-t-Test für abhängige Stichproben

Fehler 1. Art von verbundenem und unverbundenem t-Test in Abhängigkeit von der Korrelation. Die simulierten Zufallszahlen entstammen einer bivariaten Normalverteilung mit einer Varianz von 1. Das Signifikanzniveau beträgt 5 % und die Fallzahl 60.
Güte von verbundenem und unverbundenem t-Test in Abhängigkeit von der Korrelation. Die simulierten Zufallszahlen entstammen einer bivariaten Normalverteilung mit einer Varianz von 1 und einer Differenz der Erwartungswerte von 0,4. Das Signifikanzniveau beträgt 5 % und die Fallzahl 60.

Hier sind x_{1},x_{2},\dots ,x_{n} und y_{1},y_{2},\dots ,y_{n} zwei paarweise verbundene Stichproben, die beispielsweise aus zwei Messungen an denselben Untersuchungseinheiten gewonnen wurden (Messwiederholung). Die Stichproben können auch aus anderen Gründen paarweise abhängig sein, beispielsweise wenn die x- und y-Werte Messergebnisse von Frauen bzw. Männern in einer Partnerschaft sind und Unterschiede zwischen den Geschlechtern interessieren.

Soll die Nullhypothese getestet werden, dass die beiden Erwartungswerte der zugrunde liegenden normalverteilten Grundgesamtheiten gleich sind, so können mit dem Einstichproben-t-Test die Differenzen d_{i}=x_{i}-y_{i} auf Null getestet werden. In der Praxis muss bei kleineren Stichprobenumfängen (n\leq 30) die Voraussetzung erfüllt sein, dass die Differenzen in der Grundgesamtheit normalverteilt sind. Bei hinreichend großen Stichproben verteilen sich die Differenzen der Paare annähernd normal um das arithmetische Mittel der Differenz der Grundgesamtheit. Insgesamt reagiert der t-Test auf Annahmeverletzung eher robust.

Beispiel 2

Um eine neue Therapie zur Senkung des Cholesterinspiegels zu testen, werden bei zehn Probanden vor und nach der Behandlung die Cholesterinwerte bestimmt. Es ergeben sich die folgenden Messergebnisse:

Vor der Behandlung: 223 259 248 220 287 191 229 270 245 201
Nach der Behandlung: 220 244 243 211 299 170 210 276 252 189
Differenz: 3 15 5 9 −12 21 19 −6 −7 12

Die Differenzen der Messwerte haben das arithmetische Mittel {\displaystyle {\overline {d}}=5{,}9} und die Stichprobenstandardabweichung s_{d}=11{,}3866. Das ergibt als Prüfgrößenwert

t={\sqrt  {10}}{\frac  {5{,}9}{11{,}3866}}=1{,}6385.

Es ist t(0{,}975;\ 9)=2{,}2622, also gilt |t|\leq t(0{,}975;\ 9). Somit kann die Nullhypothese, dass die Erwartungswerte der Cholesterinwerte vor und nach der Behandlung gleich sind, die Therapie also keine Wirkung hat, zum Signifikanzniveau {\displaystyle \alpha =5\,\%} nicht abgelehnt werden. Wegen t<t(0{,}95;\ 9)=1{,}8331 ist auch die einseitige Alternative, dass die Therapie den Cholesterinspiegel senkt, nicht signifikant. Wenn die Behandlung überhaupt einen Effekt hat, so ist dieser nicht groß genug, um ihn mit einem so kleinen Stichprobenumfang zu entdecken.

Kompaktdarstellung

Zweistichproben-t-Test für zwei gepaarte Stichproben
Voraussetzungen
  • D_{i}=X_{i}-Y_{i}\, unabhängig voneinander
  • {\displaystyle {\overline {D}}={\frac {1}{n}}\sum _{i=1}^{n}D_{i}\sim {\mathcal {N}}(\mu _{D};\sigma _{D}/{\sqrt {n}})} (zumindest approximativ)
Hypothesen H_{0}:\mu _{X}-\mu _{Y}\leq \omega _{0}
H_{1}:\mu _{X}-\mu _{Y}>\omega _{0}\,
(rechtsseitig)
H_{0}:\mu _{X}-\mu _{Y}=\omega _{0}\,
H_{1}:\mu _{X}-\mu _{Y}\neq \omega _{0}
(zweiseitig)
H_{0}:\mu _{X}-\mu _{Y}\geq \omega _{0}
H_{1}:\mu _{X}-\mu _{Y}<\omega _{0}\,
(linksseitig)
Teststatistik {\displaystyle T={\sqrt {n}}{\frac {{\overline {D}}-\omega _{0}}{S_{D}}}}

Im Fall {\displaystyle \mu _{X}-\mu _{Y}=\omega _{0}} gilt für die Teststatistik {\displaystyle T\sim t_{n-1}}.

Prüfwert {\displaystyle t={\sqrt {n}}{\frac {{\overline {d}}-\omega _{0}}{s_{d}}}}
mit d_{i}=x_{i}-y_{i}\,, {\displaystyle {\overline {d}}={\frac {1}{n}}\sum _{i=1}^{n}d_{i}},
und {\displaystyle s_{d}={\sqrt {{\frac {1}{n-1}}\sum _{i=1}^{n}(d_{i}-{\overline {d}})^{2}}}}
Ablehnungsbereich H_{0} [t_{{1-\alpha ;n-1}},\infty )\, (-\infty ,-t_{{1-{\frac  {\alpha }2};n-1}}]\cup [t_{{1-{\frac  {\alpha }2};n-1}},\infty )\, (-\infty ,-t_{{1-\alpha ;n-1}}]\,

Welch-Test

Beim Welch-Test, der manchmal auch Satterthwaite-Test genannt wird, wird wie beim Zweistichprobentest-t-Test für unabhängige Stichproben unterstellt, dass die beiden Stichproben normalverteilt und unabhängig voneinander sind. Jedoch wird nicht mehr gefordert, dass die Varianzen in beiden Stichproben identisch sind. Die Teststatistik wird gegenüber dem Zweistichproben-t-Test entsprechend modifiziert:

{\displaystyle T={\frac {{\overline {X}}-{\overline {Y}}-\omega _{0}}{\sqrt {{\frac {S_{X}^{2}}{n}}+{\frac {S_{Y}^{2}}{m}}}}}\approx t_{\nu }.}

Diese Teststatistik ist unter der Nullhypothese gleicher Mittelwerte nicht t-verteilt. Die wahre Verteilung kann aber (auch für endliche Stichproben!) durch eine t-Verteilung mit einer modifizierten Anzahl von Freiheitsgraden approximiert werden:

{\displaystyle \nu ={\left({\frac {s_{x}^{2}}{n}}+{\frac {s_{y}^{2}}{m}}\right)^{2} \over {\frac {1}{n-1}}\left({\frac {s_{x}^{2}}{n}}\right)^{2}+{\frac {1}{m-1}}\left({\frac {s_{y}^{2}}{m}}\right)^{2}}.}

Dabei sind s_x und s_{y} die aus der Stichprobe geschätzten Standardabweichungen der Grundgesamtheiten sowie n und m die Stichprobenumfänge.

Obwohl der Welch-Test speziell für den Fall \sigma _{X}\neq \sigma _{Y} entwickelt wurde, funktioniert der Test nicht gut, wenn mindestens eine der Verteilungen nicht-normal ist, die Fallzahlen klein und stark unterschiedlich (n\neq m) sind.

Kompaktdarstellung

Welch-Test
Voraussetzungen
  • X_{1},\ldots ,X_{n} und Y_{1}\ldots ,Y_{m} unabhängig voneinander
  • {\displaystyle X_{i}\sim {\mathcal {N}}(\mu _{X};\sigma _{X})\,} oder X_{i}\sim (\mu _{X};\sigma _{X})\, mit n>30
  • {\displaystyle Y_{j}\sim {\mathcal {N}}(\mu _{Y};\sigma _{Y})\,} oder Y_{j}\sim (\mu _{Y};\sigma _{Y})\, mit m>30
  • \sigma _{X}\neq \sigma _{Y} unbekannt
Hypothesen H_{0}:\mu _{X}-\mu _{Y}\leq \omega _{0}\,
H_{1}:\mu _{X}-\mu _{Y}>\omega _{0}\,
(rechtsseitig)
H_{0}:\mu _{X}-\mu _{Y}=\omega _{0}\,
H_{1}:\mu _{X}-\mu _{Y}\neq \omega _{0}\,
(zweiseitig)
H_{0}:\mu _{X}-\mu _{Y}\geq \omega _{0}\,
H_{1}:\mu _{X}-\mu _{Y}<\omega _{0}\,
(linksseitig)
Teststatistik {\displaystyle T={\frac {{\overline {X}}-{\overline {Y}}-\omega _{0}}{S}}\approx t_{\nu }}

Im Fall {\displaystyle \mu _{X}-\mu _{Y}=\omega _{0}} gilt {\displaystyle T\approx t_{\nu }}.

Prüfwert {\displaystyle t={\frac {{\overline {x}}-{\overline {y}}-\omega _{0}}{s}}}


mit {\displaystyle {\overline {x}}={\frac {1}{n}}\sum _{i=1}^{n}x_{i}}, {\displaystyle {\overline {y}}={\frac {1}{m}}\sum _{i=1}^{m}y_{i}},
{\displaystyle s_{x}^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}},
{\displaystyle s_{y}^{2}={\frac {1}{m-1}}\sum _{j=1}^{m}(y_{j}-{\overline {y}})^{2}},
s={\sqrt  {{\frac  {s_{x}^{2}}{n}}+{\frac  {s_{y}^{2}}{m}}}} und
\nu ={\frac  {\left({\frac  {s_{x}^{2}}{n}}+{\frac  {s_{y}^{2}}{m}}\right)^{2}}{{\frac  {\left({\frac  {s_{x}^{2}}{n}}\right)^{2}}{n-1}}+{\frac  {\left({\frac  {s_{y}^{2}}{m}}\right)^{2}}{m-1}}}}.
Ablehnungsbereich H_{0} \{t|t>t_{{1-\alpha ;\nu }}\}\, \{t|t<-t_{{1-\alpha /2;\nu }}\}\,
oder
\{t|t>t_{{1-\alpha /2;\nu }}\}\,
\{t|t<-t_{{1-\alpha ;\nu }}\}\,

Alternative Tests

Der t-Test wird, wie oben ausgeführt, zum Testen von Hypothesen über Erwartungswerte einer oder zweier Stichproben aus normalverteilten Grundgesamtheiten mit unbekannter Standardabweichung verwendet.

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 04.10. 2023