Statistischer Test
Ein statistischer Test dient in der Testtheorie, einem Teilgebiet der mathematischen Statistik dazu, anhand vorliegender Beobachtungen eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer Hypothese zu treffen. Formal ist ein Test also eine mathematische Funktion, die einem Beobachtungsergebnis eine Entscheidung zuordnet. Da die vorhandenen Daten Realisierungen von Zufallsvariablen sind, lässt sich in den meisten Fällen nicht mit Sicherheit sagen, ob eine Hypothese stimmt oder nicht. Man versucht daher, die Wahrscheinlichkeiten für Fehlentscheidungen zu kontrollieren, was einem Test zu einem vorgegebenen Signifikanzniveau entspricht. Aus diesem Grund spricht man auch von einem Hypothesentest oder einem Signifikanztest.
Interpretation eines statistischen Tests
Ein statistisches Testverfahren lässt sich im Prinzip mit einem Gerichtsverfahren vergleichen. Das Verfahren hat (meistens) den Zweck, festzustellen, ob es ausreichend Beweise gibt, den Angeklagten zu verurteilen. Es wird dabei immer von der Unschuld eines Verdächtigen ausgegangen, und solange große Zweifel an den Belegen für ein tatsächliches Vergehen bestehen, wird ein Angeklagter freigesprochen. Nur wenn die Indizien für die Schuld eines Angeklagten deutlich überwiegen, kommt es zu einer Verurteilung.
Es gibt demnach zu Beginn des Verfahrens die beiden Hypothesen
„der Verdächtige ist unschuldig“ und
„der Verdächtige ist schuldig“. Erstere nennt man Nullhypothese, von
ihr wird vorläufig ausgegangen. Die zweite nennt man Alternativhypothese.
Sie ist diejenige, die zu „beweisen“ versucht wird.
Um einen Unschuldigen nicht zu leicht zu verurteilen, wird die Hypothese der Unschuld erst dann verworfen, wenn ein Irrtum sehr unwahrscheinlich ist. Man spricht auch davon, die Wahrscheinlichkeit für einen Fehler 1. Art (also das Verurteilen eines Unschuldigen) zu kontrollieren. Naturgemäß wird durch dieses unsymmetrische Vorgehen die Wahrscheinlichkeit für einen Fehler 2. Art (also das Freisprechen eines Schuldigen) „groß“. Aufgrund der stochastischen Struktur des Testproblems lassen sich wie in einem Gerichtsverfahren Fehlentscheidungen grundsätzlich nicht vermeiden. Man versucht in der Statistik allerdings optimale Tests zu konstruieren, die die Fehlerwahrscheinlichkeiten minimieren.
Ein einführendes Beispiel
Es soll versucht werden, einen Test auf hellseherische Fähigkeiten zu entwickeln.
Einer Testperson wird 25-mal die Rückseite einer rein zufällig gewählten
Spielkarte gezeigt und sie wird jeweils danach gefragt, zu welcher der vier
Farben (Kreuz, Pik, Herz, Karo) die Karte gehört. Die Anzahl der Treffer nennen
wir .
Da die hellseherischen Fähigkeiten der Person getestet werden sollen, gehen wir vorläufig von der Nullhypothese aus, die Testperson sei nicht hellsehend. Die Alternativhypothese lautet entsprechend: Die Testperson ist hellseherisch begabt.
Was bedeutet das für unseren Test? Wenn die Nullhypothese richtig ist, wird
die Testperson nur versuchen können, die jeweilige Farbe zu erraten. Für jede
Karte gibt es bei vier Farben eine Wahrscheinlichkeit von 1/4, die richtige
Farbe zu erraten. Wenn die Alternativhypothese richtig ist, hat die Person für
jede Karte eine größere Wahrscheinlichkeit als 1/4. Wir nennen die
Wahrscheinlichkeit einer richtigen Vorhersage .
Die Hypothesen lauten dann:[1]
und
.
Wenn die Testperson alle 25 Karten richtig benennt, werden wir sie als
Hellseher betrachten und natürlich die Nullhypothese ablehnen. Und mit 24 oder
23 Treffern auch. Andererseits gibt es bei nur 5 oder 6 Treffern keinen Grund
dazu. Aber was wäre mit 12 Treffern? Was ist mit 17 Treffern? Wo liegt die
kritische Anzahl an Treffern ,
von der an wir nicht mehr glauben können, es seien reine Zufallstreffer?
Wie bestimmen wir also den kritischen Wert ?
Mit
(also dass wir nur hellseherische Fähigkeiten erkennen wollen, wenn alle Karten
richtig erkannt worden sind) ist man deutlich kritischer als mit
.
Im ersten Fall wird man eine Person als Hellseher ansehen, im zweiten Fall weit
weniger.
In der Praxis kommt es also darauf an, wie kritisch man genau sein will, also
wie oft man eine Fehlentscheidung erster Art zulässt. Mit
ist die Wahrscheinlichkeit einer solchen Fehlentscheidung, also die
Wahrscheinlichkeit, dass eine nicht hellseherische Testperson nur rein zufällig
25-mal richtig geraten hat:
,
also sehr klein. Hier stellt A den Ablehnbereich dar. Wir
nehmen
an, wenn für die Teststatistik
des Test gilt, dass
und lehnen
ab, wenn
.
Weniger kritisch, mit ,
erhalten wir mit der Binomialverteilung,
,
eine wesentlich größere Wahrscheinlichkeit.
Vor dem Test wird eine Wahrscheinlichkeit für den Fehler erster Art
festgesetzt. Typisch sind Werte zwischen 1 % und 5 %. Abhängig davon
lässt sich (hier im Falle eines Signifikanzniveaus
von 1 %) dann
so bestimmen, dass
gilt. Unter allen Zahlen ,
die diese Eigenschaft erfüllen, wird man zuletzt
als die kleinste Zahl wählen, die diese Eigenschaft erfüllt, um die
Wahrscheinlichkeit für den Fehler zweiter Art klein zu halten. In diesem
konkreten Beispiel folgt:
.
Ein Test dieser Art heißt Binomialtest,
da die Anzahl der Treffer unter der Nullhypothese binomialverteilt ist.
Mögliche Fehlentscheidungen
Auch wenn es wünschenswert ist, dass der Test aufgrund der vorliegenden Daten „richtig“ entscheidet, besteht die Möglichkeit von Fehlentscheidungen. Im mathematischen Modell bedeutet dies, dass man bei richtiger Nullhypothese und Entscheidung für die Alternative einen Fehler 1. Art (α-Fehler) begangen hat. Falls man die Nullhypothese bestätigt sieht, obwohl sie nicht stimmt, begeht man einen Fehler 2. Art (β-Fehler).
In der statistischen Praxis macht man aus diesem vordergründig symmetrischen
Problem ein asymmetrisches: Man legt also ein Signifikanzniveau α fest, das eine
obere Schranke für die Wahrscheinlichkeit eines Fehlers erster Art liefert.
Tests mit dieser Eigenschaft heißen Test zum Niveau >.
Im Anschluss daran versucht man, einen optimalen Test zum vorgegebenen Niveau
dadurch zu erhalten, dass man unter allen Tests zum Niveau α einen sucht, der
die geringste Wahrscheinlichkeit für einen Fehler 2. Art aufweist.
Die formale Vorgehensweise
Generell geht man bei der Anwendung eines Tests in folgenden Schritten vor:
- Formulierung einer Nullhypothese
und ihrer Alternativhypothese
- Wahl des geeigneten Tests (Testgröße oder Teststatistik
)
- Bestimmung des kritischen Bereiches
zum Signifikanzniveau
, das vor Realisierung der Stichprobe feststehen muss. Der kritische Bereich wird aus den unter der Nullhypothese nur mit geringer Wahrscheinlichkeit auftretenden Werten der Teststatistik gebildet.
- Berechnung des Werts der Beobachtung
der Testgröße
aus der Stichprobe (je nach Testverfahren etwa den
-Wert oder
oder
oder
…).
- Treffen der Testentscheidung:
- Liegt
nicht in
, so wird
beibehalten.
- Liegt
in
, so lehnt man
zugunsten von
ab.
- Liegt
Formale Definition eines statistischen Testes
Sei
eine Zufallsvariable,
die von einem Wahrscheinlichkeitsraum
in einen Messraum
abbildet. Sei zusätzlich
die parametrische Verteilungsannahme, also eine Familie von Wahrscheinlichkeitsmaßen
auf
,
wobei eine Bijektion zwischen
und
existiert. Dabei ist
die Verteilung
von
.
Hierbei sei
der Parameterraum, der in der Praxis meist eine Teilmenge des
mit
ist. Zwei disjunkte
Teilmengen
und
von
definieren das Testproblem:
,
wobei
die Nullhypothese und
die Alternativhypothese bezeichnet. Dabei bilden häufig, aber nicht
notwendig, die beiden Mengen
und
eine Zerlegung von
.
Eine messbare
Funktion
heißt Test. Dieser Testfunktion
legt man nun folgende Interpretation zugrunde:
Nullhypothese
ablehnen bzw. verwerfen
Nullhypothese
beibehalten
Die Menge
derjenigen Beobachtungsergebnisse
,
die zu einer Ablehnung von
führen, heißt kritischer Bereich des Tests.
Sei nun
ein Signifikanz-Niveau. Dann heißt ein Test
ein Test zum Niveau
für das Testproblem
gegen
(auch Niveau-
-Test),
wenn für alle
gilt
.
Alternativ wird
auch als der Umfang des Tests bezeichnet.
In der Regel sucht man einen Test ,
dessen kritischer Bereich
für alle
,
die für alle
die Bedingung
erfüllen, und für alle
die Optimalitätsbedingung
erfüllt.
Meistens ist
eine
-dimensionale
Zufallsvariable mit Werten in
,
wobei
den Stichprobenumfang bezeichnet. Die formale Definition und die praktische
Durchführung eines Tests basiert häufig auf einer eindimensionalen reellwertigen
Teststatistik
.
Asymptotisches Verhalten des Tests
In den meisten Fällen ist die exakte Wahrscheinlichkeitsverteilung der
Teststatistik unter der Nullhypothese nicht bekannt. Man steht also vor dem
Problem, dass kein kritischer Bereich zum vorgegebenen Niveau festgelegt werden
kann. In diesen Fällen erweitert man die Klasse der zulässigen Tests auf solche,
die asymptotisch das richtige
Niveau besitzen. Formal bedeutet dies, dass man den Bereich K so wählt,
dass für alle
die Bedingung
erfüllt ist. In der Regel erhält man solche asymptotischen Tests via Normalapproximation; man versucht also, die Teststatistik so zu transformieren, dass sie gegen eine Normalverteilung konvergiert.
Einfache Beispiele hierfür sind der einfache und doppelte t-Test für Erwartungswerte. Hier folgt die asymptotische Verteilung direkt aus dem zentralen Grenzwertsatz in der Anwendung auf das arithmetische Mittel. Daneben gibt es aber eine Reihe weiterer statistischer Methoden, die die Herleitung der asymptotischen Normalverteilung auch für kompliziertere Funktionale erlauben. Hierunter fällt die Deltamethode für nichtlineare, differenzierbare Transformationen asymptotisch normalverteilter Zufallsvariablen:
Sei
eine differenzierbare Funktion und sei ein Schätzer
-normalverteilt
mit asymptotischer Kovarianzmatrix
,
dann hat
folgende Verteilung:
.
Ferner hat die nichtparametrische Deltamethode (auch: Einflussfunktionsmethode) einige Fortschritte gebracht:
Sei
ein Funktional, das von der
Verteilung
abhängt. Sei
die Gâteaux-Ableitung
der Statistik bei
(Einflussfunktion) und sei
Hadamard-differenzierbar
bezüglich
,
dann hat
folgende Verteilung:
.
Die Deltamethode erlaubt Normalverteilungsapproximationen für nichtlineare, differenzierbare Transformationen (asymptotisch) normalverteilter Zufallsvariablen, während die Einflussfunktionsmethode solche Approximationen für viele interessante Charakteristika einer Verteilung zulässt. Darunter fallen u.a. die Momente (also etwa: Varianz, Kurtosis usw.), aber auch Funktionen dieser Momente (etwa: Korrelationskoeffizient).
Eine wichtige weitere Anforderung an einen guten Test ist, dass er bei wachsendem Stichprobenumfang empfindlicher wird. In statistischen Termini bedeutet dies, dass bei Vorliegen einer konsistenten Teststatistik die Wahrscheinlichkeit dafür steigt, dass die Nullhypothese auch tatsächlich zu Gunsten der Alternativhypothese verworfen wird, falls sie nicht stimmt. Speziell wenn der Unterschied zwischen dem tatsächlichen Verhalten der Zufallsvariablen und der Hypothese sehr gering ist, wird er erst bei einem entsprechend großen Stichprobenumfang entdeckt. Ob diese Abweichungen jedoch von praktischer Bedeutung sind und überhaupt den Aufwand einer großen Stichprobe rechtfertigen, hängt von dem zu untersuchenden Aspekt ab.
Problem der Modellwahl
Die meisten mathematischen Resultate beruhen auf Annahmen, die bezüglich bestimmter Eigenschaften der beobachteten Zufallsvariablen gemacht werden. Je nach Situation werden verschiedene Teststatistiken gewählt, deren (asymptotische) Eigenschaften wesentlich von den Forderungen an die zu Grunde liegende Verteilungsfamilie abhängen. In der Regel müssen diese Modellannahmen zuvor empirisch überprüft werden, um überhaupt angewendet werden zu können. Kritisch ist dabei vor allem, dass die typischen Testverfahren strengen Voraussetzungen unterworfen sind, die in der Praxis selten erfüllt sind.
Typen und Eigenschaften von Tests
Parametrische und nichtparametrische Tests
Parametrische Tests (parametrisches Prüfverfahren)
Bei Parametertests interessieren konkrete Werte wie Varianz oder Mittelwert. Ein parametrisches Prüfverfahren macht also Aussagen über Grundgesamtheitsparameter oder die in der Verteilungsfunktion einer Untersuchungsvariablen auftretenden Konstanten. Dazu müssen alle Parameter der Grundgesamtheit bekannt sein (was oft nicht gegeben ist). Bei einem Parametertest hat jede der denkbaren Stichproben die gleiche Realisierungschance. Parametrische Tests gehen davon aus, dass die beobachteten Stichprobendaten einer Grundgesamtheit entstammen, in der die Variablen oder Merkmale ein bestimmtes Skalenniveau und eine bestimmte Wahrscheinlichkeitsverteilung aufweisen, häufig Intervallskalenniveau und Normalverteilung. In diesen Fällen ist man also daran interessiert, Hypothesen über bestimmte Parameter der Verteilung zu testen.
Sofern die gemachten Verteilungsannahmen nicht stimmen, sind die Ergebnisse des Tests in den meisten Fällen unbrauchbar. Speziell lässt sich die Wahrscheinlichkeit für einen Fehler zweiter Art nicht mehr sinnvoll minimieren. Man spricht dann davon, dass für viele Alternativen die Trennschärfe sinkt.
Nichtparametrische Tests
Bei nichtparametrischen
Tests (auch parameterfreie Tests oder Verteilungstests genannt) wird der
Typ der Zufallsverteilung überprüft: Man entscheidet, ob eine aus
Beobachtungen oder Häufigkeitsverteilungen bestehende Nullhypothese, die man aus
einer Zufallsstichprobe gezogen hat, mit einer Null-Hypothese vereinbar ist, die
man über die Verteilung in der Grundgesamtheit aufgestellt hat.
Nichtparametrische Tests kommen also mit anderen Vorannahmen aus, die Menge der
für Hypothese und Alternative zugelassenen Verteilungen lässt sich nicht durch
einen Parameter beschreiben.
Typische Beispiele:
- Tests auf eine bestimmte Verteilungsfunktion wie der Kolmogorow-Smirnow-Test.
- Der Wilcoxon-Mann-Whitney-Test vergleicht die Lage zweier unabhängiger Stichproben.
- Der Kruskal-Wallis-Test vergleicht die Lage von drei oder mehr Gruppen unabhängiger Stichproben.
- Der Wilcoxon-Vorzeichen-Rang-Test vergleicht die Lage zweier abhängiger Stichproben (bspw. Paarvergleiche)
- Der Friedman-Test vergleicht die Lage von drei oder mehr Gruppen abhängiger Stichproben.
Da jedoch parametrische Tests trotz Verletzung ihrer Annahmen häufig eine bessere Trennschärfe bieten als nichtparametrische, kommen letztere eher selten zum Einsatz.
Entscheidungsschema parametrischer/nichtparametrischer Test
Grundsätzlich wird ein parametrischer Test einer nichtparametrischen Alternative vorgezogen. Ein parametrischer Test verwendet mehr Informationen als ein nichtparametrischer Test, was die Testgüte erhöht (unter der Annahme, dass die zusätzlichen Informationen korrekt sind). Der nachfolgende Algorithmus (in Pseudocode) kann zur Auswahl eines parametrischen Tests bzw. einer nichtparametrischen Alternative angewandt werden. Wird STOP erreicht, wird der Algorithmus beendet.
- Ist die Variable nicht kardinal
skaliert?
- Falls ja, dann nichtparametrisch testen. STOP.
- Eine grafische Überprüfung der Voraussetzungen durchführen. Sind die
Testvoraussetzungen deutlich verletzt?
- Falls ja, dann prüfen, ob man mit einer Variablentransformation die Verletzung beheben kann. Macht eine entsprechende Transformation keinen Sinn, dann nichtparametrisch testen. STOP.
- Sind Testverzerrungen aufgrund der Stichprobencharakteristika zu erwarten?
- Falls ja, dann nichtparametrisch testen. STOP.
- Sonst parametrisch testen. Wird die Alternativhypothese
angenommen?
- Falls ja, dann die Alternativhypothese
annehmen. STOP.
- Falls ja, dann die Alternativhypothese
- Überprüfung der Voraussetzungen des Tests mittels entsprechender Tests.
Ist mindestens eine Voraussetzungen nicht erfüllt?
- Falls ja, dann die Nullhypothese
beibehalten. STOP.
- Falls ja, dann die Nullhypothese
- Zusätzlich nichtparametrisch testen. Wird das Ergebnis des parametrischen
Test bestätigt?
- Falls ja, dann die Nullhypothese
beibehalten. STOP.
- Falls ja, dann die Nullhypothese
- Es wird die Alternativhypothese
angenommen. STOP.
Verteilungsfreie und verteilungsgebundene Tests
Bei verteilungsgebundenen oder parametrischen Tests
hängt die Teststatistik
von der Verteilung der Stichprobenvariablen
,
also ihrer Verteilung in der Grundgesamtheit, ab. Oft wird eine Normalverteilung
vorausgesetzt. Ein Beispiel für einen verteilungsgebundenen Test ist der F-Test zum
Vergleich von zwei Varianzen zweier normalverteilter Grundgesamtheiten.
Bei verteilungsfreien Tests, auch nichtparametrische oder
parameterfreie Tests genannt,
hängt die Teststatistik
nicht von der Verteilung der Stichprobenvariablen
ab. Ein Beispiel für einen verteilungsfreien Test ist der Levene-Test zum Vergleich
von zwei Varianzen zweier beliebig verteilter Grundgesamtheiten.
Konservativer Test
Bei einem konservativen Test gilt für jede Stichprobe, dass die
Wahrscheinlichkeit für einen Fehler 1. Art (Annahme der Alternativhypothese als
Ergebnis der Testentscheidung, obwohl die Nullhypothese wahr ist) kleiner als
das vorgegebene Signifikanzniveau
ist. Die Konsequenz ist, dass der Nichtablehnungsbereich der Nullhypothese
breiter ist als eigentlich notwendig. Damit wird die Nullhypothese seltener
abgelehnt als durch das Signifikanzniveau
vorgegeben. Man verhält sich konservativ und begünstigt die Annahme der
Nullhypothese.
Ein Beispiel für einen konservativen Test ist der Binomialtest (Test auf
Anteilswert, z.B.
vs.
).
Aufgrund der Diskretheit der Teststatistik
kann man nicht erreichen, dass für den kritischen Wert
gilt:
.
Stattdessen fordert man
.
Man wählt also generell als kritischen Wert jenen Wert, der zu einem
Signifikanzniveau von höchstens
führt. Das vorgegebene Signifikanzniveau kann also praktisch erheblich
unterschritten werden.
Exakter Test
Bei manchen Tests wird die Verteilung der Teststatistik – in der Regel zur einfacheren Berechnung – durch eine andere Verteilung approximiert. Verwendet man dagegen die exakte Stichprobenverteilung, so spricht man von einem exakten Test. Exakte Tests sind etwa der Fisher-Test oder der Binomialtest.
Ein Beispiel ist auch hier der Binomialtest (Test auf Anteilswert, z.B.
vs.
).
Aufgrund des zentralen
Grenzwertsatzes kann die binomialverteilte Teststatistik
mit der Normalverteilung approximiert werden, z.B. falls
gilt. Unter Umständen ist in diesem Fall zur besseren Approximation die
Anwendung einer Stetigkeitskorrektur
notwendig.
Einseitige- und zweiseitige Tests
Im Falle eines eindimensionalen Parameters
mit Werten im Parameterraum
spricht man in den beiden Fällen
und
von einer einseitigen Alternativhypothese und im Fall
von einer zweiseitigen Alternativhypothese. Dabei ist
ein spezifizierter Parameter in
.
Im ersten Fall kann die Nullhypothese von der Form
oder
sein; im zweiten Fall kann die Nullhypothese von der Form
oder
sein; im dritten Fall ist die Nullhypothese
.
Man spricht in diesem Zusammenhang auch von einseitigen und
zweiseitigen Testproblemen oder kürzer von einseitigen und
zweiseitigen Tests.
Übersicht Tests
Die wichtigsten Tests lassen sich nach verschiedenen Kriterien charakterisieren, z.B. nach
- Einsatzzweck, zB. das Testen von Parametern einer Verteilung oder der Verteilung selbst
- Anzahl der Stichproben
- Abhängigkeit oder Unabhängigkeiten der Stichproben
- Voraussetzungen über die Grundgesamtheit(en)
Falls nicht anders angegeben, wird bei allen Tests in der folgenden Übersicht davon ausgegangen, dass die Beobachtungen unabhängig und identisch verteilt sind. Es werden folgende Abkürzungen benutzt:
- GG: Grundgesamtheit
- GGen: Grundgesamtheiten
- ZGS: Zentraler Grenzwertsatz
Nicht-parametrische Tests sind mit einem gelben Hintergrund gekennzeichnet.
Tests auf Lageparameter (Mittelwert, Median)
Test | Test bzgl. | Voraussetzung(en) |
---|---|---|
Für eine Stichprobe | ||
Einstichproben-t-Test | Mittelwert | Normalverteilung in der GG oder die Verteilung genügt dem ZGS (Faustregel: Stichprobenumfang größer 30), Varianz der GG ist unbekannt |
Einstichproben-Gauß-Test | Mittelwert | Normalverteilung in der GG oder die Verteilung genügt dem ZGS (Faustregel: Stichprobenumfang größer 30), Varianz der GG ist bekannt |
Zweistichproben-Gauß-Test | Mittelwerte | Normalverteilung in den GGen oder die Verteilungen genügen dem ZGS (Faustregel: Gesamtstichprobenumfang mindestens 50), Varianzen in GGen sind bekannt und gleich |
Zweistichproben-Gauß-Test | Mittelwerte | Die Differenz der Beobachtungen ist normalverteilt oder genügt dem ZGS (Faustregel: Stichprobenumfänge größer 30), Varianz der Differenz ist bekannt |
Für mehrere unabhängige Stichproben | ||
Varianzanalyse | Mittelwerte | Normalverteilte GGen, Varianzen in GGen sind gleich |
Für mehrere abhängige Stichproben | ||
Varianzanalyse mit wiederholten Messungen | Mittelwert | Normalverteilte GGen, Sphärizität |
Tests auf Streuung
Test | Test bzgl. | Voraussetzung(en) |
---|---|---|
Für eine Stichprobe | ||
F-Test | Varianz | Normalverteilte GG |
Für zwei unabhängige Stichproben | ||
F-Test | Varianzen | Normalverteilte GGen |
Tests in der Regressions- und Zeitreihenanalyse
Test | Test bzgl. | Voraussetzung(en) |
---|---|---|
Lineare Regression | ||
globaler F-Test | „Bestimmtheitsmaß“ | Normalverteilte Residuen |
t-Test | Regressionskoeffizient | Normalverteilte Residuen |
Verschiedene Tests
Test | Test bzgl. | Voraussetzung(en) |
---|---|---|
Dichotome GG | ||
Binomialtest | Anteilswert | GG ist dichotom |
Anmerkungen
- ↑
Wir betrachten für
den Parameterbereich [1/4,1], um zu erreichen, dass Nullhypothese und Alternativhypothese den gesamten Parameterbereich überdecken. Bei absichtlichem Nennen einer falschen Farbe könnte man zwar auch auf Hellseh-Fähigkeiten schließen, aber wir nehmen an, dass die Testperson eine möglichst hohe Trefferzahl erzielen will.



© biancahoegel.de
Datum der letzten Änderung: Jena, den: 03.02. 2022