Statistischer Test

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Hypothesentest)

Ein statistischer Test dient in der Testtheorie, einem Teilgebiet der mathematischen Statistik, dazu, anhand vorliegender Beobachtungen eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer Hypothese zu treffen. Formal ist ein Test also eine mathematische Funktion, die einem Beobachtungsergebnis eine Entscheidung zuordnet. Da die vorhandenen Daten Realisierungen von Zufallsvariablen sind, lässt sich in den meisten Fällen nicht mit Sicherheit sagen, ob eine Hypothese stimmt oder nicht. Man versucht daher, die Wahrscheinlichkeiten für Fehlentscheidungen zu kontrollieren, was einem Test zu einem vorgegebenen Signifikanzniveau entspricht. Aus diesem Grund spricht man auch von einem Hypothesentest oder einem Signifikanztest.

Interpretation eines statistischen Tests

Ein statistisches Testverfahren lässt sich im Prinzip mit einem Gerichtsverfahren vergleichen. Das Verfahren hat (meistens) den Zweck, festzustellen, ob es ausreichend Beweise gibt, den Angeklagten zu verurteilen. Es wird dabei immer von der Unschuld eines Verdächtigen ausgegangen, und solange große Zweifel an den Belegen für ein tatsächliches Vergehen bestehen, wird ein Angeklagter freigesprochen. Nur wenn die Indizien für die Schuld eines Angeklagten deutlich überwiegen, kommt es zu einer Verurteilung.

Es gibt demnach zu Beginn des Verfahrens die beiden Hypothesen „der Verdächtige ist unschuldig“ und „der Verdächtige ist schuldig“. Erstere nennt man Nullhypothese, von ihr wird vorläufig ausgegangen. Die zweite nennt man Alternativhypothese. Sie ist diejenige, die zu „beweisen“ versucht wird.

Um einen Unschuldigen nicht zu leicht zu verurteilen, wird die Hypothese der Unschuld erst dann verworfen, wenn ein Irrtum sehr unwahrscheinlich ist. Man spricht auch davon, die Wahrscheinlichkeit für einen Fehler 1. Art (also das Verurteilen eines Unschuldigen) zu kontrollieren. Naturgemäß wird durch dieses unsymmetrische Vorgehen die Wahrscheinlichkeit für einen Fehler 2. Art (also das Freisprechen eines Schuldigen) „groß“. Aufgrund der stochastischen Struktur des Testproblems lassen sich wie in einem Gerichtsverfahren Fehlentscheidungen grundsätzlich nicht vermeiden. Man versucht in der Statistik allerdings optimale Tests zu konstruieren, die die Fehlerwahrscheinlichkeiten minimieren.

Beispiel

Test auf hellseherische Fähigkeiten

Es soll versucht werden, einen Test auf hellseherische Fähigkeiten zu entwickeln.

Einer Testperson wird 25-mal die Rückseite einer rein zufällig gewählten Spielkarte gezeigt und sie wird jeweils danach gefragt, zu welcher der vier Farben (Kreuz, Pik, Herz, Karo) die Karte gehört. Die Anzahl der Treffer nennen wir .

Da die hellseherischen Fähigkeiten der Person getestet werden sollen, gehen wir vorläufig von der Nullhypothese aus, die Testperson sei nicht hellsehend. Die Alternativhypothese lautet entsprechend: Die Testperson ist hellseherisch begabt.

Was bedeutet das für unseren Test? Wenn die Nullhypothese richtig ist, wird die Testperson nur versuchen können, die jeweilige Farbe zu erraten. Für jede Karte gibt es bei vier Farben eine Wahrscheinlichkeit von , die richtige Farbe zu erraten. Wenn die Alternativhypothese richtig ist, hat die Person für jede Karte eine größere Wahrscheinlichkeit als 1/4. Wir nennen die Wahrscheinlichkeit einer richtigen Vorhersage .

Die Hypothesen lauten dann:[1]

und

.

Wenn die Testperson alle 25 Karten richtig benennt, werden wir sie als Hellseher betrachten und die Alternativhypothese annehmen. Und mit 24 oder 23 Treffern auch. Andererseits gibt es bei nur 5 oder 6 Treffern keinen Grund dazu. Aber was wäre mit 12 Treffern? Was wäre mit 17 Treffern? Wo liegt die kritische Anzahl an Treffern , von der an wir nicht mehr glauben können, es seien reine Zufallstreffer?

Das kommt darauf an, wie kritisch man genau sein will, also wie oft man eine Fehlentscheidung erster Art zulässt. Mit ist die Wahrscheinlichkeit einer solchen Fehlentscheidung, also die Wahrscheinlichkeit, dass eine nicht hellseherische Testperson nur rein zufällig 25-mal richtig geraten hat, extrem klein:

,

Hier stellt A den Ablehnbereich dar. Wir nehmen an, wenn für die Teststatistik des Test gilt, dass und lehnen ab, wenn .

Weniger kritisch, mit , erhalten wir mit der Binomialverteilung, , eine wesentlich größere Wahrscheinlichkeit:

Vor dem Test wird eine Wahrscheinlichkeit für den Fehler erster Art festgesetzt, das Signifikanzniveau . Typisch sind Werte zwischen 1 % und 5 %. Abhängig davon lässt sich (hier für den Fall ) dann so bestimmen, dass

gilt. Unter allen Zahlen , die diese Eigenschaft erfüllen, wird man zuletzt als die kleinste Zahl wählen, die diese Eigenschaft erfüllt, um die Wahrscheinlichkeit für den Fehler zweiter Art klein zu halten. In diesem konkreten Beispiel folgt: . Ein Test dieser Art heißt Binomialtest, da die Anzahl der Treffer unter der Nullhypothese binomialverteilt ist.

Mögliche Fehlentscheidungen

Auch wenn es wünschenswert ist, dass der Test aufgrund der vorliegenden Daten „richtig“ entscheidet, besteht die Möglichkeit von Fehlentscheidungen. Im mathematischen Modell bedeutet dies, dass man bei richtiger Nullhypothese und Entscheidung für die Alternative einen Fehler 1. Art (α-Fehler) begangen hat. Falls man die Nullhypothese bestätigt sieht, obwohl sie nicht stimmt, begeht man einen Fehler 2. Art (β-Fehler).

In der statistischen Praxis macht man aus diesem vordergründig symmetrischen Problem ein asymmetrisches: Man legt also ein Signifikanzniveau α fest, das eine obere Schranke für die Wahrscheinlichkeit eines Fehlers erster Art liefert. Tests mit dieser Eigenschaft heißen Test zum Niveau . Im Anschluss daran versucht man, einen optimalen Test zum vorgegebenen Niveau dadurch zu erhalten, dass man unter allen Tests zum Niveau α einen sucht, der die geringste Wahrscheinlichkeit für einen Fehler 2. Art aufweist.

Die formale Vorgehensweise

Generell geht man bei der Anwendung eines Tests in folgenden Schritten vor:

  1. Formulierung einer Nullhypothese und ihrer Alternativhypothese
  2. Wahl des geeigneten Tests (Testgröße oder Teststatistik )
  3. Bestimmung des kritischen Bereiches zum Signifikanzniveau , das vor Realisierung der Stichprobe feststehen muss. Der kritische Bereich wird aus den unter der Nullhypothese nur mit geringer Wahrscheinlichkeit auftretenden Werten der Teststatistik gebildet.
  4. Berechnung des Werts der Beobachtung der Testgröße aus der Stichprobe (je nach Testverfahren etwa den -Wert oder oder oder …).
  5. Treffen der Testentscheidung:
    • Liegt nicht in , so wird beibehalten.
    • Liegt in , so lehnt man zugunsten von ab.

Formale Definition eines statistischen Tests

Sei eine Zufallsvariable, die von einem Wahrscheinlichkeitsraum in einen Messraum abbildet. Sei zusätzlich die parametrische Verteilungsannahme, also eine Familie von Wahrscheinlichkeitsmaßen auf , wobei eine Bijektion zwischen und existiert. Dabei ist die Verteilung von . Hierbei sei der Parameterraum, der in der Praxis meist eine Teilmenge des mit ist. Zwei disjunkte[2] Teilmengen und von definieren das Testproblem:

  • ,

wobei die Nullhypothese und die Alternativhypothese bezeichnet. Dabei bilden häufig, aber nicht notwendig, die beiden Mengen und eine Zerlegung von .

Nichtrandomisierte Tests

Eine messbare Funktion heißt (nichtrandomisierter)Test. Dieser Testfunktion legt man nun folgende Interpretation zugrunde:

  • Nullhypothese ablehnen bzw. verwerfen
  • Nullhypothese beibehalten

Die Menge derjenigen Beobachtungsergebnisse , die zu einer Ablehnung von führen, heißt kritischer Bereich des Tests.

Sei nun ein Signifikanz-Niveau. Dann heißt ein Test ein Test zum Niveau für das Testproblem gegen (auch Niveau--Test), wenn für alle gilt

.

Alternativ wird auch als der Umfang des Tests bezeichnet.

In der Regel sucht man einen Test , dessen kritischer Bereich zum einen für alle die Bedingung und zum anderen für alle und alle die Optimalitätsbedingung

erfüllt.

Meistens ist eine -dimensionale Zufallsvariable mit Werten in , wobei den Stichprobenumfang bezeichnet. Die formale Definition und die praktische Durchführung eines Tests basiert häufig auf einer eindimensionalen reellwertigen Teststatistik .

Randomisierte Tests

Die Definition eines randomisierten Tests verläuft ähnlich wie beim nichtrandomisierten Test. Jedoch ist ein randomisierter Test eine messbare Funktion , der folgende Entscheidungsregel zugrunde liegt:

  • die Nullhypothese wird mit Wahrscheinlichkeit abgelehnt bzw. verworfen.

Somit hängt die Entscheidung über Beibehaltung bzw. Ablehnung von von einem weiteren Zufallsexperiment ab. Das Signifikanzniveau des Tests ist

Randomisierte Tests spielen für die Konstruktion von Tests mit exaktem Signifikanzniveau eine wichtige Rolle in der Theorie. Das kann bei nichtrandomisierten Tests im Allgemeinen nicht gewährleistet werden. In der Praxis spielen randomisierte Tests eine untergeordnete Rolle.

Asymptotisches Verhalten des Tests

In den meisten Fällen ist die exakte Wahrscheinlichkeitsverteilung der Teststatistik unter der Nullhypothese nicht bekannt. Man steht also vor dem Problem, dass kein kritischer Bereich zum vorgegebenen Niveau festgelegt werden kann. In diesen Fällen erweitert man die Klasse der zulässigen Tests auf solche, die asymptotisch das richtige Niveau besitzen. Formal bedeutet dies, dass man den Bereich so wählt, dass für alle die Bedingung

erfüllt ist. In der Regel erhält man solche asymptotischen Tests via Normalapproximation; man versucht also, die Teststatistik so zu transformieren, dass sie gegen eine Normalverteilung konvergiert.

Einfache Beispiele hierfür sind der einfache und doppelte t-Test für Erwartungswerte. Hier folgt die asymptotische Verteilung direkt aus dem zentralen Grenzwertsatz in der Anwendung auf das arithmetische Mittel. Daneben gibt es aber eine Reihe weiterer statistischer Methoden, die die Herleitung der asymptotischen Normalverteilung auch für kompliziertere Funktionale erlauben. Hierunter fällt die Deltamethode für nichtlineare, differenzierbare Transformationen asymptotisch normalverteilter Zufallsvariablen:

Sei eine differenzierbare Funktion und sei ein Schätzer -normalverteilt mit asymptotischer Kovarianzmatrix , dann hat folgende Verteilung: .

Ferner hat die nichtparametrische Deltamethode (auch: Einflussfunktionsmethode) einige Fortschritte gebracht:

Sei ein Funktional, das von der Verteilung abhängt. Sei die Gâteaux-Ableitung der Statistik bei (Einflussfunktion) und sei Hadamard-differenzierbar bezüglich , dann hat folgende Verteilung: .

Die Deltamethode erlaubt Normalverteilungsapproximationen für nichtlineare, differenzierbare Transformationen (asymptotisch) normalverteilter Zufallsvariablen, während die Einflussfunktionsmethode solche Approximationen für viele interessante Charakteristika einer Verteilung zulässt. Darunter fallen u. a. die Momente (also etwa: Varianz, Kurtosis usw.), aber auch Funktionen dieser Momente (etwa: Korrelationskoeffizient).

Eine wichtige weitere Anforderung an einen guten Test ist, dass er bei wachsendem Stichprobenumfang empfindlicher wird. In statistischen Termini bedeutet dies, dass bei Vorliegen einer konsistenten Teststatistik die Wahrscheinlichkeit dafür steigt, dass die Nullhypothese auch tatsächlich zu Gunsten der Alternativhypothese verworfen wird, falls sie nicht stimmt. Speziell wenn der Unterschied zwischen dem tatsächlichen Verhalten der Zufallsvariablen und der Hypothese sehr gering ist, wird er erst bei einem entsprechend großen Stichprobenumfang entdeckt. Ob diese Abweichungen jedoch von praktischer Bedeutung sind und überhaupt den Aufwand einer großen Stichprobe rechtfertigen, hängt von dem zu untersuchenden Aspekt ab.

Problem der Modellwahl

Die meisten mathematischen Resultate beruhen auf Annahmen, die bezüglich bestimmter Eigenschaften der beobachteten Zufallsvariablen gemacht werden. Je nach Situation werden verschiedene Teststatistiken gewählt, deren (asymptotische) Eigenschaften wesentlich von den Forderungen an die zu Grunde liegende Verteilungsfamilie abhängen. In der Regel müssen diese Modellannahmen zuvor empirisch überprüft werden, um überhaupt angewendet werden zu können. Kritisch ist dabei vor allem, dass die typischen Testverfahren strengen Voraussetzungen unterworfen sind, die in der Praxis selten erfüllt sind.

Typen und Eigenschaften von Tests

Parametrische und nichtparametrische Tests

Parametrische Tests (parametrisches Prüfverfahren)

Bei parametrischen Test wird angenommen, dass den beobachteten Daten eine Wahrscheinlichkeitsverteilung zugrunde liegt, die in einer Klasse von Verteilungen liegt, welche mittels Parametern charakterisiert werden kann.[3] Beispielsweise wird die Annahme gemacht, dass die Daten normalverteilt sind, also die Verteilung der Daten in der Klasse der Normalverteilungen liegt, welche durch die Parameter Mittelwert und Varianz charakterisiert sind. Nullhypothese und Alternativhypothese lassen sich dann häufig ebenfalls mithilfe von Parametern beschreiben.

Bei parametrischen Tests ist es wichtig, die getroffenen Voraussetzungen zu überprüfen. Die Daten sollten (annähernd) aus der angenommenen Verteilungsklasse stammen. Jedoch sind auch manche parametrischen Testverfahren bei Abweichungen von den Voraussetzungen (gerade bei großen Stichprobenumfang) robust. Beispielsweise ist der T-Test bei großen Stichprobenumfängen noch immer zuverlässig, auch wenn die Daten nicht – wie eigentlich vorausgesetzt – normalverteilt sind.

Sofern die gemachten Verteilungsannahmen nicht stimmen, sind die Ergebnisse des Tests in den meisten Fällen unbrauchbar. Speziell lässt sich die Wahrscheinlichkeit für einen Fehler zweiter Art nicht mehr sinnvoll minimieren. Man spricht dann davon, dass für viele Alternativen die Trennschärfe sinkt.

Nichtparametrische Tests

Bei nichtparametrischen Tests (auch parameterfreie Tests oder Verteilungstests genannt) wird nicht angenommen, dass die Wahrscheinlichkeitsverteilung, die den Beobachtungen zugrunde liegt, aus einer Familie von Verteilungen stammt, die sich durch Parameter charakterisieren lässt.[3] In der Regel treffen nichtparametrische Tests jedoch ebenfalls Annahmen über die zugrundeliegenden Verteilungen. Oft wird angenommen, dass den Daten eine stetige Verteilung zugrunde liegt, oder dass die Verteilung symmetrisch ist. Ein weit verbreitetes Missverständnis ist, dass nichtparametrische Tests keine Annahmen über die Wahrscheinlichkeitsverteilung der Beobachtungen treffen. Die Nullhypothese und Alternativhypothese bei nichtparametrischen Tests kann durchaus mittels Parametern formuliert werden. Beispielsweise liegt dem Wilcoxon-Vorzeichen-Rang-Test die Nullhypothese zugrunde, dass der Median der Verteilung (die als symmetrisch angenommen wird) kleiner, gleich, oder größer einem gegebenen Wert ist. Nichtparametrische Tests kommen also mit anderen Vorannahmen aus, die Menge der für Hypothese und Alternative zugelassenen Verteilungen lässt sich nicht durch einen Parameter beschreiben.

Typische Beispiele:

  • Tests auf eine bestimmte Verteilungsfunktion wie der Kolmogorow-Smirnow-Test.
  • Der Wilcoxon-Mann-Whitney-Test vergleicht die Lage zweier unabhängiger Stichproben.
  • Der Kruskal-Wallis-Test vergleicht die Lage von zwei oder mehr Gruppen unabhängiger Stichproben.
  • Der Wilcoxon-Vorzeichen-Rang-Test vergleicht die Lage zweier abhängiger Stichproben (bspw. Paarvergleiche), bzw. prüft man, ob der Medien größer, kleiner, oder gleich einem vorgegebenen Wert ist.
  • Der Friedman-Test vergleicht die Lage von drei oder mehr Gruppen abhängiger Stichproben.

Die aufgezählten Tests treffen alle Annahmen über die zugrundeliegende Wahrscheinlichkeitsverteilung der Daten, die erfüllt sein müssen. Beispielsweise geht der Wilcoxon-Vorzeichen-Rang-Test von einer symmetrischen stetigen Verteilung aus. Gerade die Voraussetzung einer stetigen Verteilung ist in der Praxis of nicht gegeben. Bei einer stetigen Verteilung würden Bindungen mit Wahrscheinlichkeit 0 auftreten. Das ist in der Praxis aufgrund von Rundungsfehlern oft nicht erfüllt. In solchen fällen greift man auf korrigierte Versionen der jeweiligen Verfahren zurück. Da parametrische Tests trotz Verletzung ihrer Annahmen häufig eine bessere Trennschärfe bieten als nichtparametrische, kommen letztere eher selten zum Einsatz.

Entscheidungsschema parametrischer/nichtparametrischer Test

Grundsätzlich wird ein parametrischer Test einer nichtparametrischen Alternative vorgezogen. Ein parametrischer Test verwendet mehr Informationen als ein nichtparametrischer Test, was die Testgüte erhöht (unter der Annahme, dass die zusätzlichen Informationen korrekt sind). Der nachfolgende Algorithmus (in Pseudocode) kann zur Auswahl eines parametrischen Tests bzw. einer nichtparametrischen Alternative angewandt werden. Wird STOP erreicht, wird der Algorithmus beendet.[4]

  1. Ist die Variable nicht kardinal skaliert?
    1. Falls ja, dann nichtparametrisch testen. STOP.
  2. Eine grafische Überprüfung der Voraussetzungen durchführen. Sind die Testvoraussetzungen deutlich verletzt?
    1. Falls ja, dann prüfen, ob man mit einer Variablentransformation die Verletzung beheben kann. Macht eine entsprechende Transformation keinen Sinn, dann nichtparametrisch testen. STOP.
  3. Sind Testverzerrungen aufgrund der Stichprobencharakteristika zu erwarten?
    1. Falls ja, dann nichtparametrisch testen. STOP.
  4. Sonst parametrisch testen. Wird die Alternativhypothese angenommen?
    1. Falls ja, dann die Alternativhypothese annehmen. STOP.
  5. Überprüfung der Voraussetzungen des Tests mittels entsprechender Tests. Ist mindestens eine Voraussetzungen nicht erfüllt?
    1. Falls ja, dann die Nullhypothese beibehalten. STOP.
  6. Zusätzlich nichtparametrisch testen. Wird das Ergebnis des parametrischen Test bestätigt?
    1. Falls ja, dann die Nullhypothese beibehalten. STOP.
  7. Es wird die Alternativhypothese angenommen. STOP.

Verteilungsfreie und verteilungsgebundene Tests

Bei verteilungsgebundenen oder parametrischen Tests[5] hängt die Teststatistik von der Verteilung der Stichprobenvariablen , also ihrer Verteilung in der Grundgesamtheit, ab. Oft wird eine Normalverteilung vorausgesetzt. Ein Beispiel für einen verteilungsgebundenen Test ist der F-Test zum Vergleich von zwei Varianzen zweier normalverteilter Grundgesamtheiten.

Bei verteilungsfreien Tests, auch nichtparametrische oder parameterfreie Tests genannt[5][6][7], hängt die Teststatistik nicht von der Verteilung der Stichprobenvariablen ab. Ein Beispiel für einen verteilungsfreien Test ist der Levene-Test zum Vergleich von zwei Varianzen zweier beliebig verteilter Grundgesamtheiten.

Konservativer Test

Bei einem konservativen Test gilt für jede Stichprobe, dass die Wahrscheinlichkeit für einen Fehler 1. Art (Annahme der Alternativhypothese als Ergebnis der Testentscheidung, obwohl die Nullhypothese wahr ist) kleiner als das vorgegebene Signifikanzniveau ist. Die Konsequenz ist, dass der Nichtablehnungsbereich der Nullhypothese breiter ist als eigentlich notwendig. Damit wird die Nullhypothese seltener abgelehnt als durch das Signifikanzniveau vorgegeben. Man verhält sich konservativ und begünstigt die Annahme der Nullhypothese.

Ein Beispiel für einen konservativen Test ist der Binomialtest (Test auf Anteilswert, z. B. vs. ). Aufgrund der Diskretheit der Teststatistik kann man nicht erreichen, dass für den kritischen Wert gilt: . Stattdessen fordert man . Man wählt also generell als kritischen Wert jenen Wert, der zu einem Signifikanzniveau von höchstens führt. Das vorgegebene Signifikanzniveau kann also praktisch erheblich unterschritten werden.

Exakter Test

Exakte Tests, sind Tests deren Annahmen in Bezug auf die Verteilung der Teststatistik bei Gültigkeit der Nullhypothese alle exakt sind. Dadurch kann der Fehler 1. Art (Ablehnung der Nullhypothese obwohl diese gültig ist) exakt kontrolliert werden.

Exakte Tests sind etwa der Fisher-Test, der Permutationstest oder der Binomialtest.

Ein Beispiel ist auch hier der Binomialtest (Test auf Anteilswert, z. B. vs. ). Aufgrund des zentralen Grenzwertsatzes kann die binomialverteilte Teststatistik mit der Normalverteilung approximiert werden, z. B. falls gilt. Unter Umständen ist in diesem Fall zur besseren Approximation die Anwendung einer Stetigkeitskorrektur notwendig.

Einseitige- und zweiseitige Tests

Im Falle eines eindimensionalen Parameters mit Werten im Parameterraum spricht man in den beiden Fällen und von einer einseitigen Alternativhypothese und im Fall von einer zweiseitigen Alternativhypothese. Dabei ist ein spezifizierter Parameter in . Im ersten Fall kann die Nullhypothese von der Form oder sein; im zweiten Fall kann die Nullhypothese von der Form oder sein; im dritten Fall ist die Nullhypothese . Man spricht in diesem Zusammenhang auch von einseitigen und zweiseitigen Testproblemen oder kürzer von einseitigen und zweiseitigen Tests.

Übersicht Tests

Die wichtigsten Tests lassen sich nach verschiedenen Kriterien charakterisieren, z. B. nach

  1. Einsatzzweck, z. B. das Testen von Parametern einer Verteilung oder der Verteilung selbst
  2. Anzahl der Stichproben
  3. Abhängigkeit oder Unabhängigkeiten der Stichproben
  4. Voraussetzungen über die Grundgesamtheit(en)

Falls nicht anders angegeben, wird bei allen Tests in der folgenden Übersicht davon ausgegangen, dass die Beobachtungen unabhängig und identisch verteilt sind. Es werden folgende Abkürzungen benutzt:

Nicht-parametrische Tests sind mit einem gelben Hintergrund gekennzeichnet.

Tests auf Lageparameter (Mittelwert, Median)

Test Test bzgl. Voraussetzung(en)
Für eine Stichprobe
Einstichproben-t-Test Mittelwert Normalverteilung in der GG oder die Verteilung genügt dem ZGS (Faustregel: Stichprobenumfang größer 30), Varianz der GG ist unbekannt
Einstichproben-Gauß-Test Mittelwert Normalverteilung in der GG oder die Verteilung genügt dem ZGS (Faustregel: Stichprobenumfang größer 30), Varianz der GG ist bekannt
Vorzeichentest Median
Für zwei unabhängige Stichproben
Zweistichproben-t-Test Mittelwerte Normalverteilung in den GGen oder die Verteilungen genügen dem ZGS (Faustregel: Gesamtstichprobenumfang mindestens 50), Varianzen in GGen sind unbekannt, aber gleich
Welch-Test Mittelwerte Normalverteilung in den GGen oder die Verteilungen genügen dem ZGS (Faustregel: Gesamtstichprobenumfang mindestens 50), Varianzen in GGen sind unbekannt und ungleich
Zweistichproben-Gauß-Test Mittelwerte Normalverteilung in den GGen oder die Verteilungen genügen dem ZGS (Faustregel: Gesamtstichprobenumfang mindestens 50), Varianzen in GGen sind bekannt und gleich
Wilcoxon-Mann-Whitney-Test Mittelwerte und Mediane Verteilungsfunktionen sind gegeneinander verschoben
Median-Test Mediane
Für zwei abhängige Stichproben
Zweistichproben-t-Test Mittelwerte Die Differenz der Beobachtungen ist normalverteilt oder genügt dem ZGS (Faustregel: Stichprobenumfänge größer 30), Varianz der Differenz ist unbekannt
Zweistichproben-Gauß-Test Mittelwerte Die Differenz der Beobachtungen ist normalverteilt oder genügt dem ZGS (Faustregel: Stichprobenumfänge größer 30), Varianz der Differenz ist bekannt
Wilcoxon-Vorzeichen-Rang-Test Mediane Die Differenz der Beobachtungen ist symmetrisch (und stetig) verteilt
Vorzeichentest Mediane
Für mehrere unabhängige Stichproben
Varianzanalyse Mittelwerte Normalverteilte GGen, Varianzen in GGen sind gleich
Kruskal-Wallis-Test Mittelwerte und Mediane Verteilungsfunktionen sind gegeneinander verschoben
Median-Test Mediane
Für mehrere abhängige Stichproben
Varianzanalyse mit wiederholten Messungen Mittelwert Normalverteilte GGen, Sphärizität
Friedman-Test Lageparameter
Quade-Test Lageparameter

Tests auf Streuung

Test Test bzgl. Voraussetzung(en)
Für eine Stichprobe
F-Test Varianz Normalverteilte GG
Für zwei unabhängige Stichproben
F-Test Varianzen Normalverteilte GGen
Für zwei oder mehr unabhängige Stichproben
χ2-Test von Bartlett Varianzen Normalverteilte GGen
Levene-Test Varianzen
Für eine multivariate Stichprobe
Bartlett-Test auf Sphärizität Kovarianzmatrix

Tests auf Zusammenhangs- und Assoziationsparameter

Test Test bzgl. Voraussetzung(en)
Für zwei unabhängige Stichproben
Chi-Quadrat-Unabhängigkeitstest Unabhängigkeit GGen sind diskret verteilt
Exakter Test nach Fisher Unabhängigkeit GGen sind diskret verteilt
Steigers Z-Test Bravais-Pearson-Korrelation GGen sind bivariat normal verteilt
Für zwei abhängige Stichproben
McNemar-Test Unabhängigkeit GGen sind dichotom

Anpassungs- oder Verteilungstests

Test Test bzgl. Voraussetzung(en)
Für eine Stichprobe
Chi-Quadrat-Anpassungstest vorg. Verteilung GG ist diskret
Anderson-Darling-Test vorg. Verteilung GG ist stetig
Kolmogorow-Smirnow-Test vorg. Verteilung GG ist stetig
Cramér-von-Mises-Test vorg. Verteilung GG ist stetig
Jarque-Bera-Test Normalverteilung GG ist stetig
Lilliefors-Test Normalverteilung GG ist stetig
Shapiro-Wilk-Test Normalverteilung GG ist stetig
Für zwei Stichproben
Zweistichproben-Kolmogorow-Smirnow-Test Identische Verteilungen GGen sind stetig
Zweistichproben-Cramér-von-Mises-Test Identische Verteilungen GGen sind stetig
Für mehrere Stichproben
Chi-Quadrat-Homogenitätstest Identische Verteilungen GGen sind diskret

Tests in der Regressions- und Zeitreihenanalyse

Test Test bzgl. Voraussetzung(en)
Lineare Regression
globaler F-Test „Bestimmtheitsmaß“ Normalverteilte Residuen
t-Test Regressionskoeffizient Normalverteilte Residuen
Goldfeld-Quandt-Test Heteroskedastizität Normalverteilte Residuen
Chow-Test Strukturbruch Normalverteilte Residuen
Zeitreihenanalyse
Durbin-Watson-Test Autokorrelation Normalverteilte Residuen, fixe Regressoren, nur Autokorrelation 1. Ordnung zulässig, keine Heteroskedastizität
Box-Pierce-Test Autokorrelation ?
Ljung-Box-Test Autokorrelation ?

Verschiedene Tests

Test Test bzgl. Voraussetzung(en)
Dichotome GG
Binomialtest Anteilswert GG ist dichotom
Run-Test Zufälligkeit GG ist dichotom
Ausreißer
Grubbs-Test Gr. oder kl. Wert GG ist normalverteilt
Walsh-Test Gr. oder kl. Wert Für ein Signifikanzniveau von 5 % (10 %) werden mindestens 220 (60) Werte benötigt
Allgemeine Tests der Maximum-Likelihood-Theorie
Likelihood-Quotienten-Test Koeffizient o. Modelle
Wald-Test Koeffizient o. Modelle
Score-Test Koeffizient o. Modelle

Sonstiges

Besondere Formen dieser Tests sind:

Multipler Test
Verwendet man etwa anstelle eines H-Tests mit mehr als zwei unabhängigen Stichproben mehrere U-Tests als Einzeltests, so werden diese Einzeltests als multipler Test angesehen. Zu beachten ist hierbei besonders, dass bei den hintereinandergeschalteten Einzeltests sich die Wahrscheinlichkeit des Fehlers 1. Art mit der Anzahl des Tests vergrößert. Bei einem Vergleich muss dies unbedingt berücksichtigt werden.
Sequentieller Test
Bei einem sequentiellen Test ist der Stichprobenumfang nicht vorgegeben. Vielmehr wird bei der laufenden Datenerfassung für jede neue Beobachtung ein Test durchgeführt, ob man aufgrund der bereits erhobenen Daten eine Entscheidung für oder gegen die Nullhypothese treffen kann (siehe Sequentieller Likelihood-Quotienten-Test).
Tests Kurzbeschreibung
Test einer Stichprobe auf Zugehörigkeit zur Normalverteilung
Parametrische Tests
Test von Cochran/Cochrans Q Test auf Gleichverteilung mehrerer verbundener dichotomer Variablen
Kendall’scher Konkordanzkoeffizient/Kendalls W Test auf Korrelation von Rangreihen
Friedman-Test Test auf Gleichheit des Lageparameters, bei unbekannter, aber identischer Verteilung im c-Stichprobenfall mit gepaarten Stichproben
Quade-Test Test auf Gleichheit des Lageparameters, bei unbekannter, aber identischer Verteilung im c-Stichprobenfall mit gepaarten Stichproben

Siehe auch

Anmerkungen

  1. Wir betrachten für den Parameterbereich [1/4,1], um zu erreichen, dass Nullhypothese und Alternativhypothese den gesamten Parameterbereich überdecken. Bei absichtlichem Nennen einer falschen Farbe könnte man zwar auch auf Hellseh-Fähigkeiten schließen, aber wir nehmen an, dass die Testperson eine möglichst hohe Trefferzahl erzielen will.
  2. George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4, S. 93
  3. a b Joachim Hartung: Statistik Lehr- und Handbuch der angewandten Statistik. München 2009, ISBN 978-3-486-71054-0.
  4. Jürgen Bortz, Christof Schuster: Statistik für Human- und Sozialwissenschaftler. 7. Auflage. Springer, Berlin 2010, ISBN 978-3-642-12769-4.
  5. a b Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer, 2008, S. 35--36.
  6. J. Hartung: Statistik: Lehr- und Handbuch der angewandten Statistik. 8. Auflage. Oldenbourg, 1991, S. 139.
  7. K. Bosch: Statistik-Taschenbuch. Oldenbourg, 1992, S. 669.

Literatur

  • Joachim Hartung, Bärbel Elpelt, Karl-Heinz Klösener: Statistik. Lehr- und Handbuch der angewandten Statistik [mit zahlreichen durchgerechneten Beispielen], 15., überarbeitete und erweiterte Auflage. Oldenbourg, München 2005, ISBN 978-3-486-59028-9.
  • Horst Rinne: Taschenbuch der Statistik. 4., vollständig überarbeitete und erweiterte Auflage. Harri Deutsch, Frankfurt am Main 2008, ISBN 978-3-8171-1827-4.

Weblinks