Benutzer:Methoden
T-Test
Der T-Test ist ein parametrisches Verfahren, eingebettet in die Inferenzstatistik und gehört in die Subkategorie der Signifikanztests. Der T-Test findet sehr häufig in den empirischen Sozialwissenschaften seine Anwendung. Dabei geht es vor allem darum, die Wahrscheinlichkeit einer empirisch ermittelten Mittelwertsdifferenz zu berechnen. Da es mehrere Tests gibt, welche eine t-verteilte Prüfgröße besitzen, wird hierbei auch vom „1-Stichproben t-Test“ gesprochen.
Somit ist der T-Test eine Methode zur Untersuchung von statistischen Hypothesen, welche zuvor operationalisiert wurden. Der T-Test liefert nur für intervallskalierte Daten zuverlässige Informationen. Hypothesen werden in diesem Zusammenhang in Alternativhypothese (H1) und Nullhypothese (H0) unterschieden, wobei Alternativhypothesen Erweiterungen und Alternativen zum bestehenden Wissen beschreiben, sowie Vermutungen zum untersuchten Gegenstand synthetisieren. Nullhypothesen manifestieren keine Zusammenhänge oder Unterschiede der Stichprobenwerte und deren Übertragbarkeit auf die Population.
Der T-Test soll statistisch die Entscheidung unterstützen, ob die festgestellten Unterschiede in einem Experiment auch in der Population vorliegen (H1), oder ob diese nur zufällig entstanden sind (H0). Somit wird aufgezeigt, ob sich zwei empirisch gefundene Mittelwerte systematisch voneinander unterscheiden und ob die zwei analysierten Gruppen tatsächlich in einem untersuchten Merkmal differieren. „Die Bildung der Differenz wird entscheidend durch die Formulierung der statistischen Hypothese mitbestimmt: Sie legt fest, welcher Wert vom anderen abgezogen wird“[1]. Demnach ist der wichtigste Wert für die Durchführung eines T-Tests die Differenz der Gruppenmittelwerte. Diese Differenz bildet den Stichprobenkennwert des T-Tests.
Vor der Durchführung von T-Tests sollte in Betracht gezogen werden, ob es sich um eine unabhängige oder abhängige Stichprobe handelt, da es hierfür getrennte Vorgehensweisen gibt. Alle drei folgenden Varianten des T-Tests lassen sich unabhängig vom Stichprobenumfang anwenden, wenn die Annahmen der Normalverteilung und der Varianzhomogenität erfüllt sind und es sich um Zufallsstichproben handelt. Das bedeutet, dass der T-Test auch bei kleinen Stichprobenumfängen angewandt werden und das hier festgelegte Signifikanzniveau einhalten kann.
1-seitiger T-Test
Der 1-seitige T-Test (auch Einstichprobenverfahren) vergleicht den Stichprobenmittelwert einer Stichprobe mit dem Populationsmittelwert. Dabei wird angenommen das:
- die Daten mit einer Zufallsstichprobe erhoben wurden
- das untersuchte Merkmal normalverteilt ist
Wenn beide Annahmen erfüllt sind kann der 1-seitige T-Test für beliebige Stichprobengrößen durchgeführt werden.
Mit dem 1-seitigen T-Test wird untersucht, ob der Mittelwert einer Zufallsstichprobe vom Umfang zu einer Grundgesamtheit mit bekannten Mittelwert 0 gehört. Die Prüfgröße berechnet sich durch:
mit der Stichprobenstandardabweichung :
Der Ablehnungsbereich des T-Wertes ist abhängig von dem Freiheitsgrad (engl. degrees of freedom ) der T-Verteilung, welcher die Form der T-Verteilung festlegt. Beim 1-seitigen T-Test wird der Freiheitsgrad der Verteilung durch bestimmt.
Bei einer ungerichteten Alternativhypothese wird die Nullhypothese abgelehnt, wenn der berechnete T-Wert den Ablehnungsbereich, welcher vom Signifikanzniveau abhängt, übersteigt oder unterschreitet. Die Nullhypothese wird abgelehnt, wenn der berechnete T-Wert größer als ist.
Die gerichtete Alternativhypothese wird abgelehnt bei , wohingegen die Alternativhypothese bei abgelehnt wird. Wobei gilt:
T-Test bei zwei Stichproben
Mit dem so genannten Zweistichprobenverfahren können nun mehrere Stichproben miteinander verglichen werden. Dies ist erforderlich, wenn zwei Mittelwerte aus zwei Datensätzen vorliegen. Es gibt dabei zwei Möglichkeiten diese Datensätze anzutreffen. Entweder entstammen beide Datensätze einer Stichprobe (abhängige Stichproben) oder sie haben ihren Ursprung in voneinander separaten Stichproben (unabhängige Stichproben). Beide Fälle werden im Folgenden angesprochen.
T-Test bei zwei abhängigen Stichproben
Der T-Test kann genutzt werden um zwei Stichproben zu vergleichen, deren Objekte jeweils paarweise einander zugeordnet sind. Es wird von abhängigen oder auch verbundenen Stichproben gesprochen. Es handelt sich um abhängige Stichproben, wenn jedem Objekt der einen Stichprobe ein Objekt der anderen Stichprobe zugeordnet ist. Dies ist z.B. bei der Beobachtung von Ehepaaren der Fall. Allerdings wird auch von abhängigen Stichproben gesprochen, wenn an einer Stichprobe zwei Messungen durchgeführt werden. Beim T-Test für abhängige Stichproben wird berücksichtigt, dass die Varianz der einen Messwertreihe die Varianz der anderen Messwertreihe beeinflusst. Die doppelte Berücksichtigung der gleichen Unterschiedlichkeit entfällt, wenn wir die jeweils einheitlichen Messwertpaare betrachten. Für jedes Messwertpaaar wird die Differenz gebildet:
Anschließend wird das arithmetische Mittel berechnet:
Zu Beachten ist, dass n die Anzahl aller Messpaare ist! Die Verteilung von Mittelwerten vieler Differenzen wird nun betrachtet. Die Streuung der Verteilung der Mittelwerte von Differenzen lautet:
Die Streuung der Differenzen kann aufgrund von Stichprobendifferenzen in der Population folgender Maßen beschrieben werden:
Die ermittelte durchschnittliche Differenz einer Untersuchung kann nach dieser Beziehung hinsichtlich ihrer statistischen Bedeutsamkeit überprüft werden.
Der ermittelte T-Wert wird mit für ein Signifikanzniveau kritischen T-Wert verglichen. Ist der beobachtete T-Wert größer, als der für ein bestimmtes Signifikanzniveau kritische T-Wert, so ist das Ergebnis signifikant.
T-Test bei zwei unabhängigen Stichproben
Sollen aus zwei Gruppen gezogene Stichproben (z.B. Männer und Frauen) hinsichtlich eines zentralen Kriteriums verglichen werden, wird der T-Test für unabhängige Stichproben genutzt. Beim Vergleich zweier unterschiedlicher Stichproben soll überprüft werden, ob diese aus derselben Population stammen, also ob die Nullhypothese zutrifft.
Voraussetzungen hierfür sind:
- Bei beiden Stichproben handelt es sich um einfache, voneinander unabhängige Zufallsstichproben.
- Die Varianzen σ12 und σ22 der zu vergleichenden Populationen sind gleich. Ist dies der Fall, so darf man für die Stichprobenvarianzen erwarten, dass s12 ≈ s22
- Das untersuchte Merkmal muss in beiden Populationen, denen die Stichproben entnommen wurden, normalverteilt sein.
Ziel ist es hier, die Mittelwertdifferenz zwischen zwei Populationen zu überprüfen, nicht - wie bei dem Test von einer Stichprobe -, dass der Mittelwert einen bestimmten Wert erreicht.
Werden zwei Stichproben gleichzeitig betrachtet, können die Werte der jeweiligen Stichprobe über die Indexschreibweise zugeordnet werden: n1 und n2 für den Stichprobenumfang und 1 und 2 für den Stichprobenmittelwert. Weiterhin werden die Mittelwerte der beiden Populationen mit 1 und 2 unterschieden.
Die Berechnung der T-Statistik bei unabhängigen Stichproben basiert grundsätzlich auf dem 1-seitigen T-Test. Da angenommen wird, dass es sich um zwei voneinander unabhängige Stichproben handelt, müssen die Elemente aus der bereits bekannten Formel verdoppelt werden.
Für ein normalverteiltes Merkmal ist die Prüfgröße auch hier T-verteilt. Die Prüfgröße T weißt 1+2 − Freiheitsgraden auf.
Ob der Wert signifikant ist, zeigt der Vergleich mit dem kritischen T-Wert aus der Tabelle der t-Verteilung.
Alternativen zum T-Test
Weitere mögliche Tests, die ebenfalls auf der Studentschen t-Verteilung basieren, sind:
- der U-Test von Mann-Whitney für unabhängige Stichproben oder der Wilcoxon-Test für abhängige Stichproben, wenn die Normalverteilungsannahme und ggfs. die Varianzhomogenität verletzt sind (diese werden auch als nicht-parametrische 1-Stichprobentests bezeichnet),
- der Welch-Test bei Varianzheterogenität (sigma σ12≠ σ22), das sog. Behrens-Fisher-Problem,
- der Gauß-Test, wenn die Standardabweichung bekannt ist, sowie
- eine Varianzanalyse, wenn mehr als zwei Stichproben auf die Gleichheit ihrer Mittelwerte hin überprüft werden.
Literatur
- Bortz, Jürgen. (2005): Statistik für Human- und Sozialwissenschaftler. 6, vollständig überarbeitete und aktualisierte Auflage mit 84 Abbildungen und 242 Tabellen. Heidelberg: Springer Medizin Verlag.
- Nachtigall, Christof; Wirtz, Markus A. (2009): Wahrscheinlichkeitsrechnung und Inferenzstatistik. 5. Auflage. Weinheim: Juventa-Verlag.
- Rasch, Björn; Friese, Malte; Hofmann, Wilhelm; Naumann, Ewald (2010): [Deskriptive Statistik, Inferenzstatistik, t-Test, Korrelationstechniken, Regressionsanalyse, Formelsammlung, Glossar, Verteilungstabellen]. Mit 25 Tabellen. 3., erw. Aufl. Berlin: Springer (Springer-LehrbuchBachelor, : Einführung in die Statistik für Psychologen und Sozialwissenschaftler / B. Rasch; M. Friese; W. Hofmann; E. Naumann ; Bd. 1).
- Pospeschill, Markus (2006): Statistische Methoden. Strukturen, Grundlagen, Anwendungen in Psychologie und Sozialwissenschaften. München: Spektrum Akademischer Verlag.
- Sachs, Lothar; Hedderich, Jürgen (2006): Angewandte Statistik: Methodensammlung mit R. Berlin: Springer Verlag.
- ↑ Rasch, Björn; Friese, Malte; Hofmann, Wilhelm; Naumann, Ewald (2010): [Deskriptive Statistik, Inferenzstatistik, t-Test, Korrelationstechniken, Regressionsanalyse, Formelsammlung, Glossar, Verteilungstabellen]. Mit 25 Tabellen. 3., erw. Aufl. Berlin: Springer (Springer-LehrbuchBachelor, : Einführung in die Statistik für Psychologen und Sozialwissenschaftler / B. Rasch; M. Friese; W. Hofmann; E. Naumann ; Bd. 1). S.46