2 –Test Anwendungen
Der 2 –Test ist eine Klasse von Verfahren für Nominaldaten, wobei die Verteilung der beobachteten Häufigkeiten auf zwei mehrfach gestufte Variablen betrachtet wird. Mit dem 2 –Test berechnet man, ob es Unterschiede zwischen den beobachteten und den nach der Nullhypothese zu erwartenden Unterschieden gibt.
Voraussetzungen
Es müssen Beobachtungen aus unabhängigen Zufallsstichproben vorliegen, wobei die erwarteten Häufigkeiten in den Zellen nicht zu klein sein dürfen. Das Verfahren sollte nur eingesetzt werden, wenn:
1. weniger als 15 aller Zellen eine erwartete Häufigkeit kleiner 5 haben und 2. keine Zelle eine erwartete Häufigkeit kleiner 1 aufweist.
Beispiel
In der Kieler Innenstadt wurden Männer und Frauen beobachtet und gezählt, wie viele bei Regen einen Schirm benutzen oder nicht.
Fragen
Was sind Nominaldaten bzw. nominalskalierte Daten?
Was ist eine zweifach gestufte Variable?
Warum können wir für die obige Stichprobe keinen t-Test oder z-Test rechnen?
Tabelle I: 4-Felder-Tafel der Beobachtungen im Beispiel
Frauen Männer Zeilensumme
mit Schirm 30 15 45
ohne Schirm 20 55 75
Spaltensumme 50 70 120
Frage:
Ist der Unterschied in den Häufigkeiten der Schirmbenutzung bei Frauen und Männern signifikant unterschiedlich oder zufällig?
Herleitung:
Beim 2 –Test werden zunächst bei Gültigkeit der Nullhypothese über die Randsummen die bei Gleichverteilung zu erwartenden Häufigkeiten geschätzt. Es ergibt sich die folgende Tabelle:
Tabelle II: Darstellung der Randsummen
Frauen Männer Zeilensumme
mit Schirm 45
ohne Schirm 75
Spaltensumme 50 70 120
Die nach der Nullhypothese zu erwartenden Häufigkeiten für die einzelnen Zeilen sind über die folgende Gleichung zu berechnen:
fe(j,k) = f(erwartetes j,k)
= 𝐴𝑛𝑧𝑎 ℎ𝑙 𝐴𝑗𝑁 * 𝐴𝑛𝑧𝑎 ℎ𝑙 𝐵𝑘𝑁 * N
= 𝑍𝑒𝑖𝑙𝑒𝑛𝑠𝑢𝑚𝑚𝑒 𝑗 ∗𝑆𝑝𝑎𝑙𝑡𝑒𝑛𝑠𝑢𝑚𝑚𝑒 (𝑘) 𝑁
Die Anzahl Aj beschreibt die absolute erwartete Häufigkeit für die j-te Kategorie des ersten Merkmals und ist somit die absolute erwartete Häufigkeit für das Tragen eines Schirms mit 45 Beobachtungen. Analog dazu beschreibt die Abzahl Bk die Häufigkeiten für das Geschlecht.
So ergeben sich pro Zelle die folgenden Erwartungswerte:
Frauen Männer Zeilensumme
mit Schirm 45∗50
120 = 18,75 45∗70120 = 26,25 45 ohne Schirm 75∗50
120 = 31,25 75∗70120 = 43,75 75
Spaltensumme 50 70 120
Vergleicht man die Häufigkeiten fe(j,k) mit den beobachteten Werten fb(j,k), so zeigt sich Zellenweise eine Differenz. Mit Hilfe des 2 –Tests kann nun bestimmt werden, ob diese Unterschiede signifikant sind.
Anmerkung
Der hier vorgestellte Vierfelder-2 –Test ist auf beliebig viele Felder erweiterbar. So könnte auch untersucht werden, ob sich Psychologie-, Jura- und Germanistikstudierende in der relativen Häufigkeit des Schirmtragens unterscheiden.
Die Freiheitsgrade lassen sich über die Anzahl der Zellen mit frei variierbaren Häufigkeiten veranschaulichen. Da innerhalb einer Spalte die Summe der Zeilen immer der Randsumme entsprechen muss, sind p – 1 Zeilensummen frei variierbar. Analog dazu sind q – 1 Spaltensummen frei wählbar, da auch hier pro Zeile die Summe der Spalten die jeweilige Randsumme ergeben muss. Damit sind (p – 1) * (q - 1) Zellenhäufigkeiten frei.
Im Beispiel ergibt sich folgender 2 –Wert:
2 = (30−18,75)2
18,75 + (15−25,25)2
26,25 + (20−31,25)2
31,25 + (55−43,75)2 43,75
= 6,75 + 4,82 + 4,05 + 2,30
= 17,92
Bei einem Freiheitsgrad von (2-1) * (2-1) = 1 ist den 2 entsprechenden Tabellen (z.B. B.16 und B.17 (Leonhart 2004)) bei einem α-Niveau von 5% ein kritischer Wert von 3,84146 zu entnehmen. Da der berechnete 2 –Wert größer als der kritische Wert in der Tabelle ausfällt, ist in diesem Beispiel auf signifikante Unterschiede in der Schirmbenutzung zwischen Männern und Frauen zu schließen.
Anmerkung
Da beim 2 –Test ausschließlich bei einem Freiheitsgrad von 1 gerichtete Hypothesen möglich sind, werden die meisten Tabellen für kritische Werte für ungerichtete Hypothesen erstellt. Soll bei einem Freiheitsgrad von 1 eine gerichtete Hypothese getestet werden, so ist bei einem α-Niveau von 5% der kritische 2 –Wert der Fläche von 0,90 zugrundezulegen.
Fragen
Formuliere sämtliche Hypothesen für obiges Beispiel.
Warum gehen nur ungerichtete Hypothesen bei mehr als vier Feldern?
Wie können wir gerichtete Hypothesen testen, wenn wir mehr als vier Felder haben?
Phonetisches Beispiel mit mehr als vier Feldern?
Korrelation und Regression
Zusammenhang zwischen mehreren kontinuierlichen Variablen. Z.B: Haben überdurchschnittlich gute Psychologiestudenten auch eine überdurchschnittliche soziale Kompetenz ? Wenn ja: positiver Zusammenhang. Falls das Gegenteil der Fall ist (da die besonders guten Studenten ihre ganze Zeit mit Lernen verbracht haben) gibt es einen negativen Zusammenhang.
Frage
Interpretiere folgende Abbildung
Frage:
Weitere Beispiele für Zusammenhänge zwischen Variablen?
Andere Beispiele:
1. Körpergröße – Körpergewicht, 2. Zungenhöhe und Gaumenkontakt, 3. Frequenzwerte von F1 und f0
300 350 400 450
5560657075
F1 [Hz]
RMS [dB]
Kovarianz
= Maß für den linearen Zusammenhang zwischen zwei Variablen X und Y (covariance).
Zähler: Summe der Abweichungen vom Mittelwert für Variable X multipliziert mit den Abweichungen für Y.
Fall 1: Beide Messwerte weichen stark positiv oder stark negativ von ihren Mittelwerten ab Produkt positiv
Fall 2: Ein Messwert weicht negativ und der andere positiv von den Mittelwerten ab
Produkt ist negativ
Verhalten sich nun alle Differenzen einheitlich, d.h. sind sie für einen vorgegebenen Zusammenhang alle positiv oder negativ, so wird der Betrag der Summe größer als bei ständig wechselnden Vorzeichen.
Nenner: Division durch die Anzahl der Messwerte ist notwendig, da die Summe automatisch größer wird, je mehr Messwerte in die Berechnung eingehen. Für Stichproben wird durch (n – 1) geteilt.
Die Kovarianz kann theoretisch unendlich große positive oder negative Werte annehmen und ist damit schwierig zu interpretieren.
Ein positiver Zusammenhang ist vorhanden, wenn mit höherer Ausprägung in der Variablen X auch eine höhere Ausprägung in der Variablen Y gegeben ist.
Beispiel
Zusammenhang zwischen Alter und benutzter Wortmenge bei Kleinkindern. Mit höherem Alter verwenden Kinder mehr Wörter. Für eine untersuchte Stichprobe gilt:
Überdurchschnittlich alte Kinder verwenden mehr Wörter als durchschnittlich alte Kinder.
Umkehrschluss: Kinder die weniger Wörter als der Durchschnitt verwenden sind vermutlich auch unter dem Altersdurchschnitt.
Fragen
Beispiel für negativen Zusammenhang?
Beispiel für keinen Zusammenhang?
Achtung
Kovarianzen erlauben nur Aussagen über stochastische Zusammenhänge zwischen Variablen.
Es können aus Kovarianzen keine Kausalaussagen abgeleitet werden.
Unzulässige Kausalaussage: Je höher die Ausprägung im Merkmal A, desto höher muss auch die Ausprägung im Merkmal B sein.
Problem
Die Kovarianz ist stark vom ‘‘Maßstab‘‘ der Daten abhängig (z.B. bei Gewichtsangaben in Gramm vs. Kilo vs. Tonnen). Dieser Maßstab beeinflusst neben der Varianz auch die Kovarianz.
Lösung
Standardisierung der Kovarianz syx an der Standardabweichung der beiden Variablen. Daraus folgt der Korrelationskoeffizient.
Ähnlich: z-Transformation. Hier entsteht durch Normierung eine z-Verteilung mit dem Mittelwert 0 und der Streuung 1. Berechnung der z-Scores: zi=(xi-𝑥 )/sx. So entsteht Vergleichbarkeit zwischen Datensätzen, die sich in Mittelwert und Standardabweichung unterscheiden.
Korrelation
Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.
Die Kovarianz ist stark vom Maßstab der Daten abhängig. Die Korrelation hingegen nimmt stets Werte zwischen 1 und -1 an. Damit sind Korrelationskoeffizienten rxy (auch ρ (gesprochen roh)) normierte Kennwerte, die besser zu vergleichen sind als Kovarianzen und außerdem besser interpretierbar sind.
Produkt-Moment Korrelation
Interaktive Beispiele zur Punkt-Moment-Korrelation:
http://psychologie.fernuni-hagen.de/methoden/ils/kurs/kap14/kap14_2.html a. Graphische Darstellung der Produkt-Moment-Korrelation
b. Unsinnige Zusammenhänge
Voraussetzungen für Produkt-Moment Korrelation:
1. Beide Variablen müssen intervallskaliert sein.
2. Beide Variablen müssen normalverteilt sein.
3. Der Zusammenhang zwischen beiden Variablen sollte linear sein.
4. Homoskedastizität: für alle Individuen i, die ein gleiches xi haben, müssen die entsprechenden yi normalverteilt sein.
Andere Korrelationskoeffizienten (vgl. Tabelle 11.1 in Leonhart):
1) Spearmans Rangkorrelation: Alle Beobachtungen werden durch ihren Rang ersetzt.
Verwendung: wenn keine Normalverteilung vorliegt, bei kleinem N, Voraussetzung: die Daten müssen mindestens ordinalskaliert sein.
Nachteil: sehr anfällig für Ausreißer.
2) Kendalls τ: die übereinstimmenden und nicht-übereinstimmenden Paare werden
gezählt. Übereinstimmendes Paar = Differenz der x Koordinate hat gleiches Vorzeichen wie die Differenz der y Koordinate.
Verwendung: bei ordinalskalierten Daten mit vielen Ausreißern
Nachteil: Da dabei alle Ränge miteinander verglichen werden, ist der Rechenaufwand sehr hoch.
Interpretation
r = -1 negative Winkelhalbierende, perfekter Zusammenhang, kommt in der Sozialwissenschaft nicht vor. Wenn r = -1 zu beobachten ist, ist eine Berechnung der Korrelation normalerweisen nicht sinnvoll (Bsp.:
Zusammenhang von Körpergröße und Abstand zu einer 2,50 hohen Zimmerdecke)
-1 < r < 0 negative Korrelation
negativ gerichtete Punktwolke, „je größer x umso kleiner y“
z.B. Intelligenzquotient und Lösungszeit für eine Aufgabe, f0 und F1 bei Vokalen
r = 0 ca. kreisförmige Punktwolke es existiert kein Zusammenhang zwischen den Variablen
0 < r < 1 positive Korrelation
positiv gerichtete Punktwolke, „je größer y umso größer x“
z.B. Körpergröße und Körpergewicht, Körpergröße und f0 r = 1 positive Winkelhalbierende, siehe r = -1.
JE NÄHER DER KORRELATIONSKOEFFIZIENT BEI 1 ODER -1 LIEGT UND JE SCHMALER DIE
PUNKTWOLKE, DESTO DEUTLICHER ODER AUSGEPRÄGTER IST DER ZUSAMMENHANG ZWISCHEN ZWEI VARIABLEN
Vorsicht vor Fehlinterpretationen: Auch aus einer hohen Korrelation darf kein kausaler Zusammenhang geschlossen werden!!!
Signifikanzprüfung
Nullhypothese: Der Stichprobenkorrelationskoeffizient unterscheidet sich nicht signifikant von 0 (=Populationskorrelationskoeffizient).
Alternativhypothese: r ≠ 0
Zur Überprüfung wird wiederum ein t-Test verwendet.
Vorsicht: Bei großen Stichproben werden auch niedrige Korrelationskoeffizienten leicht signifikant