Statistik II f¨ ur Betriebswirte Vorlesung 3
Dr. Andreas W¨ unsche
TU Bergakademie Freiberg Institut f¨ur Stochastik
28. Oktober 2019
4.3.2 Tests f¨ ur zwei verbundene Stichproben
I
Liegen zwei Stichproben vor, deren Werte einander paarweise zugeordnet sind, spricht man von verbundenen Stichproben.
I
Diese entstehen z.B. dann, wenn man jeweils zwei Merkmale an ein und demselben statistischen Objekt beobachtet.
I
Beispiele:
I
Messwerte f¨ ur die Wirkungen jeweils zweier Medikamente f¨ ur jeweils ein und denselben Patienten;
I
Wert der Bestellungen einer Kundengruppe vor (1. Stichprobe) und nach (2. Stichprobe) einer Werbeaktion.
I
Die mathematische Modellierung erfolgt ¨ uber zwei endliche Folgen X
1, X
2, . . . , X
nund Y
1, Y
2, . . . , Y
nvon jeweils n Zufallsgr¨ oßen.
I
Dabei sind die Zufallsgr¨ oßen innerhalb einer Folge stochastisch unabh¨ angig, aber f¨ ur jedes i = 1, . . . , n k¨ onnen die Zufallsgr¨ oßen X
iund Y
iabh¨ angig sein.
I
Eine verbundene (mathematische) Stichprobe wird also durch
unabh¨ angige Zufallsvektoren (X
1, Y
1), . . . , (X
n, Y
n) modelliert.
Erwartungswertvergleich verbundener normalverteilter Stichproben
I
Geg.: zwei abh. Merkmale X ∼ N(µ
X, σ
X2) , Y ∼ N(µ
Y, σ
2Y) ; entsprechend verbundene Stichprobe vom Umfang n , d.h.
(X
1, Y
1), . . . , (X
n, Y
n) .
I
Grundlage: Ist der Zufallsvektor (X , Y ) normalverteilt, dann ist die Differenz D = X − Y normalverteilt mit dem Erwartungswert
µ
D= ED = EX − EY = µ
X− µ
Y.
I
Ein Test zum Beispiel mit
H
0: µ
X= µ
Y, H
A: µ
X6= µ
Y, kann dann als Test
H
0: µ
D= 0 , H
A: µ
D6= 0 ,
f¨ ur die normalverteilte Stichprobe D
1, . . . , D
ndurchgef¨ uhrt werden
(Einstichproben-t-Test).
Vorzeichentest f¨ ur verbundene Stichprobe
I
Voraussetzung: Verbundene Stichprobe (X
1, Y
1), . . . , (X
n, Y
n) , so dass die Differenzzufallsgr¨ oßen D
i= X
i− Y
ieine stetige
Verteilungsfunktion F
Dbesitzen.
I
Man bildet Differenzen: D
i= X
i− Y
i, i = 1, . . . , n .
I
Hypothesen: H
0: D
0.5= 0 , H
A: D
0.56= 0 (zweiseitiger Test).
I
Man verwendet den Vorzeichentest von oben zur Stichprobe der Differenzen D
1, . . . , D
nmit Median gleich 0 .
I
Treten Stichprobenwerte auf, die mit dem Median ¨ ubereinstimmen, k¨ onnen diese (z.B.) weggelassen werden. Dann bleibt der Test konservativ, d.h. die Irrtumswahrscheinlichkeit 1. Art wird nicht vergr¨ oßert.
I
Vorzeichentests k¨ onnen auch f¨ ur nichtstetige Zufallsgr¨ oßen
durchgef¨ uhrt werden. Dann testet man z.B. die Hypothese
H
0: P (D > 0) = P (D < 0) .
Beispiel 4.5: Returns von 2 Fonds
I
Returns in % von 2 Fonds (Fond A, Fond B) in 15 Monaten.
I
Daten: (Quelle: Aczel, Sounderpandian: Complete Business Statistics, 2006, S.645)
A: 12 11 14 10 12 8 16 13 12 10 6 9 16 13 10 B: 14 15 16 9 10 8 18 12 17 13 10 12 15 19 14
Sign(A−B): − − − + + − + − − − − + − −
I
Aufgabe: Durchf¨ uhrung des Vorzeichentests zur Untersuchung, ob beide Fonds
” gleich“ sind.
I
Hypothesen: H
0: D
0.5= 0 , H
A: D
0.56= 0 mit D = A − B .
I
4 Monate A > B ; 1 Monat A = B ; 10 Monate A < B .
I
Damit ist t = 4.
Beispiel 4.5: Returns von 2 Fonds
I
Kritischer Bereich f¨ ur n
0= 14 = 15 − 1 , α = 0.05 : K = {0, 1, 2} ∪ {12, 13, 14} .
I
t = 4 6∈ K = ⇒ H
0wird angenommen = ⇒ Zwischen den beiden Fonds gibt es keine signifikanten Unterschiede.
I
in Statgraphics :
Hypothesis Tests for Fond A - Fond B
sign test
Null hypothesis: median = 0 Alternative: not equal
Number of values below hypothesized median: 10 Number of values above hypothesized median: 4
Large sample test statistic = 1,33631 (continuity correction applied) P-Value = 0,181449
Do not reject the null hypothesis for alpha = 0,05.
Vorzeichen-Rangtest nach Wilcoxon
I
Mit dem Vorzeichen-Rangtest (Symmetrie-Test) nach Wilcoxon (oder Wilcoxon-Vorzeichen-Rangtest) kann man die Verteilung einer Zufallsgr¨ oße auf Symmetrie untersuchen.
I
Die Verteilung von X ist symmetrisch zum Punkt M, falls f¨ ur beliebige x ∈ R gilt: P (X < M − x) = P (X > M + x) . In diesem Fall ist M auch der Median der Zufallsgr¨ oße.
I
Ist f¨ ur zwei verbundene Stichproben die Differenzzufallsgr¨ oße symmetrisch zum Median verteilt, kann der Test f¨ ur stetige Differenzzufallsgr¨ oßen wie der einfache Vorzeichentest f¨ ur verbundene Stichproben durchgef¨ uhrt werden, d.h. z.B.
H
0: D
0.5= 0 , H
A: D
0.56= 0 .
I
Die G¨ ute dieses Tests ist besser als die G¨ ute eines entsprechenden
einfachen Vorzeichentests, da hier die Gr¨ oße der Differenzen mit
ber¨ ucksichtigt wird.
Wilcoxon-Vorzeichen-Rangtest: Rangzahlen
I
Vorgehen: Man ordnet die Betr¨ age der Differenzen und vergibt Rangzahlen R
i+. Dabei erh¨ alt der kleinste Wert die Rangzahl 1 und der gr¨ oßte Wert die Rangzahl n . Tritt ein Wert mehrfach auf, erhalten (z.B.) alle diese Werte den arithmetischen Mittelwert der zugeh¨ origen Ordnungsnummern als Rangzahl.
I
Außerdem verwendet man die Indikatorgr¨ oßen Z
i:=
1 , falls D
i> 0 ,
0 , falls D
i< 0 .
Beispiel 4.6: Bestellungen vor und nach einer Werbeaktion
I
Wert von Bestellungen vor und nach einer Werbeaktion:
vor (X
i) 171.2 332.9 230.6 200.7 238.7
nach (Y
i) 238.7 260.1 203.1 133.2 171.2 Differenz (D
i= X
i− Y
i) -67.5 72.8 27.5 67.5 67.5 Betr¨ age Differenz 67.5 72.8 27.5 67.5 67.5
Ordnungsnummern 2-4 5 1 2-4 2-4
Rangzahlen (R
i+) 3 5 1 3 3
Indikatorgr¨ oßen Z
i0 1 1 1 1
Wilcoxon-Vorzeichen-Rangtest: Testgr¨ oße, krit. Bereich
I
Testgr¨ oße: T = W
n+:=
n
X
i=1
R
i+· Z
i.
I
Es gilt
n
X
i=1
R
i+=
n
X
i=1
i = n(n + 1)
2 .
I
Kritischer Bereich: K = {t : t ≤ w
n;α/2+} ∪ {t : t ≥ w
n,1−α/2+} .
I
Die Quantile w
n;α/2+und w
n,1−α/2+kann man aus Tabellen ablesen (z.B. im Anhang der Formelsammlung).
I
Es gilt w
n,1−α/2+= n(n + 1)
2 − w
n;α/2+.
I
F¨ ur große n (n ≥ 20) gilt: T = W
n+−
n(n+1)4q
n(n+1)(2n+1)24
ist n¨ aherungsweise standardnormalverteilt ⇒ Quantile der
Standardnormalverteilung k¨ onnen genutzt werden.
Beispiel 4.6: Bestellungen vor und nach einer Werbeaktion
I
Wert von Bestellungen vor und nach einer Werbeaktion:
vor (X
i) 171.2 332.9 230.6 200.7 238.7
nach (Y
i) 238.7 260.1 203.1 133.2 171.2 Differenz (D
i= X
i− Y
i) -67.5 72.8 27.5 67.5 67.5 Betr¨ age Differenz 67.5 72.8 27.5 67.5 67.5
Rangzahlen (R
i+) 3 5 1 3 3
Indikatorgr¨ oßen Z
i0 1 1 1 1
I
H
0: D
0.5= 0 , H
A: D
0.56= 0 ; α = 0.1 .
I
Aus der Tabelle: w
5;0.95+=
5·62− w
5;0.05+= 15 − 0 = 15
⇒ K = {0} ∪ {15} .
I
W
5+= 3 + 1 + 5 + 3 = 12 6∈ K ⇒ H
0wird nicht abgelehnt, die
Unterschiede sind nicht signifikant.
4.4 Verteilungstests
I
Eine weitere Klasse von Tests besch¨ aftigt sich mit der Pr¨ ufung, ob die Werte der Stichprobe aus einer Grundgesamtheit mit einer speziellen hypothetischen Verteilungsfunktion stammen.
I
Ausf¨ uhrlicher wird hier der χ
2−Anpassungstest behandelt.
I
Kurz vorgestellt werden auch der Kolmogorow-Smirnow-Test (auch Kolmogorow-Anpassungstest genannt) und der Shapiro-Wilk-Test.
I
Weitere Tests, die zum Teil f¨ ur ganz bestimmte Typen von
Verteilungsfunktionen entwickelt wurden, kann man in der Literatur
finden.
Der χ 2 −Anpassungstest
I
Test, ob die vorliegende Stichprobe aus einer Grundgesamtheit mit einer hypothetischen Verteilungsfunktion F
0entstammt .
I
Prinzipielles Vorgehen:
I
Klasseneinteilung der Stichprobe;
I
Vergleich mit der hypothetischen Verteilung;
I
falls die Abweichungen zu groß sind, erfolgt eine Ablehnung der Nullhypothese.
I
Dieser Test ist ein asymptotischer Test, d.h. man rechnet mit der asymptotischen Verteilung (f¨ ur n → ∞) der Testgr¨ oße unter H
0.
I
Hypothesen:
H
0: F (x) = F
0(x) , x ∈ R , F
0ist eine Verteilungsfunktion, z.B. F
0(x) = Φ
x − µ σ
falls X ∼ N(µ, σ
2) ;
H
A: F (x ) 6= F
0(x ) f¨ ur mindestens ein x ∈ R .
χ 2 −Anpassungstest Grafik
Tests for Normality for Nennmaß
Test Statistic P-Value
Shapiro-Wilk W 0,979963 0,4061
Goodness-of-Fit Tests for Nennmaß Kolmogorov-Smirnov Test
Normal DPLUS 0,0485841 DMINUS 0,0550786 DN 0,0550786 P-Value 0,753039
χ 2 − Anpassungstest – Testgr¨ oße T
I
Einteilung der gesamten Merkmalsachse in k Klassen A
1= (−∞, a
1), A
2= [a
1, a
2), . . . , A
k= [a
k−1, ∞) .
I
Bestimmung der absoluten Klassenh¨ aufigkeiten H
1, H
2, . . . , H
k(Anzahl der Stichprobenwerte in der jeweiligen Klasse).
I
Bestimmung der theoretischen Wahrscheinlichkeiten f¨ ur die
Klassenzugeh¨ origkeiten unter der Annahme der G¨ ultigkeit von H
0, p
1= P
H0(A
1) = P
H0(X < a
1) = F
0(a
1) ,
p
2= P
H0(A
2) = P
H0(a
1≤ X < a
2) = F
0(a
2) − F
0(a
1) , . . .
p
k= P
H0(A
k) = P
H0(a
k−1≤ X ) = 1 − F
0(a
k−1).
I
Testgr¨ oße: T =
k
X
j=1
(H
j− np
j)
2np
j(
” χ
2−Abstandsfunktion “),
diese Gr¨ oße ist unter H
0asymptotisch χ
2k−1−verteilt.
χ 2 −Anpassungstest – Kritischer Bereich
I
Kritischer Bereich: K = {t ∈ R : t > χ
2k−1;1−α} .
I
Bemerkungen:
I
Der Stichprobenumfang n sollte nicht zu klein sein.
I
Die Anzahl und die Gr¨ oße der Klassen A
jsollten so sein, dass np
j= nP
H0(X ∈ A
j) > 1 f¨ ur alle j = 1, . . . , k gilt (und zus¨ atzlich np
j≥ 5 f¨ ur mindestens 80% der Klassen; ggf. Klassen
zusammenfassen oder gesamte Klasseneinteilung ¨ andern).
I
Bei diskreten Verteilungen und nicht zu kleinen
Einzelwahrscheinlichkeiten sollte pro Merkmalswert jeweils eine Klasse gew¨ ahlt werden.
I
Modifikation:
Unbekannte Parameter in der Verteilungsfunktion F
0k¨ onnen durch (Maximum-Likelihood-)Sch¨ atzungen ersetzt werden.
Sind m Parameter zu sch¨ atzen, so ist anstelle der
χ
2k−1−Verteilung die χ
2k−m−1−Verteilung zu benutzen.
Beispiel 4.7: Test auf gerechten W¨ urfel
Anhand einer Stichprobe von n = 90 W¨ urfelergebnissen soll mit α = 0.05 getestet werden, ob der W¨ urfel gerecht ist, d.h. ob f¨ ur die Augenzahl X gilt: H
0: p
i= P (X = i) = 1/6 , i = 1, . . . , 6 .
● ● ● ● ● ●
1 2 3 4 5 6
05101520
Würfel Beispiel 4.7
Augenzahl
absolute Häufigkeiten
●
● ●
●
●
●
●
●
beobachtete Häfigkeiten erwartete Häufigkeiten
Beispiel 4.7: Test auf gerechten W¨ urfel
I
Daten:
Augenzahl 1 2 3 4 5 6
H
j19 13 14 12 17 15 np
j15 15 15 15 15 15
I
Wert der Testgr¨ oße:
t = (19 − 15)
215 + (13 − 15)
215 + (14 − 15)
215 + (12 − 15)
215 + (17 − 15)
215 + (15 − 15)
215
= 16 15 + 4
15 + 1 15 + 9
15 + 4 15 + 0
15 = 34
15 = 2.26 .
I
Kritischer Bereich: K = (χ
25;0.95, ∞) = (11.07 , ∞) .
I
Testentscheidung: t 6∈ K , H
0wird nicht abgelehnt.
I
Testergebnis: Die Abweichungen der beobachteten H¨ aufigkeiten
von einer diskreten Gleichverteilung sind nicht signifikant.
Beispiel 4.7: Statgraphics
Goodness-of-Fit Tests for Würfel
Chi-Square Test
Lower Upper Observed Expected
Limit Limit Frequency Frequency Chi-Square
at or below 1,0 19 15,00 1,07
2,0 2,0 13 15,00 0,27
3,0 3,0 14 15,00 0,07
4,0 4,0 12 15,00 0,60
5,0 5,0 17 15,00 0,27
6,0 15 15,00 0,00
Chi-Square = 2,26667 with 3 d.f. P-Value = 0,518933
I
Testentscheidung: p = 0.519 > 0.05 = α , H
0wird nicht abgelehnt.
I
Testergebnis: Die Abweichungen der beobachteten H¨ aufigkeiten
von einer diskreten Gleichverteilung sind nicht signifikant.
Beispiel 4.8: technisches Nennmaß
I
X . . . technisches Nennmaß;
X ∼ N(µ, σ
2) wird getestet.
I
H
0: F (x) = Φ
x − µ σ
, x ∈ R;
H
A: F (x) 6= Φ
x − µ σ
f¨ ur mindestens ein x ∈ R .
I
α = 0.05 .
I
n = 150 Messungen, ˆ
µ = x = 40.43 , σ ˆ = s = 5.93 ⇒ m = 2 Sch¨ atzparameter.
Sei k = 8 (Anzahl der Klassen); z
j= a
j− x
s , j = 1, . . . , k .
Beispiel 4.8: technisches Nennmaß – Daten und Test
I
a
jH
jz
jΦ(z
j) p
jnp
j. . . 30.5 6 -1.67 0.0475 0.0475 7.12
30.5 . . . 33.5 13 -1.17 0.1210 0.0735 11.03
33.5 . . . 36.5 17 -0.66 0.2546 0.1336 20.04
36.5 . . . 39.5 30 -0.16 0.4364 0.1818 27.27
39.5 . . . 42.5 30 0.35 0.6368 0.2004 30.06
42.5 . . . 45.5 28 0.85 0.8023 0.1655 24.83
45.5 . . . 48.5 13 1.36 0.9131 0.1108 16.61
48.5 . . . 13 0.0869 13.04
150 1.0000
I
t =
k
X
j=1
(H
j− np
j)
2np
j= 2.45 , K = (χ
28−2−1;0.95= 11.1, ∞) ,
t 6∈ K , H
0wird nicht abgelehnt, zum Niveau von 5% sind die
Abweichungen zur Normalverteilung nicht signifikant.
Beispiel 4.8: Statgraphics
Goodness-of-Fit Tests for Nennmaß Chi-Square Test
Lower Upper Observed Expected Limit Limit Frequency Frequency Chi-Square
at or below 30,5 6 7,05 0,16
30,5 33,5 13 11,14 0,31
33,5 36,5 17 19,88 0,42
36,5 39,5 30 27,61 0,21
39,5 42,5 30 29,83 0,00
42,5 45,5 28 25,08 0,34
45,5 48,5 13 16,41 0,71
above 48,5 13 12,99 0,00
Chi-Square = 2,14148 with 5 d.f. P-Value = 0,829243
Goodness-of-Fit Tests for Nennmaß Chi-Square Test
Lower Upper Observed Expected
Limit Limit Frequency Frequency Chi-Square
at or below 30,5 6 7,05 0,16
30,5 33,5 13 11,14 0,31
33,5 36,5 17 19,88 0,42
36,5 39,5 30 27,61 0,21
39,5 42,5 30 29,83 0,00
42,5 45,5 28 25,08 0,34
45,5 48,5 13 16,41 0,71
above 48,5 13 12,99 0,00
Chi-Square = 2,14148 with 5 d.f. P-Value = 0,829243
Der Kolmogorow-Smirnow-Test
I
Der Kolmogorow-Smirnow-Test (Kolmogorow-Anpassungstest) basiert auf der empirischen Verteilungsfunktion ˆ F
nzur Stichprobe (vom Umfang n):
F ˆ
n(x) := Anzahl Stichprobenwerte < x
n , x ∈ R .
I
Voraussetzung: Die hypothetische Verteilungsfunktion F
0ist stetig und enth¨ alt keine unbekannten Parameter.
I
Hypothesen:
H
0: F (x) = F
0(x) , x ∈ R ;
H
A: F (x ) 6= F
0(x ) f¨ ur mindestens ein x ∈ R .
I
Testgr¨ oße: T = sup
x∈R
| F ˆ
n(x) − F
0(x)| .
I
Der Test wird g¨ unstigerweise mit einem Computerprogramm
durchgef¨ uhrt.
Kolmogorow-Smirnow-Test im Beispiel 4.8:
25 30 35 40 45 50 55
0.00.20.40.60.81.0
empirische Verteilungsfunktion hypothetische Verteilungsfunktion
Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 24
Beispiel 4.8: Statgraphics
Tests for Normality for Nennmaß
Test Statistic P-Value
Shapiro-Wilk W 0,979963 0,4061
Goodness-of-Fit Tests for Nennmaß Kolmogorov-Smirnov Test
Normal DPLUS 0,0485841 DMINUS 0,0550786 DN 0,0550786 P-Value 0,753039
p = 0.753039 > 0.05 = α = ⇒ H
0wird nicht abgelehnt, zum Niveau von 5% sind die Abweichungen zur Normalverteilung nicht signifikant.
Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 25
Bemerkungen zum Kolmogorow-Smirnow-Test
I
Der Kolmogorow-Smirnow-Test (kurz auch
” K-S-Test “) ist im Gegensatz zum χ
2−Anpassungstest auch f¨ ur kleine Stichproben anwendbar und das Testergebnis h¨ angt nicht von einer
Klasseneinteilung ab.
I
Man kann einseitige Tests mit dem K-S-Test durchf¨ uhren.
I
Es gibt Verallgemeinerungen des K-S-Tests, bei denen statt festgelegter Parameterwerte der hypothetischen Verteilung F
0geeignete Sch¨ atzwerte eingesetzt werden
(z.B. der Lilliefors-Test im Fall von Normalverteilungen).
I
Man kann mit einer Version des K-S-Testes auch pr¨ ufen, ob zwei Stichproben aus einer Grundgesamtheit stammen, also
¨
ubereinstimmende Verteilungen zugrundeliegen.
I
Der K-S-Test kann auch f¨ ur diskrete Verteilungen genutzt werden,
besitzt dann aber eine geringere G¨ ute.
Der Shapiro-Wilk-Test zur Normalverteilungspr¨ ufung
I
Der Shapiro-Wilk-Test pr¨ uft ausschließlich, ob bei einer Stichprobe eine Normalverteilung vorliegt.
I
Dieser Test besitzt eine hohe G¨ ute, insbesondere auch im Fall von kleinen Stichprobenumf¨ angen.
I
Grundlage des Tests sind bestimmte Eigenschaften der
Ordnungsstatistiken einer Stichprobe aus einer normalverteilten Grundgesamtheit.
I
Der Test ist sehr rechenintensiv und sollte mit Statistik-Software durchgef¨ uhrt werden.
I
Statgraphics-Ergebnis in Beispiel 4.8:
Tests for Normality for Nennmaß
Test Statistic P-Value
Shapiro-Wilk W 0,979963 0,4061
Goodness-of-Fit Tests for Nennmaß Kolmogorov-Smirnov Test
Normal DPLUS 0,0485841 DMINUS 0,0550786 DN 0,0550786 P-Value 0,753039
Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 27
4.5 χ 2 − Unabh¨ angigkeitstest; Homogenit¨ atstest
I
Mit dem χ
2−Unabh¨ angigkeitstest ¨ uberpr¨ uft man, ob zwei Merkmale X und Y stochastisch unabh¨ angig sind, d.h. ob f¨ ur beliebige (zul¨ assige) Mengen A , B gilt:
P (X ∈ A , Y ∈ B) = P(X ∈ A) · P (Y ∈ B) .
I
Konkreter pr¨ uft man, ob die relativen H¨ aufigkeiten (berechnet aus einer verbundenen Stichprobe) n¨ aherungsweise diese Produktregel erf¨ ullen.
I
Hypothesen: H
0: X und Y sind stochastisch unabh¨ angig, H
A: X und Y sind abh¨ angig.
I
Verbundene Stichproben: x
1, x
2, . . . , x
n; y
1, y
2, . . . , y
n.
I
Einteilung der Merkmalsachsen in Klassen:
f¨ ur X : A
1, . . . , A
k; f¨ ur Y : B
1, . . . , B
`.
Kontingenztafel
I
Absolute H¨ aufigkeiten:
H
ij: Anzahl der Beobachtungen, bei denen das Merkmal X in der Klasse A
iund gleichzeitig das dazugeh¨ orige Merkmal Y in B
jliegt.
I
Randh¨ aufigkeiten: H
i•=
`
X
j=1
H
ij, H
•j=
k
X
i=1
H
ij.
I
Kontingenztafel: X \Y B
1. . . B
`A
1H
11H
1`H
1•.. .
A
kH
k1H
k`H
k•H
•1H
•`n
I
Im Fall k = ` = 2 wird eine solche Tafel auch Vierfeldertafel oder 2 × 2−Felder-Tafel genannt. Sie wird h¨ aufig bei nominellen
Merkmalen mit zwei Auspr¨ agungen (dichotome Merkmale) benutzt.
χ 2 − Unabh¨ angigkeitstest – Testgr¨ oße, kritischer Bereich
I
Testgr¨ oße: (
” empirische Kontingenz“) T =
k
X
i=1
`
X
j=1
H
ij−
Hi•nH•j2 Hi•H•jn
.
I
F¨ ur eine Vierfeldertafel kann die Testgr¨ oße einfacher berechnet werden durch
T = n (H
11H
22− H
12H
21)
2H
1•H
2•H
•1H
•2.
I
Kritischer Bereich: K = {t ∈ R : t > χ
2(k−1)(`−1);1−α} .
χ 2 − Unabh¨ angigkeitstest – Bemerkungen
I
Von den Klassenh¨ aufigkeiten sollten h¨ ochstens 20% kleiner als 5 sein, aber alle mindestens gleich 1.
I
Der χ
2−Unabh¨ angigkeitstest mit Hilfe einer Vierfeldertafel sollte f¨ ur Stichprobenumf¨ ange n < 20 nicht verwendet werden (sondern der ” exakte Test von Fisher“).
I
F¨ ur 20 ≤ n ≤ 60 eignet sich die nach Yates korrigierte Teststatistik T = n |H
11H
22− H
12H
21| −
n22H
1•H
2•H
•1H
•2.
Beispiel 4.9: Eignung versus Studienabschluss
I
30 Wirtschaftsingenieure (b
1), 35 graduierte Betriebswirte (b
2) und 35 Diplomkaufleute (b
3), die sich bei einem Unternehmen beworben haben, werden nach einer Eignungspr¨ ufung in die Kategorien
” geeignet“ (a
1) und
” ungeeignet“ (a
2) eingeordnet. Ist diese Eignung vom Studienabschluss abh¨ angig oder nicht:
I
Merkmal X (Eignung), Merkmal Y (Studienabschluss); α = 0.05 .
I
Hypothesen:
H
0: Merkmal X und Merkmal Y sind unabh¨ angig,
H
A: Merkmal X und Merkmal Y sind abh¨ angig.
Beispiel 4.9: Eignung versus Studienabschluss
I
Kontingenztafel: (Quelle: Bleym¨ uller, Gehlert, G¨ ulicher: Statistik f¨ ur Wirtschaftswissenschaftler, 2004, Abschn. 19.2.)
Y \X a
1a
2b
114 16 30 b
210 25 35 b
316 19 35 40 60 100
Frequency Table
geeignet ungeeignet Row Total Wirtschaftsingenieure 14 16 30
12,00 18,00 30,00%
graduierte Betriebswirte 10 25 35 14,00 21,00 35,00%
Diplomkaufleute 16 19 35
14,00 21,00 35,00%
Column Total 40 60 100
40,00% 60,00% 100,00%
Cell contents:
Observed frequency Expected frequency Tests of Independence
Test Statistic Df P-Value Chi-Square 2,937 2 0,2303
Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 33
Beispiel 4.9: Testgr¨ oße, Testentscheidung
I
Kontingenztafel:
X \Y b
1b
2b
3a
114 10 16 40 a
216 25 19 60 30 35 35 100
I
Berechnung Testgr¨ oße: H
i•H
•jn : 12 14 14 18 21 21 t = (14 − 12)
212 + (10 − 14)
214 + (16 − 14)
214 + (16 − 18)
218 +
(25 − 21)
221 + (19 − 21)
221 = 2.937 < χ
22;0.95= 5.99 .
I
Die Hypothese H
0:
” A und B sind unabh¨ angig“ wird nicht
abgelehnt, man kann nicht davon ausgehen, dass die Eignung
signifikant vom Studienabschluss abh¨ angt.
Beispiel 4.9: Statgraphics
Frequency Table
geeignet ungeeignet Row Total Wirtschaftsingenieure 14 16 30
12,00 18,00 30,00%
graduierte Betriebswirte 10 25 35 14,00 21,00 35,00%
Diplomkaufleute 16 19 35
14,00 21,00 35,00%
Column Total 40 60 100
40,00% 60,00% 100,00%
Cell contents:
Observed frequency Expected frequency
Tests of IndependenceTest Statistic Df P-Value
Chi-Square 2,937 2 0,2303
Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 35