• Keine Ergebnisse gefunden

Statistik II f¨ur Betriebswirte Vorlesung 3

N/A
N/A
Protected

Academic year: 2021

Aktie "Statistik II f¨ur Betriebswirte Vorlesung 3"

Copied!
35
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Statistik II f¨ ur Betriebswirte Vorlesung 3

Dr. Andreas W¨ unsche

TU Bergakademie Freiberg Institut f¨ur Stochastik

28. Oktober 2019

(2)

4.3.2 Tests f¨ ur zwei verbundene Stichproben

I

Liegen zwei Stichproben vor, deren Werte einander paarweise zugeordnet sind, spricht man von verbundenen Stichproben.

I

Diese entstehen z.B. dann, wenn man jeweils zwei Merkmale an ein und demselben statistischen Objekt beobachtet.

I

Beispiele:

I

Messwerte f¨ ur die Wirkungen jeweils zweier Medikamente f¨ ur jeweils ein und denselben Patienten;

I

Wert der Bestellungen einer Kundengruppe vor (1. Stichprobe) und nach (2. Stichprobe) einer Werbeaktion.

I

Die mathematische Modellierung erfolgt ¨ uber zwei endliche Folgen X

1

, X

2

, . . . , X

n

und Y

1

, Y

2

, . . . , Y

n

von jeweils n Zufallsgr¨ oßen.

I

Dabei sind die Zufallsgr¨ oßen innerhalb einer Folge stochastisch unabh¨ angig, aber f¨ ur jedes i = 1, . . . , n k¨ onnen die Zufallsgr¨ oßen X

i

und Y

i

abh¨ angig sein.

I

Eine verbundene (mathematische) Stichprobe wird also durch

unabh¨ angige Zufallsvektoren (X

1

, Y

1

), . . . , (X

n

, Y

n

) modelliert.

(3)

Erwartungswertvergleich verbundener normalverteilter Stichproben

I

Geg.: zwei abh. Merkmale X ∼ N(µ

X

, σ

X2

) , Y ∼ N(µ

Y

, σ

2Y

) ; entsprechend verbundene Stichprobe vom Umfang n , d.h.

(X

1

, Y

1

), . . . , (X

n

, Y

n

) .

I

Grundlage: Ist der Zufallsvektor (X , Y ) normalverteilt, dann ist die Differenz D = X − Y normalverteilt mit dem Erwartungswert

µ

D

= ED = EX − EY = µ

X

− µ

Y

.

I

Ein Test zum Beispiel mit

H

0

: µ

X

= µ

Y

, H

A

: µ

X

6= µ

Y

, kann dann als Test

H

0

: µ

D

= 0 , H

A

: µ

D

6= 0 ,

f¨ ur die normalverteilte Stichprobe D

1

, . . . , D

n

durchgef¨ uhrt werden

(Einstichproben-t-Test).

(4)

Vorzeichentest f¨ ur verbundene Stichprobe

I

Voraussetzung: Verbundene Stichprobe (X

1

, Y

1

), . . . , (X

n

, Y

n

) , so dass die Differenzzufallsgr¨ oßen D

i

= X

i

− Y

i

eine stetige

Verteilungsfunktion F

D

besitzen.

I

Man bildet Differenzen: D

i

= X

i

− Y

i

, i = 1, . . . , n .

I

Hypothesen: H

0

: D

0.5

= 0 , H

A

: D

0.5

6= 0 (zweiseitiger Test).

I

Man verwendet den Vorzeichentest von oben zur Stichprobe der Differenzen D

1

, . . . , D

n

mit Median gleich 0 .

I

Treten Stichprobenwerte auf, die mit dem Median ¨ ubereinstimmen, k¨ onnen diese (z.B.) weggelassen werden. Dann bleibt der Test konservativ, d.h. die Irrtumswahrscheinlichkeit 1. Art wird nicht vergr¨ oßert.

I

Vorzeichentests k¨ onnen auch f¨ ur nichtstetige Zufallsgr¨ oßen

durchgef¨ uhrt werden. Dann testet man z.B. die Hypothese

H

0

: P (D > 0) = P (D < 0) .

(5)

Beispiel 4.5: Returns von 2 Fonds

I

Returns in % von 2 Fonds (Fond A, Fond B) in 15 Monaten.

I

Daten: (Quelle: Aczel, Sounderpandian: Complete Business Statistics, 2006, S.645)

A: 12 11 14 10 12 8 16 13 12 10 6 9 16 13 10 B: 14 15 16 9 10 8 18 12 17 13 10 12 15 19 14

Sign(A−B): − − − + + − + − − − − + − −

I

Aufgabe: Durchf¨ uhrung des Vorzeichentests zur Untersuchung, ob beide Fonds

” gleich“ sind.

I

Hypothesen: H

0

: D

0.5

= 0 , H

A

: D

0.5

6= 0 mit D = A − B .

I

4 Monate A > B ; 1 Monat A = B ; 10 Monate A < B .

I

Damit ist t = 4.

(6)

Beispiel 4.5: Returns von 2 Fonds

I

Kritischer Bereich f¨ ur n

0

= 14 = 15 − 1 , α = 0.05 : K = {0, 1, 2} ∪ {12, 13, 14} .

I

t = 4 6∈ K = ⇒ H

0

wird angenommen = ⇒ Zwischen den beiden Fonds gibt es keine signifikanten Unterschiede.

I

in Statgraphics :

Hypothesis Tests for Fond A - Fond B

sign test

Null hypothesis: median = 0 Alternative: not equal

Number of values below hypothesized median: 10 Number of values above hypothesized median: 4

Large sample test statistic = 1,33631 (continuity correction applied) P-Value = 0,181449

Do not reject the null hypothesis for alpha = 0,05.

(7)

Vorzeichen-Rangtest nach Wilcoxon

I

Mit dem Vorzeichen-Rangtest (Symmetrie-Test) nach Wilcoxon (oder Wilcoxon-Vorzeichen-Rangtest) kann man die Verteilung einer Zufallsgr¨ oße auf Symmetrie untersuchen.

I

Die Verteilung von X ist symmetrisch zum Punkt M, falls f¨ ur beliebige x ∈ R gilt: P (X < M − x) = P (X > M + x) . In diesem Fall ist M auch der Median der Zufallsgr¨ oße.

I

Ist f¨ ur zwei verbundene Stichproben die Differenzzufallsgr¨ oße symmetrisch zum Median verteilt, kann der Test f¨ ur stetige Differenzzufallsgr¨ oßen wie der einfache Vorzeichentest f¨ ur verbundene Stichproben durchgef¨ uhrt werden, d.h. z.B.

H

0

: D

0.5

= 0 , H

A

: D

0.5

6= 0 .

I

Die G¨ ute dieses Tests ist besser als die G¨ ute eines entsprechenden

einfachen Vorzeichentests, da hier die Gr¨ oße der Differenzen mit

ber¨ ucksichtigt wird.

(8)

Wilcoxon-Vorzeichen-Rangtest: Rangzahlen

I

Vorgehen: Man ordnet die Betr¨ age der Differenzen und vergibt Rangzahlen R

i+

. Dabei erh¨ alt der kleinste Wert die Rangzahl 1 und der gr¨ oßte Wert die Rangzahl n . Tritt ein Wert mehrfach auf, erhalten (z.B.) alle diese Werte den arithmetischen Mittelwert der zugeh¨ origen Ordnungsnummern als Rangzahl.

I

Außerdem verwendet man die Indikatorgr¨ oßen Z

i

:=

1 , falls D

i

> 0 ,

0 , falls D

i

< 0 .

(9)

Beispiel 4.6: Bestellungen vor und nach einer Werbeaktion

I

Wert von Bestellungen vor und nach einer Werbeaktion:

vor (X

i

) 171.2 332.9 230.6 200.7 238.7

nach (Y

i

) 238.7 260.1 203.1 133.2 171.2 Differenz (D

i

= X

i

− Y

i

) -67.5 72.8 27.5 67.5 67.5 Betr¨ age Differenz 67.5 72.8 27.5 67.5 67.5

Ordnungsnummern 2-4 5 1 2-4 2-4

Rangzahlen (R

i+

) 3 5 1 3 3

Indikatorgr¨ oßen Z

i

0 1 1 1 1

(10)

Wilcoxon-Vorzeichen-Rangtest: Testgr¨ oße, krit. Bereich

I

Testgr¨ oße: T = W

n+

:=

n

X

i=1

R

i+

· Z

i

.

I

Es gilt

n

X

i=1

R

i+

=

n

X

i=1

i = n(n + 1)

2 .

I

Kritischer Bereich: K = {t : t ≤ w

n;α/2+

} ∪ {t : t ≥ w

n,1−α/2+

} .

I

Die Quantile w

n;α/2+

und w

n,1−α/2+

kann man aus Tabellen ablesen (z.B. im Anhang der Formelsammlung).

I

Es gilt w

n,1−α/2+

= n(n + 1)

2 − w

n;α/2+

.

I

F¨ ur große n (n ≥ 20) gilt: T = W

n+

n(n+1)4

q

n(n+1)(2n+1)

24

ist n¨ aherungsweise standardnormalverteilt ⇒ Quantile der

Standardnormalverteilung k¨ onnen genutzt werden.

(11)

Beispiel 4.6: Bestellungen vor und nach einer Werbeaktion

I

Wert von Bestellungen vor und nach einer Werbeaktion:

vor (X

i

) 171.2 332.9 230.6 200.7 238.7

nach (Y

i

) 238.7 260.1 203.1 133.2 171.2 Differenz (D

i

= X

i

− Y

i

) -67.5 72.8 27.5 67.5 67.5 Betr¨ age Differenz 67.5 72.8 27.5 67.5 67.5

Rangzahlen (R

i+

) 3 5 1 3 3

Indikatorgr¨ oßen Z

i

0 1 1 1 1

I

H

0

: D

0.5

= 0 , H

A

: D

0.5

6= 0 ; α = 0.1 .

I

Aus der Tabelle: w

5;0.95+

=

5·62

− w

5;0.05+

= 15 − 0 = 15

⇒ K = {0} ∪ {15} .

I

W

5+

= 3 + 1 + 5 + 3 = 12 6∈ K ⇒ H

0

wird nicht abgelehnt, die

Unterschiede sind nicht signifikant.

(12)

4.4 Verteilungstests

I

Eine weitere Klasse von Tests besch¨ aftigt sich mit der Pr¨ ufung, ob die Werte der Stichprobe aus einer Grundgesamtheit mit einer speziellen hypothetischen Verteilungsfunktion stammen.

I

Ausf¨ uhrlicher wird hier der χ

2

−Anpassungstest behandelt.

I

Kurz vorgestellt werden auch der Kolmogorow-Smirnow-Test (auch Kolmogorow-Anpassungstest genannt) und der Shapiro-Wilk-Test.

I

Weitere Tests, die zum Teil f¨ ur ganz bestimmte Typen von

Verteilungsfunktionen entwickelt wurden, kann man in der Literatur

finden.

(13)

Der χ 2 −Anpassungstest

I

Test, ob die vorliegende Stichprobe aus einer Grundgesamtheit mit einer hypothetischen Verteilungsfunktion F

0

entstammt .

I

Prinzipielles Vorgehen:

I

Klasseneinteilung der Stichprobe;

I

Vergleich mit der hypothetischen Verteilung;

I

falls die Abweichungen zu groß sind, erfolgt eine Ablehnung der Nullhypothese.

I

Dieser Test ist ein asymptotischer Test, d.h. man rechnet mit der asymptotischen Verteilung (f¨ ur n → ∞) der Testgr¨ oße unter H

0

.

I

Hypothesen:

H

0

: F (x) = F

0

(x) , x ∈ R , F

0

ist eine Verteilungsfunktion, z.B. F

0

(x) = Φ

x − µ σ

falls X ∼ N(µ, σ

2

) ;

H

A

: F (x ) 6= F

0

(x ) f¨ ur mindestens ein x ∈ R .

(14)

χ 2 −Anpassungstest Grafik

Tests for Normality for Nennmaß

Test Statistic P-Value

Shapiro-Wilk W 0,979963 0,4061

Goodness-of-Fit Tests for Nennmaß Kolmogorov-Smirnov Test

Normal DPLUS 0,0485841 DMINUS 0,0550786 DN 0,0550786 P-Value 0,753039

(15)

χ 2 − Anpassungstest – Testgr¨ oße T

I

Einteilung der gesamten Merkmalsachse in k Klassen A

1

= (−∞, a

1

), A

2

= [a

1

, a

2

), . . . , A

k

= [a

k−1

, ∞) .

I

Bestimmung der absoluten Klassenh¨ aufigkeiten H

1

, H

2

, . . . , H

k

(Anzahl der Stichprobenwerte in der jeweiligen Klasse).

I

Bestimmung der theoretischen Wahrscheinlichkeiten f¨ ur die

Klassenzugeh¨ origkeiten unter der Annahme der G¨ ultigkeit von H

0

, p

1

= P

H0

(A

1

) = P

H0

(X < a

1

) = F

0

(a

1

) ,

p

2

= P

H0

(A

2

) = P

H0

(a

1

≤ X < a

2

) = F

0

(a

2

) − F

0

(a

1

) , . . .

p

k

= P

H0

(A

k

) = P

H0

(a

k−1

≤ X ) = 1 − F

0

(a

k−1

).

I

Testgr¨ oße: T =

k

X

j=1

(H

j

− np

j

)

2

np

j

(

” χ

2

−Abstandsfunktion “),

diese Gr¨ oße ist unter H

0

asymptotisch χ

2k−1

−verteilt.

(16)

χ 2 −Anpassungstest – Kritischer Bereich

I

Kritischer Bereich: K = {t ∈ R : t > χ

2k−1;1−α

} .

I

Bemerkungen:

I

Der Stichprobenumfang n sollte nicht zu klein sein.

I

Die Anzahl und die Gr¨ oße der Klassen A

j

sollten so sein, dass np

j

= nP

H0

(X ∈ A

j

) > 1 f¨ ur alle j = 1, . . . , k gilt (und zus¨ atzlich np

j

≥ 5 f¨ ur mindestens 80% der Klassen; ggf. Klassen

zusammenfassen oder gesamte Klasseneinteilung ¨ andern).

I

Bei diskreten Verteilungen und nicht zu kleinen

Einzelwahrscheinlichkeiten sollte pro Merkmalswert jeweils eine Klasse gew¨ ahlt werden.

I

Modifikation:

Unbekannte Parameter in der Verteilungsfunktion F

0

k¨ onnen durch (Maximum-Likelihood-)Sch¨ atzungen ersetzt werden.

Sind m Parameter zu sch¨ atzen, so ist anstelle der

χ

2k−1

−Verteilung die χ

2k−m−1

−Verteilung zu benutzen.

(17)

Beispiel 4.7: Test auf gerechten W¨ urfel

Anhand einer Stichprobe von n = 90 W¨ urfelergebnissen soll mit α = 0.05 getestet werden, ob der W¨ urfel gerecht ist, d.h. ob f¨ ur die Augenzahl X gilt: H

0

: p

i

= P (X = i) = 1/6 , i = 1, . . . , 6 .

1 2 3 4 5 6

05101520

Würfel Beispiel 4.7

Augenzahl

absolute Häufigkeiten

beobachtete Häfigkeiten erwartete Häufigkeiten

(18)

Beispiel 4.7: Test auf gerechten W¨ urfel

I

Daten:

Augenzahl 1 2 3 4 5 6

H

j

19 13 14 12 17 15 np

j

15 15 15 15 15 15

I

Wert der Testgr¨ oße:

t = (19 − 15)

2

15 + (13 − 15)

2

15 + (14 − 15)

2

15 + (12 − 15)

2

15 + (17 − 15)

2

15 + (15 − 15)

2

15

= 16 15 + 4

15 + 1 15 + 9

15 + 4 15 + 0

15 = 34

15 = 2.26 .

I

Kritischer Bereich: K = (χ

25;0.95

, ∞) = (11.07 , ∞) .

I

Testentscheidung: t 6∈ K , H

0

wird nicht abgelehnt.

I

Testergebnis: Die Abweichungen der beobachteten H¨ aufigkeiten

von einer diskreten Gleichverteilung sind nicht signifikant.

(19)

Beispiel 4.7: Statgraphics

Goodness-of-Fit Tests for Würfel

Chi-Square Test

Lower Upper Observed Expected

Limit Limit Frequency Frequency Chi-Square

at or below 1,0 19 15,00 1,07

2,0 2,0 13 15,00 0,27

3,0 3,0 14 15,00 0,07

4,0 4,0 12 15,00 0,60

5,0 5,0 17 15,00 0,27

6,0 15 15,00 0,00

Chi-Square = 2,26667 with 3 d.f. P-Value = 0,518933

I

Testentscheidung: p = 0.519 > 0.05 = α , H

0

wird nicht abgelehnt.

I

Testergebnis: Die Abweichungen der beobachteten H¨ aufigkeiten

von einer diskreten Gleichverteilung sind nicht signifikant.

(20)

Beispiel 4.8: technisches Nennmaß

I

X . . . technisches Nennmaß;

X ∼ N(µ, σ

2

) wird getestet.

I

H

0

: F (x) = Φ

x − µ σ

, x ∈ R;

H

A

: F (x) 6= Φ

x − µ σ

f¨ ur mindestens ein x ∈ R .

I

α = 0.05 .

I

n = 150 Messungen, ˆ

µ = x = 40.43 , σ ˆ = s = 5.93 ⇒ m = 2 Sch¨ atzparameter.

Sei k = 8 (Anzahl der Klassen); z

j

= a

j

− x

s , j = 1, . . . , k .

(21)

Beispiel 4.8: technisches Nennmaß – Daten und Test

I

a

j

H

j

z

j

Φ(z

j

) p

j

np

j

. . . 30.5 6 -1.67 0.0475 0.0475 7.12

30.5 . . . 33.5 13 -1.17 0.1210 0.0735 11.03

33.5 . . . 36.5 17 -0.66 0.2546 0.1336 20.04

36.5 . . . 39.5 30 -0.16 0.4364 0.1818 27.27

39.5 . . . 42.5 30 0.35 0.6368 0.2004 30.06

42.5 . . . 45.5 28 0.85 0.8023 0.1655 24.83

45.5 . . . 48.5 13 1.36 0.9131 0.1108 16.61

48.5 . . . 13 0.0869 13.04

150 1.0000

I

t =

k

X

j=1

(H

j

− np

j

)

2

np

j

= 2.45 , K = (χ

28−2−1;0.95

= 11.1, ∞) ,

t 6∈ K , H

0

wird nicht abgelehnt, zum Niveau von 5% sind die

Abweichungen zur Normalverteilung nicht signifikant.

(22)

Beispiel 4.8: Statgraphics

Goodness-of-Fit Tests for Nennmaß Chi-Square Test

Lower Upper Observed Expected Limit Limit Frequency Frequency Chi-Square

at or below 30,5 6 7,05 0,16

30,5 33,5 13 11,14 0,31

33,5 36,5 17 19,88 0,42

36,5 39,5 30 27,61 0,21

39,5 42,5 30 29,83 0,00

42,5 45,5 28 25,08 0,34

45,5 48,5 13 16,41 0,71

above 48,5 13 12,99 0,00

Chi-Square = 2,14148 with 5 d.f. P-Value = 0,829243

Goodness-of-Fit Tests for Nennmaß Chi-Square Test

Lower Upper Observed Expected

Limit Limit Frequency Frequency Chi-Square

at or below 30,5 6 7,05 0,16

30,5 33,5 13 11,14 0,31

33,5 36,5 17 19,88 0,42

36,5 39,5 30 27,61 0,21

39,5 42,5 30 29,83 0,00

42,5 45,5 28 25,08 0,34

45,5 48,5 13 16,41 0,71

above 48,5 13 12,99 0,00

Chi-Square = 2,14148 with 5 d.f. P-Value = 0,829243

(23)

Der Kolmogorow-Smirnow-Test

I

Der Kolmogorow-Smirnow-Test (Kolmogorow-Anpassungstest) basiert auf der empirischen Verteilungsfunktion ˆ F

n

zur Stichprobe (vom Umfang n):

F ˆ

n

(x) := Anzahl Stichprobenwerte < x

n , x ∈ R .

I

Voraussetzung: Die hypothetische Verteilungsfunktion F

0

ist stetig und enth¨ alt keine unbekannten Parameter.

I

Hypothesen:

H

0

: F (x) = F

0

(x) , x ∈ R ;

H

A

: F (x ) 6= F

0

(x ) f¨ ur mindestens ein x ∈ R .

I

Testgr¨ oße: T = sup

x∈R

| F ˆ

n

(x) − F

0

(x)| .

I

Der Test wird g¨ unstigerweise mit einem Computerprogramm

durchgef¨ uhrt.

(24)

Kolmogorow-Smirnow-Test im Beispiel 4.8:

25 30 35 40 45 50 55

0.00.20.40.60.81.0

empirische Verteilungsfunktion hypothetische Verteilungsfunktion

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 24

(25)

Beispiel 4.8: Statgraphics

Tests for Normality for Nennmaß

Test Statistic P-Value

Shapiro-Wilk W 0,979963 0,4061

Goodness-of-Fit Tests for Nennmaß Kolmogorov-Smirnov Test

Normal DPLUS 0,0485841 DMINUS 0,0550786 DN 0,0550786 P-Value 0,753039

p = 0.753039 > 0.05 = α = ⇒ H

0

wird nicht abgelehnt, zum Niveau von 5% sind die Abweichungen zur Normalverteilung nicht signifikant.

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 25

(26)

Bemerkungen zum Kolmogorow-Smirnow-Test

I

Der Kolmogorow-Smirnow-Test (kurz auch

” K-S-Test “) ist im Gegensatz zum χ

2

−Anpassungstest auch f¨ ur kleine Stichproben anwendbar und das Testergebnis h¨ angt nicht von einer

Klasseneinteilung ab.

I

Man kann einseitige Tests mit dem K-S-Test durchf¨ uhren.

I

Es gibt Verallgemeinerungen des K-S-Tests, bei denen statt festgelegter Parameterwerte der hypothetischen Verteilung F

0

geeignete Sch¨ atzwerte eingesetzt werden

(z.B. der Lilliefors-Test im Fall von Normalverteilungen).

I

Man kann mit einer Version des K-S-Testes auch pr¨ ufen, ob zwei Stichproben aus einer Grundgesamtheit stammen, also

¨

ubereinstimmende Verteilungen zugrundeliegen.

I

Der K-S-Test kann auch f¨ ur diskrete Verteilungen genutzt werden,

besitzt dann aber eine geringere G¨ ute.

(27)

Der Shapiro-Wilk-Test zur Normalverteilungspr¨ ufung

I

Der Shapiro-Wilk-Test pr¨ uft ausschließlich, ob bei einer Stichprobe eine Normalverteilung vorliegt.

I

Dieser Test besitzt eine hohe G¨ ute, insbesondere auch im Fall von kleinen Stichprobenumf¨ angen.

I

Grundlage des Tests sind bestimmte Eigenschaften der

Ordnungsstatistiken einer Stichprobe aus einer normalverteilten Grundgesamtheit.

I

Der Test ist sehr rechenintensiv und sollte mit Statistik-Software durchgef¨ uhrt werden.

I

Statgraphics-Ergebnis in Beispiel 4.8:

Tests for Normality for Nennmaß

Test Statistic P-Value

Shapiro-Wilk W 0,979963 0,4061

Goodness-of-Fit Tests for Nennmaß Kolmogorov-Smirnov Test

Normal DPLUS 0,0485841 DMINUS 0,0550786 DN 0,0550786 P-Value 0,753039

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 27

(28)

4.5 χ 2 − Unabh¨ angigkeitstest; Homogenit¨ atstest

I

Mit dem χ

2

−Unabh¨ angigkeitstest ¨ uberpr¨ uft man, ob zwei Merkmale X und Y stochastisch unabh¨ angig sind, d.h. ob f¨ ur beliebige (zul¨ assige) Mengen A , B gilt:

P (X ∈ A , Y ∈ B) = P(X ∈ A) · P (Y ∈ B) .

I

Konkreter pr¨ uft man, ob die relativen H¨ aufigkeiten (berechnet aus einer verbundenen Stichprobe) n¨ aherungsweise diese Produktregel erf¨ ullen.

I

Hypothesen: H

0

: X und Y sind stochastisch unabh¨ angig, H

A

: X und Y sind abh¨ angig.

I

Verbundene Stichproben: x

1

, x

2

, . . . , x

n

; y

1

, y

2

, . . . , y

n

.

I

Einteilung der Merkmalsachsen in Klassen:

f¨ ur X : A

1

, . . . , A

k

; f¨ ur Y : B

1

, . . . , B

`

.

(29)

Kontingenztafel

I

Absolute H¨ aufigkeiten:

H

ij

: Anzahl der Beobachtungen, bei denen das Merkmal X in der Klasse A

i

und gleichzeitig das dazugeh¨ orige Merkmal Y in B

j

liegt.

I

Randh¨ aufigkeiten: H

i•

=

`

X

j=1

H

ij

, H

•j

=

k

X

i=1

H

ij

.

I

Kontingenztafel: X \Y B

1

. . . B

`

A

1

H

11

H

1`

H

1•

.. .

A

k

H

k1

H

k`

H

k•

H

•1

H

•`

n

I

Im Fall k = ` = 2 wird eine solche Tafel auch Vierfeldertafel oder 2 × 2−Felder-Tafel genannt. Sie wird h¨ aufig bei nominellen

Merkmalen mit zwei Auspr¨ agungen (dichotome Merkmale) benutzt.

(30)

χ 2 − Unabh¨ angigkeitstest – Testgr¨ oße, kritischer Bereich

I

Testgr¨ oße: (

” empirische Kontingenz“) T =

k

X

i=1

`

X

j=1

H

ij

HinH•j

2 Hi•H•j

n

.

I

F¨ ur eine Vierfeldertafel kann die Testgr¨ oße einfacher berechnet werden durch

T = n (H

11

H

22

− H

12

H

21

)

2

H

1•

H

2•

H

•1

H

•2

.

I

Kritischer Bereich: K = {t ∈ R : t > χ

2(k−1)(`−1);1−α

} .

(31)

χ 2 − Unabh¨ angigkeitstest – Bemerkungen

I

Von den Klassenh¨ aufigkeiten sollten h¨ ochstens 20% kleiner als 5 sein, aber alle mindestens gleich 1.

I

Der χ

2

−Unabh¨ angigkeitstest mit Hilfe einer Vierfeldertafel sollte f¨ ur Stichprobenumf¨ ange n < 20 nicht verwendet werden (sondern der ” exakte Test von Fisher“).

I

F¨ ur 20 ≤ n ≤ 60 eignet sich die nach Yates korrigierte Teststatistik T = n |H

11

H

22

− H

12

H

21

| −

n2

2

H

1•

H

2•

H

•1

H

•2

.

(32)

Beispiel 4.9: Eignung versus Studienabschluss

I

30 Wirtschaftsingenieure (b

1

), 35 graduierte Betriebswirte (b

2

) und 35 Diplomkaufleute (b

3

), die sich bei einem Unternehmen beworben haben, werden nach einer Eignungspr¨ ufung in die Kategorien

” geeignet“ (a

1

) und

” ungeeignet“ (a

2

) eingeordnet. Ist diese Eignung vom Studienabschluss abh¨ angig oder nicht:

I

Merkmal X (Eignung), Merkmal Y (Studienabschluss); α = 0.05 .

I

Hypothesen:

H

0

: Merkmal X und Merkmal Y sind unabh¨ angig,

H

A

: Merkmal X und Merkmal Y sind abh¨ angig.

(33)

Beispiel 4.9: Eignung versus Studienabschluss

I

Kontingenztafel: (Quelle: Bleym¨ uller, Gehlert, G¨ ulicher: Statistik f¨ ur Wirtschaftswissenschaftler, 2004, Abschn. 19.2.)

Y \X a

1

a

2

b

1

14 16 30 b

2

10 25 35 b

3

16 19 35 40 60 100

Frequency Table

geeignet ungeeignet Row Total Wirtschaftsingenieure 14 16 30

12,00 18,00 30,00%

graduierte Betriebswirte 10 25 35 14,00 21,00 35,00%

Diplomkaufleute 16 19 35

14,00 21,00 35,00%

Column Total 40 60 100

40,00% 60,00% 100,00%

Cell contents:

Observed frequency Expected frequency Tests of Independence

Test Statistic Df P-Value Chi-Square 2,937 2 0,2303

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 33

(34)

Beispiel 4.9: Testgr¨ oße, Testentscheidung

I

Kontingenztafel:

X \Y b

1

b

2

b

3

a

1

14 10 16 40 a

2

16 25 19 60 30 35 35 100

I

Berechnung Testgr¨ oße: H

i•

H

•j

n : 12 14 14 18 21 21 t = (14 − 12)

2

12 + (10 − 14)

2

14 + (16 − 14)

2

14 + (16 − 18)

2

18 +

(25 − 21)

2

21 + (19 − 21)

2

21 = 2.937 < χ

22;0.95

= 5.99 .

I

Die Hypothese H

0

:

” A und B sind unabh¨ angig“ wird nicht

abgelehnt, man kann nicht davon ausgehen, dass die Eignung

signifikant vom Studienabschluss abh¨ angt.

(35)

Beispiel 4.9: Statgraphics

Frequency Table

geeignet ungeeignet Row Total Wirtschaftsingenieure 14 16 30

12,00 18,00 30,00%

graduierte Betriebswirte 10 25 35 14,00 21,00 35,00%

Diplomkaufleute 16 19 35

14,00 21,00 35,00%

Column Total 40 60 100

40,00% 60,00% 100,00%

Cell contents:

Observed frequency Expected frequency

Tests of Independence

Test Statistic Df P-Value

Chi-Square 2,937 2 0,2303

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 3 Version: 15. Oktober 2019 35

Referenzen

ÄHNLICHE DOKUMENTE

Prädiktoren: (Konstante), Anspruch, Lohn, Kreativität, Leistungsstreben, Arbeitsbedingungen, Vielfalt, Lernpotential, Hierarchie, Ehrgeiz ca. Prädiktoren: (Konstante), Anspruch,

I Es k¨ onnen H¨ aufigkeitsangaben verarbeitet werden (wie hier bisher im Beispiel 7.6), aber auch die einzelnen dichotomen Merkmalswerte (0 und 1) direkt.. I Im Folgenden

I Ein ideales Pr¨ ufverfahren (bei dem keine Fehlentscheidungen getroffen werden) w¨ are eine fehlerfreie Totalkontrolle (d.h. eine fehlerfreie Kontrolle aller Teile des Postens)..

I Bisher wurden attributive Stichprobenpl¨ ane behandelt, bei denen nur festgestellt wird, ob die ¨ uberpr¨ uften St¨ ucke brauchbar oder unbrauchbar sind. I Trifft man

I Weiterhin gibt es Kontrollkarten mit Ged¨ achtnis, bei denen eine Entscheidung ¨ uber einen Eingriff auch aufgrund der Ergebnisse vergangener Stichproben getroffen wird. I

I Sind zus¨ atzliche Informationen zu einem Zufallsexperiment verf¨ ugbar (oder werden diese hypothetisch angenommen), k¨ onnen sich die Wahrscheinlichkeiten f¨ ur die zuf¨

I Oft sind Ergebnisse von Zufallsversuchen in Form von Zahlen gegeben oder es ist f¨ ur eine mathematische Behandlung g¨ unstig, den elementaren Versuchsausg¨ angen Zahlen

I Die wichtigste Kenngr¨ oße f¨ ur die Variabilit¨ at von Zufallsgr¨ oßen ist die Varianz der Zufallsgr¨ oße, auch Streuung oder Dispersion genannt.. Diese Eigenschaft gilt aber