• Keine Ergebnisse gefunden

Statistik f¨ur Ingenieure 5 Schließende Statistik

N/A
N/A
Protected

Academic year: 2021

Aktie "Statistik f¨ur Ingenieure 5 Schließende Statistik"

Copied!
88
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Statistik f¨ ur Ingenieure 5 Schließende Statistik

Prof. Dr. Hans-J¨ org Starkloff

TU Bergakademie Freiberg Institut f¨ ur Stochastik

Wintersemester 2019/2020

letzte ¨ Anderung: 6.1.2020

(2)

5 Schließende Statistik

5.1 Statistische Tests (Signifikanztests)

I Mit Hilfe von statistischen Tests (Signifikanztests) ¨ uberpr¨ uft man, ob die vorhandenen Daten mit bestimmten Annahmen an die Verteilung der entsprechenden Zufallsgr¨ oßen im stochastischen Modell vertr¨ aglich sind.

I Dabei muss man ber¨ ucksichtigen, dass bedingt durch die

Zufallssituation und die zuf¨ allige Streuung der Realisierungen der Zufallsgr¨ oßen im Allgemeinen keine 100%-ig richtigen

Entscheidungen (die Annahmen an die Verteilung stimmen / stimmen nicht) getroffen werden k¨ onnen, sondern dass jede Entscheidung auch fehlerhaft sein kann.

I Deshalb versucht man die Wahrscheinlichkeit daf¨ ur, dass die

Entscheidung fehlerhaft ist, zu kontrollieren.

(3)

Beispielaufgabe: Waschmittelpackungen

I Bei einem Verbrauchertest f¨ ur Waschmittel werde auch die Abf¨ ullmenge kontrolliert. Dabei ergaben sich bei 10 zuf¨ allig ausgew¨ ahlten 5 kg Packungen einer bestimmten Sorte folgende Abf¨ ullmengen (in kg) :

4.6 , 4.95 , 4.8 , 4.9 , 4.75 , 5.05 , 4.9 , 5.1 , 4.85 , 4.95 . Ist auf der Basis dieser Beobachtungswerte die Auffassung

vertretbar, dass die Packungen im Mittel weniger Waschmittel als angegeben enthalten ?

I Wir modellieren die tats¨ achliche Abf¨ ullmenge (in kg) einer Waschmittelpackung als Zufallsgr¨ oße X .

I Berechnete Sch¨ atzwerte f¨ ur den Erwartungswert, die

Standardabweichung und die Varianz der Merkmalsgr¨ oße sind:

x = 4.885 , s = 0.145 , s 2 = 0.0211 .

(4)

Uberlegungen zur Beispielaufgabe ¨

I Der Erwartungswert µ ist unbekannt.

I Zu ¨ uberpr¨ ufen ist die Richtigkeit der Vermutung, dass der Erwartungswert µ kleiner ist als der Sollwert µ 0 = 5 . I Dies kann aber nicht einfach aus der Tatsache

x = 4.885 < 5 = µ 0 gefolgert werden.

I Man kann schließlich zuf¨ allig eine Stichprobe mit geringen

Abf¨ ullmengen erwischt haben.

(5)

Hintergrund des Tests f¨ ur die vereinfachte Beispielaufgabe

I Annahme: X ∼ N(µ 0 , σ 2 ) = N(5, 0.025) . I Folglich gilt: X = 1

n

n

X

i=1

X i ∼ N

µ 0 , σ 2 n

= N

5, 0.025 n

, falls X i ∼ N(µ 0 , σ 2 ), i = 1, . . . , n i.i.d. (mathem. Stichprobe).

I Insbesondere: X ∼ N (5, 0.0025) und T := X 0.05 −5 ∼ N(0, 1) . I F¨ ur die konkrete Stichprobe gilt: t = −2.3 .

I Realisierungen t der Testgr¨ oße T mit t < z 0.05 = −1.645 (0.05-Quantil der Standardnormalverteilung) sind sehr selten, deshalb geht man bei einer auftretenden Realisierung der Testgr¨ oße in diesem Bereich (wie hier im Beispiel) eher davon aus, dass die gemachte Annahme (

” der wahre Erwartungswert von X ist 5“) falsch ist, die Abweichungen vom Sollwert also

” signifikant“

( ” statistisch gesichert“) sind.

(6)

Grundlegende ¨ Uberlegungen zu statistischen Tests

I Aufstellen der Hypothesen:

Man formuliert 2 Hypothesen, die Nullhypothese H 0 und die Alternativhypothese H A (oft auch mit H 1 bezeichnet) z.B. H 0 : µ = µ 0 und H A : µ 6= µ 0

oder H 0 : µ = µ 0 und H A : µ < µ 0 .

Beachte: Die Hypothese, die statistisch abgesichert werden soll, sollte als Alternativhypothese formuliert werden!

I 2 m¨ ogliche Entscheidungen beim Testen:

1. H 0 wird verworfen : Es gibt in der erhobenen Stichprobe starke Hinweise darauf, dass H 0 nicht gelten kann, also H A gelten muss.

Diese Hinweise sind so stark, dass man nicht von einem zuf¨ alligen Zustandekommen ausgehen kann.

2. H 0 wird nicht verworfen : Man hat keine Hinweise gefunden, die

gegen H 0 sprechen. Alle aufgetretenen Effekte k¨ onnten genausogut

zufallsbedingt sein.

(7)

Grundlegende ¨ Uberlegungen zu statistischen Tests

I Statistisches Testproblem: Aufgabenstellung zwischen der G¨ ultigkeit von H 0 und H A zu unterscheiden.

I Statistischer Test: formale Entscheidungsregel f¨ ur eine der zwei M¨ oglichkeiten.

I M¨ ogliche Fehler beim Testen:

I Fehler 1. Art: man verwirft H 0 , obwohl H 0 richtig ist.

I Fehler 2. Art: man verwirft H 0 nicht, obwohl H 0 falsch ist.

⇒ Tests sind so zu konstruieren, dass beide Fehler m¨ oglichst klein sind.

I Aber es k¨ onnen nicht beide Fehler gleichzeitig kontrolliert werden.

⇒ Man gibt sich eine (relativ kleine) obere Schranke f¨ ur die

Wahrscheinlichkeit des Fehlers 1. Art vor, die nicht ¨ uberschritten werden soll – das sogenannte Signifikanzniveau α.

I Ubliche Werte f¨ ¨ ur das Signifikanzniveau α sind 0.05 oder 0.01 .

(8)

Grundlegende ¨ Uberlegungen zu statistischen Tests

I In der Regel wird ein statistischer Test so konstruiert, dass er unter allen Tests, f¨ ur die die Wahrscheinlichkeit des Fehlers 1. Art das gegebene Signifikanzniveau nicht ¨ uberschreitet, den Fehler 2. Art minimiert.

I Wie erh¨ alt man eine Entscheidungsregel f¨ ur ein gegebenes Testproblem?

I Im obigen Beispiel w¨ urde man intuitiv so vorgehen:

I Liegt die Sch¨ atzung x f¨ ur µ ¨ uber oder nur knapp unter µ 0 = 5 , so kann man nicht mit hinreichender Sicherheit schließen, dass H 0 : µ ≥ µ 0 = 5 nicht gilt.

I Liegt hingegen x unter einem kritischen Wert deutlich unter µ 0 = 5 , so kann man die Nullhypothese verwerfen.

I Wie weit der kritische Wert unter µ 0 liegen muss, h¨ angt vom

Signifikanzniveau α und dem Stichprobenumfang ab (und von der

unbekannten Varianz).

(9)

Allgemeine Struktur der Entscheidungsregel

I Im Allgemeinen besteht die Entscheidungsregel f¨ ur ein Testproblem aus einer Testgr¨ oße T und einem kritischen Bereich K α .

I Testgr¨ oße T :

I ist eine Stichprobenfunktion (d.h. eine Funktion der mathematischen Stichprobe X 1 , ..., X n ), also eine Zufallsgr¨ oße;

I ist bei Parametertests oft eine Sch¨ atzfunktion f¨ ur den zu testenden Parameter oder davon abgeleitet (im Beispiel X );

I hat eine bekannte Verteilung bei G¨ ultigkeit der Nullhypothese.

I Setzt man statt der mathematischen Stichprobe eine konkrete Stichprobe x 1 , ..., x n ein, so erh¨ alt man eine reelle Zahl t als Realisierung der Zufallsgr¨ oße T .

I Kritischer Bereich (Ablehnungsbereich) K α : I ist von α abh¨ angig;

I wird so konstruiert, dass P(T ∈ K α |H 0 ) ≤ α gilt.

I Im Beispiel ist K α = {t ∈ R : t < t α } , wobei t α der oben

erw¨ ahnte kritische Wert ist.

(10)

Entscheidung beim Test

I Die Entscheidung lautet dann: ist t ∈ K α , so wird H 0 verworfen, andernfalls nicht.

I Alternative Entscheidungsregel (zumeist in statistischer Software umgesetzt):

I Berechnung eines p-Werts (p-value) : p = min{α : t ∈ K α } ;

I H 0 wird verworfen, wenn p ≤ α , bei p > α wird H 0 beibehalten.

(11)

Allgemeiner Testablauf

Allgemeiner Ablauf eines statistischen Tests:

1. Aufstellen der Hypothesen

2. Festlegen des Signifikanzniveaus α 3. Bestimmen der Testgr¨ oße T

4. Berechnung der Realisierung t der Testgr¨ oße T auf der Basis der konkreten Stichprobe (x 1 , . . . , x n )

5. Bestimmen des kritischen Bereichs K α bzw. des p-Wertes 6. Testentscheidung:

t ∈ K α ⇔ p ≤ α ⇒ Ablehnung von H 0 ;

t 6∈ K α ⇔ p > α ⇒ Stichprobe spricht nicht gegen H 0 .

7. Schlussfolgerung f¨ ur die gegebene Aufgabenstellung Im Beispiel :

Die Vermutung, dass das Gewicht der Waschmittelpackungen

systematisch geringer als 5 kg ist, ist (nicht) statistisch abgesichert.

(12)

Interpretation der Testergebnisse

I Beim Testen wird nur die Wahrscheinlichkeit f¨ ur den Fehler 1. Art kontrolliert, d.h. P(H 0 ablehnen | H 0 ist wahr) ≤ α .

I Wenn also H 0 tats¨ achlich gilt, wird man sich nur in α · 100% der F¨ alle f¨ ur H A entscheiden.

I Die Entscheidung f¨ ur H A ist in diesem Sinn statistisch abgesichert.

I Bei einer Entscheidung gegen H 0 und damit f¨ ur H A spricht man von einem signifikanten Ergebnis.

I Die Wahrscheinlichkeit f¨ ur den Fehler 2. Art wird nicht kontrolliert.

⇒ Eine Entscheidung H 0 beizubehalten ist nicht statistisch abgesichert.

⇒ Kann man H 0 nicht verwerfen, bedeutet das daher nicht, dass man

sich ” aktiv“ f¨ ur H 0 entscheidet, es spricht nur nichts gegen H 0 .

(13)

Auswahl eines geeigneten Tests

I Da es eine Vielzahl unterschiedlicher Tests gibt, ist die Auswahl eines geeigneten Tests eine wichtige Aufgabe.

I Bei dieser Auswahl spielen unter anderem eine Rolle I das Skalenniveau des Merkmals oder der Merkmale;

I die Stichprobensituation: eine Stichprobe von reellen Werten / eine vektorielle Stichprobe (eine gepaarte oder verbundene Stichprobe) / zwei (unabh¨ angige) Stichproben / mehr als zwei (unabh¨ angige) Stichproben;

I Vorkenntnisse (z.B. durch vorangegangene Tests) oder Annahmen an die Verteilung der Merkmalszufallsgr¨ oße(n);

I die zu l¨ osende Aufgabenstellung, z.B. im Hinblick auf m¨ ogliche unterschiedliche Alternativhypothesen zu einer gew¨ ahlten Nullhypothese.

I Viele Tests sind in Statistikcomputerprogrammen verf¨ ugbar, auch in

R. Dann ist neben der Auswahl eines geeigneten Tests auch wichtig,

die Vorgehensweise bzw. den Aufruf zu kennen und die Ergebnisse

richtig auszuwerten.

(14)

Uberblick: Tests f¨ ¨ ur Merkmale mit stetiger Skala

Tests für Merkmale mit stetiger Skala

Voraussetzung an die Verteilung

Stichprobensituation Eine Stichprobe

X

Gepaarte Stichproben D = X - Y

Zwei Stichproben X, Y

Mehrere Stichproben X1, …, Xk , k=3,4,…

Problemstellung

Lageparameter

normal Ein-Stichproben-t-Test

Ein-Stichproben-t-Test für D bzw.

Gepaarter t-Test für X und Y

Streuungen von X und Y unbekannt und gleich:

Zwei-Stichproben-t-Test Streuungen von X und Y unbekannt und nicht gleich:

WELCHs-t-Test

Streuungen von X1, …, Xk unbekannt und gleich:

Varianzanalyse (ANOVA)

stetig Vorzeichentest symmetrische Verteilung:

WILCOXON-Vorzeichen-Rang-Test

Vorzeichentest für D symmetrische Verteilung:

WILCOXON-Vorzeichen-Rang-Test

WILCOXON-Rang-Summen-Test KRUSKAL-WALLIS-Test

Streuungsparameter normal -Test auf Streuung -Test auf Streuung für D F-Test BARTLETT-Test

stetig ? ? FLIGNER-Test FLIGNER-Test

Verteilung

normal SHAPIRO-WILK-Test SHAPIRO-WILK-Test für D 2 SHAPIRO-WILK-Tests für X und Y k SHAPIRO-WILK-Tests für X1, …, Xk

identisch stetig Zwei-Stichproben-

KOLMOGOROFF-SMIRNOW-Test ?

konkret

-Anpassungs-Test -Anpassungs-Test für D 2-Anpassungs-Tests für X und Y k -Anpassungs-Tests für X1, …, Xk

stetig Ein-Stichproben- KOLMOGOROFF-SMIRNOW-Test

Ein-Stichproben-KOLMOGOROFF- SMIRNOW-Test für D

2 Ein-Stichproben-KOLMOGOROFF- SMIRNOW-Tests für X und Y

k Ein-Stichproben- KOLMOGOROFF-SMIRNOW- Tests für X1, …, Xk

(15)

5.1.1 Tests f¨ ur eine Stichprobe mit stetiger Skala a) Shapiro-Wilk -Test

I Mit dem Shapiro-Wilk -Test ¨ uberpr¨ uft man, ob die Daten mit einer Normalverteilung vertr¨ aglich sind.

I Geg.: konkrete Stichprobe x 1 , . . . , x n .

I Vor.: Merkmalszufallsgr¨ oße X auf stetiger Skala; repr¨ asentative Stichprobe.

I Hyp.: H 0 : X ist normalverteilt ; H A : X ist nicht normalverteilt I R-Aufruf: shapiro.test()

I Bem.:

I Die Parameter der vermuteten Normalverteilung (Erwartungswert und Varianz) m¨ ussen nicht bekannt sein.

I Der Test reagiert sensibel auf Ausreißer.

I Der Test ist relativ anf¨ allig gegen¨ uber Bindungen, deshalb sollten die Werte nicht stark gerundet sein.

I Die Testst¨ arke ist insbesondere bei kleinen Stichprobenumf¨ angen gr¨ oßer als bei allgemeinen Anpassungstests, wie dem

Kolmogorow-Smirnow -Test oder dem χ 2 −Anpassungstest.

(16)

Bsp. Shapiro-Wilk -Test f¨ ur exponentialverteilte Daten

> x1=rexp(50) # Simulation der exponentialverteilten Werte

> shapiro.test(x1)

Shapiro-Wilk normality test data: x1

W = 0.87719, p-value = 9.203e-05 # W ist Wert der Teststatistik

> hist(x1) # Histogramm

> qqnorm(x1) # Q-Q-Plot bzgl. Normalverteilung

(17)

Bsp. Shapiro-Wilk -Test f¨ ur normalverteilte Daten

> x2=rnorm(50) # Simulation der normalverteilten Werte

> shapiro.test(x2)

Shapiro-Wilk normality test data: x2

W = 0.99268, p-value = 0.9885 # W ist Wert der Teststatistik

> hist(x2) # Histogramm

> qqnorm(x2) # Q-Q-Plot bzgl. Normalverteilung

(18)

b) Kolmogorow-Smirnow -Test

I Mit dem Kolmogorow-Smirnow -Test ¨ uberpr¨ uft man, ob die Daten mit einer vorgebenen Verteilung vertr¨ aglich sind.

I Geg.: konkrete Stichprobe x 1 , . . . , x n .

I Vor.: Merkmalszufallsgr¨ oße X auf stetiger Skala; repr¨ asentative Stichprobe.

I Hyp.:

H 0 : F X = F 0 (Verteilungsfunktion von X ist F 0 ) ; H A : F X 6= F 0 (Verteilungsfunktion von X ist nicht F 0 ) . I R-Aufruf: ks.test(,)

I Bem.:

I Die Verteilungsfunktion F 0 muss vollst¨ andig bekannt sein, insbesondere alle Parameter.

I Es gibt Varianten des Tests f¨ ur spezielle F¨ alle mit gesch¨ atzten Parametern.

I Der Test ist relativ anf¨ allig gegen¨ uber Bindungen, deshalb sollten die

Werte nicht stark gerundet sein.

(19)

Bsp. Kolmogorow-Smirnow -Test mit R

> x1=rexp(50) # Simulation der exponentialverteilten Werte (Parameter=1)

> ks.test(x1,"pexp") # Test auf Exponentialverteilung mit Parameter=1 One-sample Kolmogorov-Smirnov test

data: x1

D = 0.086285, p-value = 0.8196 # D ist Wert der Teststatistik alternative hypothesis: two-sided

> ks.test(x1,"pexp",2) # Test auf Exponentialverteilung mit Parameter=2 One-sample Kolmogorov-Smirnov test

data: x1

D = 0.3334, p-value = 1.862e-05 # D ist Wert der Teststatistik alternative hypothesis: two-sided

> x2=rnorm(50) # Simulation der normalverteilten Werte

> ks.test(x2,"pnorm")

One-sample Kolmogorov-Smirnov test data: x2

D = 0.1081, p-value = 0.566 # D ist Wert der Teststatistik

alternative hypothesis: two-sided

(20)

c) χ 2 − Anpassungstest

I Mit dem χ 2 − Anpassungstest ¨ uberpr¨ uft man, ob die Daten mit einer vorgebenen Verteilung vertr¨ aglich sind.

I Geg.: konkrete Stichprobe x 1 , . . . , x n .

I Vor.: Merkmalszufallsgr¨ oße X auf stetiger Skala (auch f¨ ur andere m¨ oglich); repr¨ asentative Stichprobe.

I Hyp.:

H 0 : F X = F 0 (Verteilungsfunktion von X ist F 0 ) ;

H A : F X 6= F 0 (Verteilungsfunktion von X ist nicht F 0 ) .

I R-Aufruf: chisq.test(,)

(21)

Bemerkungen zum χ 2 − Anpassungstest

I Der χ 2 −Anpassungstest f¨ ur stetige Daten basiert auf einer Klasseneinteilung der Stichprobe und dem Vergleich der theoretischen H¨ aufigkeiten der Werte in den Klassen mit den empirischen H¨ aufigkeiten.

I Die Testgr¨ oße ist unter H 0 asymptotisch χ 2 −verteilt, dies ist eine h¨ aufiger vorkommende statistische Pr¨ ufverteilung mit einem

Parameter, der Anzahl der Freiheitsgrade genannt wird. Sie kann nur nichtnegative Werte annehmen.

I Die theoretische H¨ aufigkeit sollte pro Klasse mindestens 5 sein.

I Der Wert der Testgr¨ oße (und damit ggf. das Testergebnis) h¨ angt

von der gew¨ ahlten Klasseneinteilung ab, außerdem ist es nur ein

asymptotischer Test.

(22)

Bsp. χ 2 − Anpassungstest mit R

> x2=rnorm(50) # Simulation der normalverteilten Werte

> x2 cut=cut(x2,breaks=c(-3,-2,-1,0,1,2)) # Klasseneinteilung

> table(x2 cut) x2 cut

(-3,-2] (-2,-1] (-1,0] (0,1] (1,2]

1 5 22 17 5

> freq emp=vector() # Vektor der empirischen H¨ aufigkeiten

> for(i in 1:5) freq emp[i]=table(x2 cut)[[i]]

> freq emp [1] 1 5 22 17 5

> freq th=c(pnorm(-2),pnorm(-1)-pnorm(-2), pnorm(0)-pnorm(-1), + pnorm(1)-pnorm(0),1-pnorm(1))

> freq th # Vektor der theoretischen H¨ aufigkeiten [1] 0.02140023 0.13590512 0.34134475 0.34134475 0.13590512

> chisq.test(freq emp,freq th) Pearson’s Chi-squared test data: freq emp and freq th

X-squared = 3.0011, df = 4, p-value = 0.5576 Warning message:

In chisq.test(freq emp, p=freq th) :

Chi-Quadrat-Approximation kann inkorrekt sein

(23)

d) Ein-Stichproben-t-Test

I Mit dem Ein-Stichproben-t-Test werden Annahmen ¨ uber den Erwartungswert einer normalverteilten Grundgesamtheit bei unbekannter Varianz ¨ uberpr¨ uft.

I Geg.: konkrete Stichprobe x 1 , . . . , x n .

I Vor.: normalverteilte Merkmalszufallsgr¨ oße X mit unbekanntem Erwartungswert µ und unbekannter Varianz σ 2 ; repr¨ asentative Stichprobe.

I Hyp.:

H 0 : µ = µ 0 (µ 0 ist eine gegebene (Soll-)Gr¨ oße) ;

H A : µ 6= µ 0 (zweiseitig) bzw. µ < µ 0 oder µ > µ 0 (einseitig) . I R-Aufruf: t.test()

I Bem.: Die Testgr¨ oße ist hier T = X − µ 0

S

√ n, diese ist unter H 0

t−verteilt mit n − 1 Freiheitsgraden. Die t−Verteilung oder Student-Verteilung ist eine weitere oft genutzte statistische Pr¨ ufverteilung mit einem Parameter (

” Anzahl der Freiheitsgrade“).

(24)

Bsp. Ein-Stichproben-t-Test mit R

I Simulation von Realisierungen N(0, 1)-verteilter Zufallsgr¨ oßen.

x=rnorm(50)

I Zweiseitiger t−Test f¨ ur H 0 : µ = 0 , H A : µ 6= 0 :

> t.test(x) One Sample t-test data: x

t = -0.63253, df = 49, p-value = 0.53

alternative hypothesis: true mean is not equal to 0 95 percent confidence interval:

-0.3206896 0.1671406 sample estimates:

mean of x

-0.07677448

(25)

Bsp. Ein-Stichproben-t-Test (einseitig) mit R

I Einseitiger t−Test f¨ ur H 0 : µ = 0, H A : µ < 0 :

> t.test(x,alternative="less") One Sample t-test

data: x

t = -0.63253, df = 49, p-value = 0.265 alternative hypothesis: true mean is less than 0 95 percent confidence interval:

-Inf 0.1267193 sample estimates:

mean of x -0.07677448

I Einseitiger t−Test f¨ ur H 0 : µ = 0 , H A : µ > 0 :

> t.test(x,alternative="greater") One Sample t-test

data: x

t = -0.63253, df = 49, p-value = 0.735

alternative hypothesis: true mean is greater than 0 95 percent confidence interval:

-0.2802683 Inf sample estimates:

mean of x

-0.07677448

(26)

Bsp. Ein-Stichproben-t-Test mit R Fortsetzung

I Zweiseitiger t−Test f¨ ur H 0 : µ = 1 , H A : µ 6= 1 :

> t.test(x,mu=1) One Sample t-test data: x

t = -8.8714, df = 49, p-value = 9.175e-12 alternative hypothesis: true mean is not equal to 1 95 percent confidence interval:

-0.3206896 0.1671406 sample estimates:

mean of x -0.07677448

I Zweiseitiger t−Test f¨ ur H 0 : µ = −0.1 , H A : µ 6= −0.1 :

> t.test(x,mu=-0.1) One Sample t-test data: x

t = 0.19135, df = 49, p-value = 0.849

alternative hypothesis: true mean is not equal to -0.1 95 percent confidence interval:

-0.3206896 0.1671406 sample estimates:

mean of x

-0.07677448

(27)

e) χ 2 -Test auf Streuung

I Mit dem χ 2 -Test auf Streuung werden Annahmen ¨ uber die Varianz einer normalverteilten Grundgesamtheit bei unbekanntem

Erwartungswert ¨ uberpr¨ uft.

I Geg.: konkrete Stichprobe x 1 , . . . , x n .

I Vor.: normalverteilte Merkmalszufallsgr¨ oße X mit unbekanntem Erwartungswert µ und unbekannter Varianz σ 2 ; repr¨ asentative Stichprobe.

I Hyp.:

H 0 : σ 2 = σ 0 20 2 ist eine gegebene (Soll-)Gr¨ oße) ;

H A : σ 2 6= σ 0 2 (zweiseitig) bzw. σ 2 < σ 0 2 oder σ 2 > σ 0 2 (einseitig) . I R-Aufruf: sigma.test() aus Zusatzpaket

” TeachingDemos“.

I Die Testgr¨ oße ist hier T = (n − 1)S 2

σ 0 2 , diese ist unter H 0

χ 2 −verteilt mit n − 1 Freiheitsgraden.

(28)

Bsp. 1 zweiseitiger χ 2 -Test auf Streuung mit R

Voraussetzung ist, dass das Programmpaket

” TeachingDemos“ vorher installiert wurde.

> require(TeachingDemos) # Laden des Programmpakets

> x=rnorm(50) # Simulation der normalverteilten Werte

> sigma.test(x)

One sample Chi-squared test for variance data: x

X-squared = 36.094, df = 49, p-value = 0.1704

alternative hypothesis: true variance is not equal to 1 95 percent confidence interval:

0.5139954 1.1438471 sample estimates:

var of x

0.7366122

(29)

Bsp. 2 einseitiger χ 2 -Test auf Streuung mit R

> require(TeachingDemos) # Laden des Programmpakets

> x=rnorm(50) # Simulation der normalverteilten Werte

> sigma.test(x,sigmasq=0.5,alternative="greater") One sample Chi-squared test for variance

data: x

X-squared = 72.188, df = 49, p-value = 0.01721

alternative hypothesis: true variance is greater than 0.5 95 percent confidence interval:

0.544087 Inf sample estimates:

var of x

0.7366122

(30)

f) Vorzeichentest

I Der Vorzeichentest oder Zeichentest dient als Test ¨ uber den Median einer stetigen Verteilung.

I Geg.: konkrete Stichprobe x 1 , . . . , x n .

I Vor.: Merkmalszufallsgr¨ oße X auf stetiger Skala; repr¨ asentative Stichprobe.

I Hyp.:

H 0 : X 0.5 = m (m ist ein vorgebener Wert f¨ ur den Median) ; H A : X 0.5 6= m .

I R-Aufruf: binom.test(table(x<m)) (f¨ ur Datenvektor x).

I Die Testgr¨ oße ist die Anzahl der Stichprobenwerte, die gr¨ oßer oder

gleich dem hypothetischen Wert m f¨ ur den Median sind. Sie ist

unter H 0 binomialverteilt mit den Parametern n und p = 0.5 . Der

Test heißt deshalb auch Binomialtest (bzw. ist ein Spezialfall davon).

(31)

Bsp. Vorzeichentest

I Der Vorzeichentest wird auf simulierte exponentialverteilte mit Parameter λ = 1 Daten angewandt.

Der theoretische Median einer solchen exponentialverteilten Zufallsgr¨ oße ist x 0.5 = ln(2) = 0.6931472 .

I >x=rexp(30) # Simulation der exponentialverteilten Werte

> binom.test(table(x<log(2))) Exact binomial test data: table(x < log(2))

number of successes = 16, number of trials = 30, p-value = 0.8555 alternative hypothesis: true probability of success is not equal to 0.5 95 percent confidence interval:

0.3432552 0.7165819 sample estimates:

probability of success

0.5333333

(32)

Bsp. Vorzeichentest Fortsetzung

I Bei einem Test auf den (falschen) hypothetischen Medianwert m = 1 erh¨ alt man f¨ ur diese Stichprobe folgenden Ausdruck.

I > binom.test(table(x<1)) Exact binomial test data: table(x < 1)

number of successes = 9, number of trials = 30, p-value = 0.04277 alternative hypothesis: true probability of success is not equal to 0.5 95 percent confidence interval:

0.1473452 0.4939590 sample estimates:

probability of success

0.3

(33)

Bsp. Vorzeichentest Erl¨ auterung zur Fortsetzung

I Zur Erl¨ auterung der R-Befehle seien hier die Stichprobe und Zwischenergebnisse mit angegeben.

I > x

[1] 0.12452168 0.45299701 0.02058257 0.75440725 0.86050930 [6] 2.97866055 0.03318594 0.63691576 0.81718036 0.45254250 [11] 0.20732538 0.93757553 0.92931209 2.21512245 0.86975410 [16] 0.60563118 0.41212784 0.05024501 1.91634500 1.05197948 [21] 0.67901945 1.61321168 0.65232898 1.67017803 0.06047516 [26] 0.80740846 2.01478421 1.14940138 1.15195415 0.18380546

> x<1

[1] TRUE TRUE TRUE TRUE TRUE FALSE TRUE TRUE TRUE TRUE [11] TRUE TRUE TRUE FALSE TRUE TRUE TRUE TRUE FALSE FALSE [21] TRUE FALSE TRUE FALSE TRUE TRUE FALSE FALSE FALSE TRUE

> table(x<1) FALSE TRUE

9 21

I Die Erfolgsanzahl im Test (hier 9, die erste der durch table(x<1)

zur¨ uckgegebene Zahl) ist also die Anzahl der Stichprobenwerte, f¨ ur

die die Bedingung (hier x < 1) nicht erf¨ ullt ist.

(34)

Bsp. Vorzeichentest (einseitig)

I Einseitige Tests k¨ onnen auch durchgef¨ uhrt werden.

I > binom.test(table(x<1),alternative="less") Exact binomial test

data: table(x < 1)

number of successes = 9, number of trials = 30, p-value = 0.02139 alternative hypothesis: true probability of success is less than 0.5 95 percent confidence interval:

0.0000000 0.4650727 sample estimates:

probability of success 0.3

I Hier wird zum Niveau 0.05 die Hypothese H 0 : P(X ≥ 1) = 0.5 abgelehnt und die Alternative H A : P(X ≥ 1) < 0.5 angenommen.

Dies bedeutet auch f¨ ur den Median, dass er signifikant kleiner als 1

ist.

(35)

g) Wilcoxon -Vorzeichen-Rang-Test

I Beim Wilcoxon -Vorzeichen-Rang-Test werden Hypothesen ¨ uber das Symmetriezentrum (und damit den Median) einer stetigen Verteilung gepr¨ uft.

I Geg.: konkrete Stichprobe x 1 , . . . , x n .

I Vor.: Merkmalszufallsgr¨ oße X mit stetiger und symmetrischer Verteilung ; repr¨ asentative Stichprobe .

I Hyp.:

H 0 : X 0.5 = m (m ist ein vorgebener Wert f¨ ur den Median);

H A : X 0.5 6= m .

I R-Aufruf: wilcox.test() .

I Die Testgr¨ oße nutzt Rangzahlen der Werte x i − m, i = 1, . . . , n , und damit mehr Informationen als der Vorzeichentest.

I Bindungen k¨ onnen problematisch sein.

(36)

Bsp. Wilcoxon -Vorzeichen-Rang-Test

I Der Vorzeichentest wird auf simulierte t−verteilte (mit 10 Freiheitsgraden) Daten angewandt. Dies ist eine symmetrische stetige Verteilung mit dem theoretischen Median x 0.5 = 0 .

I >x=rt(n=50,df=10) # Simulation von 50 t-verteilten Werten

> wilcox.test(x)

Wilcoxon signed rank test with continuity correction data: x

V = 800, p-value = 0.1179 # Annahme

alternative hypothesis: true location is not equal to 0

I Ein Test auf den (falschen) Median m = 1 ergibt:

> wilcox.test(x,mu=1)

Wilcoxon signed rank test with continuity correction data: x

V = 195, p-value = 1.983e-05 # Ablehnung

alternative hypothesis: true location is not equal to 1

(37)

5.1.2 Tests f¨ ur eine gepaarte (verbundene) Stichprobe (stetige Skala)

I Gegeben sei eine konkrete Stichprobe (x i , y i ) , i = 1, . . . , n , als Realisierungen von unabh¨ angigen und identisch verteilten stetigen Zufallsvektoren (X i , Y i ) , i = 1, . . . , n . F¨ ur jedes i beziehen sich die Werte x i und y i auf ein und denselben Merkmalstr¨ ager, so dass die Zufallsgr¨ oßen X i und Y i nicht als unabh¨ angig angesehen werden k¨ onnen.

I Macht die Differenzbildung D i = X i − Y i , i = 1, . . . , n , inhaltlich Sinn, dann k¨ onnen die Tests aus 5.1.1. auf die neu berechnete Stichprobe d 1 , . . . , d n (die nun univariat ist) angewandt werden, man untersucht somit ein Einstichprobenproblem.

I Dabei sind insbesondere die Tests bez¨ uglich der Lageparameter von

Interesse, da dadurch eine eventuelle Verschiebung der Verteilung

der Y i zu den Gr¨ oßen X i mit Hilfe eines Tests auf einen Median

oder Erwartungswert 0 der Verteilung der Differenzzufallsgr¨ oßen

D i , i = 1, . . . , n , ¨ uberpr¨ uft werden kann.

(38)

a) Gepaarter t−Test

I Mit dem Ein-Stichproben-t-Test f¨ ur D = X − Y oder dem gepaarten t−Test f¨ ur X und Y wird die Gleichheit der Erwartungswerte von X und Y bei einer normalverteilten Differenz D = X − Y mit unbekannter Varianz ¨ uberpr¨ uft.

I Geg.: konkrete gepaarte Stichprobe (x 1 , y 1 ) , . . . , (x n , y n ) . I Vor.: normalverteilte Zufallsgr¨ oße D = X − Y mit unbekannter

Varianz σ 2 ; repr¨ asentative Stichprobe . I Hyp.:

H 0 : EX = EY , H A : EX 6= EY (zweiseitiger Test) bzw.

H A : EX < EY oder H A : EX > EY (einseitige Tests) . I R-Aufruf: t.test(x,y,paired=TRUE)

bei Datenvektoren x und y .

I Ausreißer in den Daten k¨ onnen Probleme bereiten.

(39)

Bsp. 1 gepaarter t−Test

I Simulation einer gepaarten Stichprobe durch Beziehung:

fester Wert 2 + simulierte normalverteilte zuf¨ allige Fehler f¨ ur die x− und y−Werte jeweils.

I > set.seed(123456)

> x=2+rnorm(50,sd=0.1)

> y=2+rnorm(50,sd=0.1)

I Berechnung der Differenzen und Shapiro-Wilk -Test auf Normalverteilung .

I > d=x-y

> shapiro.test(d)

Shapiro-Wilk normality test data: d

W = 0.98946, p-value = 0.9328 # Nichtablehnung

I Durchf¨ uhrung des Ein-Stichproben-t-Tests f¨ ur d und des

¨

aquivalenten gepaarten t−Tests f¨ ur x und y .

(40)

Bsp. 1 gepaarter t−Test Fortsetzung

I > t.test(d)

One Sample t-test data: d

t = 0.99744, df = 49, p-value = 0.3235 # Nichtablehnung alternative hypothesis: true mean is not equal to 0

95 percent confidence interval:

-0.02040492 0.06062202 sample estimates:

mean of x 0.02010855

I > t.test(x,y,paired=TRUE) Paired t-test

data: x and y

t = 0.99744, df = 49, p-value = 0.3235 # Nichtablehnung alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval:

-0.02040492 0.06062202 sample estimates:

mean of the differences

0.02010855

(41)

Bsp. 2 gepaarter t−Test

I Simulation einer gepaarten Stichprobe durch Beziehungen

2 (bei x) bzw. 3 (bei y) + simulierte normalverteilte zuf¨ allige Fehler.

I > set.seed(123456)

> x=2+rnorm(50,sd=0.1)

> y=3+rnorm(50,sd=0.05)

I Berechnung der Differenzen und Shapiro-Wilk -Test auf Normalverteilung .

I > d=x-y

> shapiro.test(d)

Shapiro-Wilk normality test data: d

W = 0.97728, p-value = 0.4437 # Nichtablehnung

I Durchf¨ uhrung des Ein-Stichproben-t-Tests f¨ ur d und des

¨

aquivalenten gepaarten t−Tests f¨ ur x und y .

(42)

Bsp. 2 gepaarter t−Test Fortsetzung

I > t.test(d)

One Sample t-test data: d

t = -60.197, df = 49, p-value < 2.2e-16 # Ablehnung alternative hypothesis: true mean is not equal to 0

95 percent confidence interval:

-1.0169291 -0.9512261 sample estimates:

mean of x -0.9840776

I > t.test(x,y,paired=TRUE) Paired t-test

data: x and y

t = -60.197, df = 49, p-value < 2.2e-16 # Ablehnung alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval:

-1.0169291 -0.9512261 sample estimates:

mean of the differences

-0.9840776

(43)

b) Vorzeichentest f¨ ur eine gepaarte Stichprobe

I Der Vorzeichentest f¨ ur eine gepaarte Stichprobe ist ein Test ¨ uber den Median 0 der stetigen Verteilung von D = X − Y . Bei Ablehnung der Nullhypothese kann man folglich auf eine unterschiedliche

” mittlere Lage“ der x−Werte und der y−Werte schließen.

I Geg.: konkrete gepaarte Stichprobe (x 1 , y 1 ) . . . , (x n , y n ) .

I Vor.: Die Zufallsgr¨ oße D = X − Y besitzt eine stetige Verteilung;

es liegt eine repr¨ asentative gepaarte Stichprobe vor.

I Hypothesen: H 0 : D 0.5 = 0 , H A : D 0.5 6= 0 . I R-Aufruf: binom.test(table(x<y))

bei Datenvektoren x und y .

I Bindungen k¨ onnen problematisch sein.

(44)

Bsp. Vorzeichentest f¨ ur eine gepaarte Stichprobe

I Das Vorgehen ist analog zum 2. Anwendungsbeispiel f¨ ur den gepaarten t−Test, jedoch mit exponentialverteilten Fehlern.

I > set.seed(123456)

> x=2+rexp(50) # verschobene Exponentialverteilung

> y=3+rexp(50) # verschobene Exponentialverteilung

> shapiro.test(x-y) # Test auf Normalverteilung

Shapiro-Wilk normality test data: x - y

W = 0.91817, p-value = 0.002026 # Ablehnung

I Vorzeichentest f¨ ur eine gepaarte Stichprobe.

I > binom.test(table(x<y)) Exact binomial test data: table(x < y)

number of successes = 9, number of trials = 50, p-value = 5.614e-06 alternative hypothesis: true probability of success is not equal to 0.5 95 percent confidence interval:

0.08576208 0.31436941 sample estimates:

probability of success

0.18

(45)

c) Gepaarter Wilcoxon -Vorzeichen-Rang-Test

I Der gepaarte Wilcoxon -Vorzeichen-Rang-Test ist ein Test ¨ uber das Symmetriezentrum 0 (und damit den Median 0) der stetigen Verteilung von D = X − Y . Bei Ablehnung der Nullhypothese kann man folglich auf eine unterschiedliche

” mittlere Lage“ der x− und der y−Werte schließen.

I Geg.: konkrete gepaarte Stichprobe (x 1 , y 1 ) . . . , (x n , y n ) . I Vor.: Die Zufallsgr¨ oße D = X − Y besitzt eine stetige und

symmetrische Verteilung; es liegt eine repr¨ asentative gepaarte Stichprobe vor.

I Hyp.:

H 0 : Die Verteilung von D = X − Y ist symmetrisch um 0 ; H A : Die Verteilung von D = X − Y ist symmetrisch um c 6= 0 . I R-Aufruf: wilcox.test(x,y,paired=TRUE)

bei Datenvektoren x und y .

I Bindungen k¨ onnen problematisch sein.

(46)

Bsp. gepaarter Wilcoxon -Vorzeichen-Rang-Test

I Das Vorgehen ist analog zum 2. Anwendungsbeispiel f¨ ur den

gepaarten t−Test, jedoch werden hier t−verteilte Fehler verwendet.

I Simulation und Test auf Normalverteilung.

I > set.seed(123456)

> x=2+0.1*rt(50,df=2) # t-Verteilung mit 2 Freiheitsgraden

> y=3+0.1*rt(50,df=2) # t-Verteilung ist symmetrisch

> d=x-y

> shapiro.test(d) # Test auf Normalverteilung

Shapiro-Wilk normality test data: d

W = 0.94933, p-value = 0.03203 # Ablehnung

(47)

Bsp. gepaarter Wilcoxon -Vorzeichen-Rang-Test

I Anwendung des Wilcoxon -Vorzeichen-Rang-Tests auf die Differenzen bzw. gepaart.

I > wilcox.test(d)

Wilcoxon signed rank test data: d

V = 0, p-value = 7.79e-10 # Ablehnung

alternative hypothesis: true location is not equal to 0

> wilcox.test(x,y,paired=TRUE) Wilcoxon signed rank test data: x and y

V = 0, p-value = 7.79e-10 # Ablehnung

alternative hypothesis: true location shift is not equal to 0

(48)

5.1.3 Tests f¨ ur zwei oder mehr (unabh¨ angige) Stichproben (stetige Skala)

I Von besonderer Bedeutung sind statistische Tests bez¨ uglich der Lageparameter f¨ ur die (unabh¨ angigen) Zufallsgr¨ oßen X , Y bei zwei Stichproben bzw. X 1 , . . . , X k bei mehreren Stichproben.

I Um derartige Tests anwenden zu k¨ onnen, m¨ ussen im Allgemeinen vorher Annahmen ¨ uber die Verteilungen der Einzelzufallsgr¨ oßen und teilweise auch ¨ uber die Gleichheit der Varianzen ¨ uberpr¨ uft werden.

I Es k¨ onnen wieder spezielle Tests verwendet werden, falls die Merkmalszufallsgr¨ oßen normalverteilt sind.

I Im Fall von nichtnormalverteilten Zufallsgr¨ oßen k¨ onnen oft

rangbasierte (sogenannte verteilungsfreie) Tests verwendet werden.

Diese k¨ onnen auch f¨ ur normalverteilte Daten verwendet werden, sind

dann aber nicht so effektiv wie die speziellen Tests.

(49)

a) Anpassungstests f¨ ur mehrere Stichproben (stetige Skala)

I Statistische Tests ¨ uber die Verteilung werden in dieser Situation oft so durchgef¨ uhrt, dass f¨ ur jede beteiligte reelle Stichprobe ein geeigneter Anpassungstest durchgef¨ uhrt wird.

I So k¨ onnen beim Test auf Normalverteilung zwei (bzw. k ) einzelne Shapiro-Wilk -Tests f¨ ur X und Y (bzw. X 1 , . . . , X k im k−Stichprobenfall) durchgef¨ uhrt werden.

I Analog k¨ onnen f¨ ur andere Verteilungen zwei (bzw. k ) einzelne χ 2 −Anpassungstests oder Kolmogorow-Smirnow -Tests durchgef¨ uhrt werden.

I Da bei der Durchf¨ uhrung mehrerer Tests, die nur zusammen eine Gesamtaussage erlauben, eine vorgegebene Wahrscheinlichkeit f¨ ur einen Fehler 1. Art f¨ ur die Gesamtaussage nicht mit dem entsprechenden Niveau der einzelnen beteiligten Tests

¨

ubereinstimmt, sollte man in einer solchen Situation die sogenannte

Bonferroni -Methode oder Bonferroni -Korrektur anwenden.

(50)

b) Bonferroni -Methode oder Bonferroni -Korrektur

I Angenommen eine Hypothese setzt sich aus k Einzelhypothesen wie folgt zusammen:

H 0 : H 0 1 ∩ . . . ∩ H 0 k , H A : H A 1 ∪ . . . ∪ H A k .

I Sind z.B. die k Zufallsgr¨ oßen X 1 , . . . , X k gegeben, erh¨ alt man H 0 : alle k ZG sind normalverteilt ,

H A : mind. eine ZG X i ist nicht normalverteilt in obiger Weise aus den Einzelhypothesen

H 0 i : X i ist normalverteilt , H A i : X i ist nicht normalverteilt . I Man f¨ uhrt nun k Tests bez¨ uglich der Einzelhypothesen H i durch,

und entscheidet dann wie folgt:

Man verwirft H 0 , wenn mindestens ein Einzeltest die Nullhypothese

H 0 i verwirft, sonst beh¨ alt man H 0 bei.

(51)

Fortsetzung Bonferroni -Korrektur

I F¨ uhrt man die Einzeltests jeweils zum Signifikanzniveau ˜ α durch und bezeichne A j , j = 1, . . . , k , das zuf¨ allige Ereignis, dass der j −te Test seine Nullhypothese ablehnt, so gilt unter der Annahme der Unabh¨ angigkeit der Ereignisse A j und bei kleinem ˜ α :

α = P(H 0 wird verworfen | H 0 wahr)

= P(A 1 ∪ . . . ∪ A k | H 0 wahr)

= 1 − P(A 1 c ∩ . . . ∩ A k c | H 0 wahr)

= 1 − P(A 1 c | H 0 wahr) · . . . · P(A k c | H 0 wahr)

= 1 − (1 − α) ˜ k = 1 − 1 + k α ˜ − k

2

˜

α 2 + . . . + (−1) k α ˜ k

≈ k α . ˜

I Folglich sollte man als Niveau der Einzeltests ˜ α = α

k w¨ ahlen.

(52)

c) F − Test f¨ ur Varianzen zweier normalverteilter Merkmale

I Der F −Test dient zum Vergleich der Varianzen zweier unabh¨ angiger normalverteilter Merkmale mit unbekannten Erwartungswerten.

I Geg.: 2 konkrete Stichproben x 1 , . . . , x n und y 1 , . . . , y m (die Stichprobenumf¨ ange k¨ onnen unterschiedlich sein).

I Vor.: Die Zufallsgr¨ oßen X und Y sind unabh¨ angig und normalverteilt mit (unbekannten) Erwartungswerten µ

X

und µ

Y

und Varianzen σ 2

X

und σ

Y

2 ; repr¨ asentative Stichproben.

I Hyp.: H 0 : σ 2

X

= σ 2

Y

, H A : σ 2

X

6= σ 2

Y

(zweiseitiger Test).

I R-Aufruf: var.test(,) .

I Ausreißer in den Daten k¨ onnen Probleme bereiten.

I Die Testgr¨ oße ist F = S

X

2 S 2

Y

, sie ist unter H 0 F −verteilt mit

(n − 1, m − 1) Freiheitsgraden. Einseitige Tests sind auch m¨ oglich.

(53)

Bsp. F − Test f¨ ur Varianzen zweier normalverteilter Merkmale (α = 0.05)

I Simulation der Stichproben und Test auf Normalverteilung (mit Bonferroni -Korrektur).

I > set.seed(123456)

> x=rnorm(30)

> y=rnorm(40)

> shapiro.test(x)

Shapiro-Wilk normality test data: x

W = 0.97073, p-value = 0.5594 # >0.05/2, also Nichtablehnung

> shapiro.test(y)

Shapiro-Wilk normality test data: y

W = 0.97027, p-value = 0.3671 # >0.05/2, also Nichtablehnung

(54)

Fortsetzung Bsp. F −Test

I Durchf¨ uhrung F −Test.

I > var.test(x,y)

F test to compare two variances data: x and y

F = 0.94926, num df = 29, denom df = 39, p-value = 0.8952 # Nichtabl.

alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval:

0.4838555 1.9295306 sample estimates:

ratio of variances

0.9492611

(55)

d) Bartlett -Test f¨ ur Varianzen von Normalverteilungen

I Der Bartlett -Test dient zum Vergleich der Varianzen mehrerer unabh¨ angiger normalverteilter Merkmale.

I Geg.: k Stichproben x 11 , . . . , x 1n

1

usw. bis x k 1 , . . . , x kn

k

(die Stichprobenumf¨ ange k¨ onnen unterschiedlich sein).

I Vor: Die Zufallsgr¨ oßen X i , i = 1, . . . , k , sind unabh¨ angig und normalverteilt mit (unbekannten) Erwartungswerten µ i und Varianzen σ 2 i jeweils; repr¨ asentative Stichproben.

I Hyp.: H 0 : σ 1 2 = . . . = σ k 2 , H A : σ i 2 6= σ j 2 f¨ ur mindestens ein Paar (i , j ) .

I R-Aufruf: bartlett.test() .

I Ausreißer in den Daten k¨ onnen Probleme bereiten.

I Der Test ist ein asymptotischer Test, als Faustregel wird n i ≥ 5 , i = 1, . . . , k , empfohlen.

I Einseitige Tests sind hier nicht m¨ oglich.

(56)

Bsp. Bartlett -Test f¨ ur Varianzen

I Simulation der Stichproben und Test auf Normalverteilung I > set.seed(123456)

> x1=rnorm(30) # N(0,1)

> x2=rnorm(30) # N(0,1)

> x3=rnorm(50,mean=1,sd=2) # N(1,4)

> shapiro.test(x1)

Shapiro-Wilk normality test data: x1

W = 0.97073, p-value = 0.5594 # >0.05/3, also Nichtablehnung

> shapiro.test(x2)

Shapiro-Wilk normality test data: x2

W = 0.95518, p-value = 0.2321 # >0.05/3, also Nichtablehnung

> shapiro.test(x3)

Shapiro-Wilk normality test data: x3

W = 0.97196, p-value = 0.2775 # >0.05/3, also Nichtablehnung

(57)

Fortsetzung Bsp. Bartlett -Test

I Durchf¨ uhrung Bartlett -Test.

I > bartlett.test(list(x1,x2,x3))

Bartlett test of homogeneity of variances data: list(x1, x2, x3)

Bartlett’s K-squared = 19.967, df = 2, p-value = 4.616e-05 # Ablehnung

(58)

e) Fligner -Test f¨ ur Varianzen stetiger Merkmale

I Der Fligner -Test oder Fligner-Killeen -Median-Test dient zum Vergleich der Varianzen mehrerer unabh¨ angiger stetig verteilter Merkmale.

I Geg.: k ≥ 2 Stichproben x 11 , . . . , x 1n

1

usw. bis x k 1 , . . . , x kn

k

(die Stichprobenumf¨ ange k¨ onnen unterschiedlich sein).

I Vor.: Die Zufallsgr¨ oßen X i , i = 1, . . . , k , sind unabh¨ angig und stetig verteilt mit Varianzen σ 2 i jeweils; repr¨ asentative Stichproben.

I Hyp.: H 0 : σ 1 2 = . . . = σ k 2 , H A : σ i 2 6= σ j 2 f¨ ur mindestens ein Paar (i , j ) .

I R-Aufruf: fligner.test() .

I Der Test ist ein rangbasierter Test, so dass Probleme bei Bindungen auftreten k¨ onnten.

I Einseitige Tests sind hier nicht m¨ oglich.

(59)

Bsp. Fligner -Test f¨ ur Varianzen stetiger Merkmale

I Simulation exponentialverteilter Stichproben (unterschiedliche Varianzen) und Test auf Normalverteilung, um den st¨ arkeren Bartlett -Test auszuschließen.

I > set.seed(123456)

> x1=rexp(40)

> x2=1+2*rexp(40) # oder x2=1+rexp(40,rate=1/2)

> x3=2+3*rexp(50) # oder x3=2+rexp(40,rate=1/3)

> shapiro.test(x1)

Shapiro-Wilk normality test data: x1

W = 0.92693, p-value = 0.0128 # <0.05/3, also Ablehnung

I Durchf¨ uhrung Fligner -Test, da die Voraussetzungen f¨ ur den Bartlett -Test nicht erf¨ ullt sind.

I > fligner.test(list(x1,x2,x3))

Fligner-Killeen test of homogeneity of variances data: list(x1, x2, x3)

Fligner-Killeen:med chi-squared = 23.685, df = 2, p-value = 7.191e-06

(60)

f) Zwei-Stichproben-t-Test

I Mit dem Zwei-Stichproben-t-Test wird die Gleichheit der

Erwartungswerte zweier normalverteilter Merkmale mit unbekannter, aber ¨ ubereinstimmender Varianz ¨ uberpr¨ uft.

I Geg.: 2 konkrete Stichproben x 1 , . . . , x n und y 1 , . . . , y m (die Stichprobenumf¨ ange k¨ onnen unterschiedlich sein).

I Vor.: Unabh¨ angige normalverteilte Merkmalszufallsgr¨ oßen X und Y mit unbekannten Erwartungswerten µ

X

bzw. µ

Y

und

unbekannter gleicher Varianz σ 2 ; repr¨ asentative Stichproben.

I Hyp.: H 0 : µ

X

= µ

Y

, H A : µ

X

6= µ

Y

(zweiseitig) bzw.

H A : µ

X

< µ

Y

oder H A : µ

X

> µ

Y

(einseitige Tests) .

I R-Aufruf: t.test(x,y,var.equal=TRUE) bei Datenvektoren x und y .

I Ausreißer in den Daten k¨ onnen Probleme bereiten.

(61)

Bsp. Zwei-Stichproben-t -Test

I Simulation unabh¨ angiger normalverteilter Stichproben mit

unterschiedlichen Erwartungswerten und Test auf Normalverteilung.

I > set.seed(123456)

> x=rnorm(40) # N(0,1)

> y=rnorm(50,mean=1,sd=1) # N(1,1)

> shapiro.test(x)

Shapiro-Wilk normality test data: x

W = 0.97417, p-value = 0.4826 # >0.05/2, also Nichtablehnung

> shapiro.test(y)

Shapiro-Wilk normality test data: y

W = 0.98719, p-value = 0.8601 # >0.05/2, also Nichtablehnung

I Test auf Gleichheit der Varianzen und Zwei-Stichproben-t-Test.

(62)

Fortsetzung Bsp. Zwei-Stichproben-t-Test

I > var.test(x,y)

F test to compare two variances data: x and y

F = 1.3586, num df = 39, denom df = 49, p-value = 0.308 # Nichtabl.

alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval:

0.7513357 2.5083115 sample estimates:

ratio of variances 1.358571

I > t.test(x,y,var.equal=TRUE) Two Sample t-test

data: x and y

t = -2.6898, df = 88, p-value = 0.008554 # Ablehnung alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval:

-0.9881580 -0.1484186 sample estimates:

mean of x mean of y

0.2061461 0.7744344

(63)

g) Welch s-t -Test

I Mit Welch s-t-Test wird die Gleichheit der Erwartungswerte zweier normalverteilter Merkmale mit unbekannten Varianzen ¨ uberpr¨ uft.

I Geg.: 2 konkrete Stichproben x 1 , . . . , x n und y 1 , . . . , y m (die Stichprobenumf¨ ange k¨ onnen unterschiedlich sein).

I Vor.: Unabh¨ angige normalverteilte Merkmalszufallsgr¨ oßen X und Y mit unbekannten Erwartungswerten µ

X

bzw. µ

Y

und

unbekannten Varianzen σ

X

2 bzw. σ 2

Y

; repr¨ asentative Stichproben.

I Hyp.: H 0 : µ

X

= µ

Y

, H A : µ

X

6= µ

Y

(zweiseitig) bzw.

H A : µ

X

< µ

Y

oder H A : µ

X

> µ

Y

(einseitige Tests) .

I R-Aufruf: t.test(x,y) oder t.test(x,y,var.equal=FALSE) bei Datenvektoren x und y .

I Ausreißer in den Daten k¨ onnen Probleme bereiten.

I Der Test ist ein asymptotischer Test.

(64)

Bsp. Welch s-t -Test

I Simulation unabh¨ angiger normalverteilter Stichproben mit unterschiedlichen Erwartungswerten und Varianzen und Test auf Normalverteilung.

I > set.seed(123456)

> x=rnorm(40) # N(0,1)

> y=rnorm(50,mean=1,sd=0.5) # N(1,0.25)

> shapiro.test(x)

Shapiro-Wilk normality test data: x

W = 0.97417, p-value = 0.4826 # >0.05/2, also Nichtablehnung

> shapiro.test(y)

Shapiro-Wilk normality test data: y

W = 0.98719, p-value = 0.8601 # >0.05/2, also Nichtablehnung

I Test auf Gleichheit der Varianzen und (da Ablehnung)

Welch s-t-Test.

(65)

Fortsetzung Bsp. Welch s-t-Test

I > var.test(x,y)

F test to compare two variances data: x and y

F = 5.4343, num df = 39, denom df = 49, p-value = 5.776e-08 # Ablehnung alternative hypothesis: true ratio of variances is not equal to 1

95 percent confidence interval:

3.005343 10.033246 sample estimates:

ratio of variances 5.434285

I > t.test(x,y) # oder t.test(x,y,var.equal=FALSE) Welch Two Sample t-test

data: x and y

t = -3.7294, df = 50.458, p-value = 0.0004869 # Ablehnung alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval:

-1.0477975 -0.3143447 sample estimates:

mean of x mean of y

0.2061461 0.8872172

(66)

h) Einfache Varianzanalyse (ANOVA)

I Die einfache Varianzanalyse (ANOVA, von ”analysis of variance”) dient zum Test auf Gleichheit der Erwartungswerte mehrerer unabh¨ angiger normalverteilter Merkmale.

I Geg.: k Stichproben x 11 , . . . , x 1n

1

usw. bis x k1 , . . . , x kn

k

(die Stichprobenumf¨ ange k¨ onnen unterschiedlich sein).

I Vor.: Die Zufallsgr¨ oßen X i , i = 1, . . . , k , sind unabh¨ angig und normalverteilt mit Erwartungswerten µ i jeweils und Varianz σ 2 (unbekannt, aber ¨ ubereinstimmend); repr¨ asentative Stichproben.

I Hyp.: H 0 : µ 1 = . . . = µ k , H A : µ i 6= µ j f¨ ur mindestens ein Paar (i , j ) .

I R-Aufruf: anova() .

I Der p−Wert kann unter Pr(>F) abgelesen werden.

I Ausreißer in den Daten k¨ onnen Probleme bereiten.

I Einseitige Tests sind hier nicht m¨ oglich.

(67)

Bsp. Einfache Varianzanalyse

I Wir wenden die einfache Varianzanalyse auf die Breite des

Kelchblattes (”Sepal.Width”) des Iris-Beispieldatensatzes an. Dabei erh¨ alt man 3 unabh¨ angige Stichproben, wenn man dieses Merkmal jeweils f¨ ur eine der 3 untersuchten Arten beobachtet.

I > data(iris) # Laden, dann Tests auf Normalverteilung

> shapiro.test(iris$Sepal.Width[1:50]) Shapiro-Wilk normality test data: iris$Sepal.Width[1:50]

W = 0.9717, p-value = 0.2715 # >0.05/3, Nichtablehnung

> shapiro.test(iris$Sepal.Width[51:100]) Shapiro-Wilk normality test

data: iris$Sepal.Width[51:100]

W = 0.9741, p-value = 0.338 # >0.05/3, Nichtablehnung

> shapiro.test(iris$Sepal.Width[101:150]) Shapiro-Wilk normality test

data: iris$Sepal.Width[101:150]

W = 0.9674, p-value = 0.1809 # >0.05/3, Nichtablehnung

(68)

Fortsetzung Bsp. Einfache Varianzanalyse

I Test auf Gleichheit der Varianzen .

I > bartlett.test(Sepal.Width˜Species,data=iris) Bartlett test of homogeneity of variances data: Sepal.Width by Species

Bartlett’s K-squared = 2.0911, df = 2, p-value = 0.3515 # Nichtablehnung

I ANOVA.

I > anova(lm(Sepal.Width˜Species,data=iris)) Analysis of Variance Table

Response: Sepal.Width

Df Sum Sq Mean Sq F value Pr(>F) Species 2 11.345 5.6725 49.16 < 2.2e-16 ***

Residuals 147 16.962 0.1154 - - -

Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1

I Bemerkung: Im anova-Aufruf steht lm() f¨ ur ”linear model”.

(69)

Parallele Box-Plots zum Anwendungsbeispiel

> boxplot(Sepal.Width˜Species,data=iris,notch=TRUE)

(70)

i) Wilcoxon -Rang-Summen-Test

I Mit dem Wilcoxon -Rang-Summen-Test vergleicht man die

Lageparameter zweier Merkmale mit stetiger Verteilung miteinander.

I Geg.: 2 konkrete Stichproben x 1 , . . . , x n und y 1 , . . . , y m (die Stichprobenumf¨ ange k¨ onnen unterschiedlich sein).

I Vor.: unabh¨ angige stetig verteilte Zufallsgr¨ oßen X und Y mit Verteilungsfunktionen F X (x) und F Y (x) = F X (x + c ) , x ∈ R ; repr¨ asentative Stichproben.

I Hyp.:

H 0 : c = 0 , d.h. F X (x) = F Y (x) f¨ ur alle x ∈ R , H A : c 6= 0 , d.h. F X (x) = F Y (x − c ) f¨ ur alle x ∈ R .

I R-Aufruf: wilcox.test(x,y) bei Datenvektoren x und y . I Wird die Nullhypothese abgelehnt, kann man auf unterschiedliche

Lageparameter schließen. Auch einseitige Tests sind m¨ oglich.

I Dieser Test ist ein rangbasierter Test. Bindungen k¨ onnen

problematisch sein.

(71)

Bsp. Wilcoxon -Rang-Summen-Test

I Simulation unabh¨ angiger exponentialverteilter Beobachtungswerte mit unterschiedlichen Erwartungswerten (Medianen,. . . ), dann Test auf Normalverteilung.

I > set.seed(123456)

> x=rexp(40)

> y=1+rexp(50)

> shapiro.test(x)

Shapiro-Wilk normality test data: x

W = 0.92693, p-value = 0.0128 # <0.05/2, also Ablehnung

I Wilcoxon -Rang-Summen-Test.

I > wilcox.test(x,y)

Wilcoxon rank sum test with continuity correction data: x and y

W = 279, p-value = 4.903e-09 # Ablehnung

alternative hypothesis: true location shift is not equal to 0

(72)

j) Kruskal-Wallis -Test

I Der Kruskal-Wallis -Test dient zum Vergleich der Lage mehrerer stetiger Merkmale, er verallgemeinert den Wilcoxon -Rang-

Summen-Test.

I Geg.: k Stichproben x 11 , . . . , x 1n

1

usw. bis x k 1 , . . . , x kn

k

. I Vor.: Die Zufallsgr¨ oßen X i , i = 1, . . . , k , sind unabh¨ angig und

stetig verteilt mit Verteilungsfunktionen F i jeweils, so dass gilt F i (x) = F j (x + c ij ) f¨ ur alle x ∈ R mit Konstanten c ij ∈ R ; repr¨ asentative Stichproben.

I Hyp.:

H 0 : c ij = 0 f¨ ur alle i 6= j ,

H A : c ij 6= 0 f¨ ur mindestens ein Paar (i, j) . I R-Aufruf: kruskal.test() .

I Dieser Test ist ein rangbasierter Test. Bindungen k¨ onnen

problematisch sein.

(73)

Bsp. Kruskal-Wallis -Test

I Simulation exponentialverteilter Stichproben (unterschiedliche Varianzen) und Test auf Normalverteilung, um die ANOVA auszuschließen.

I > set.seed(123456)

> x1=rexp(40)

> x2=rexp(50)

> x3=1+rexp(50)

> shapiro.test(x1)

Shapiro-Wilk normality test data: x1

W = 0.92693, p-value = 0.0128 # <0.05/3, also Ablehnung

I Kruskal-Wallis -Test.

I > kruskal.test(list(x1,x2,x3)) Kruskal-Wallis rank sum test data: list(x1, x2, x3)

Kruskal-Wallis chi-squared = 29.817, df = 2, p-value = 3.351e-07

(74)

5.1.4 Weitere ausgew¨ ahlte statistische Tests a) Binomialtest

I Der Binomialtest ist ein Test f¨ ur die Erfolgswahrscheinlichkeit (den Parameter p) einer Bernoulli-verteilten Zufallsgr¨ oße (und damit einer diskreten Zufallsgr¨ oße).

I Geg.: Anzahl k der

” Erfolge“ in einer konkreten Stichprobe vom Umfang n .

I Vor.: Die Merkmalszufallsgr¨ oße X ist Bernoulli-verteilt mit dem unbekannten Parameter p ; repr¨ asentative Stichprobe.

I Hyp.:

H 0 : p = p 0 (p 0 ist ein Vorgabewert f¨ ur p), H A : p 6= p 0 (zweiseitig) bzw.

H A : p < p 0 oder H A : p > p 0 (einseitig) .

I R-Aufruf: binom.test(k,n,p 0 ,...)

(75)

Bsp. Binomialtest

I In einer Stichprobe von 100 Erzeugnissen wurden bei der

Qualit¨ atskontrolle 6 Ausschussteile gefunden. Kann man in dieser Situation von einer maximalen Sollausschussquote von 5%

ausgehen oder muss man von einer gr¨ oßeren ausgehen ? I > binom.test(6,100,0.05,alternative="greater")

Exact binomial test data: 6 and 100

number of successes = 6, number of trials = 100, p-value = 0.384

alternative hypothesis: true probability of success is greater than 0.05 95 percent confidence interval:

0.02644971 1.00000000 sample estimates:

probability of success 0.06

I Keine Ablehnung (Annahme) von H 0 : p = 0.05 , d.h. die

Ausschussquote ist nicht signifikant gr¨ oßer als 5% .

(76)

b) Korrelations- und Abh¨ angigkeitstests

I Zwei weitere wichtige Gruppen von Tests sind die Korrelations- und Abh¨ angigkeitstests.

I F¨ ur mehrdimensional normalverteilte Daten kann man den Pearson -Korrelationstest nutzen, um den Vorgabewert % 0 = 0 f¨ ur den gew¨ ohnlichen Korrelationskoeffizienten zu ¨ uberpr¨ ufen. Wird die Hypothese H 0 : Corr[X , Y ] = 0 abgelehnt, werden die

normalverteilten Merkmale X und Y nicht als unabh¨ angig angesehen.

I F¨ ur nichtnormalverteilte Zufallsvektoren kann man mit dem Spearman -Korrelationstest den Vorgabewert 0 f¨ ur den

Spearman schen Rangkorrelationskoeffizienten r X (S) ,Y und damit die Unabh¨ angigkeit der Merkmale ¨ uberpr¨ ufen.

I Die Unabh¨ angigkeit zweier kategorieller Merkmale ¨ uberpr¨ uft man

mit dem χ 2 -Unabh¨ angigkeitstest oder mit Fisher s exaktem Test,

falls dichotome Merkmale vorliegen.

(77)

c) Pearson -Korrelationstest

I Mit dem Pearson -Korrelationstest ¨ uberpr¨ uft man, ob der (gew¨ ohnliche oder Pearson -) Korrelationskoeffizient

Corr[X , Y ] = ρ

(X,Y)

eines normalverteilten Zufallsvektors (X , Y ) Null ist (dann sind die Komponenten X und Y auch stochastisch unabh¨ angige Zufallsgr¨ oßen).

I Geg.: konkrete Stichprobe (x 1 , y 1 ), . . . , (x n , y n ) .

I Vor.: Der Zufallsvektor (X , Y ) hat eine zweidimensionale Normalverteilung mit unbekannten Parametern; repr¨ asentative Stichprobe.

I Hyp.:

H 0 : Corr[X , Y ] = 0 , H A : Corr[X , Y ] 6= 0 (zweiseitig) bzw.

H A : Corr[X , Y ] < 0 oder H A : Corr[X , Y ] > 0 (einseitig).

I R-Aufruf: cor.test(x,y) (bei Datenvektoren x und y) .

I Ausreißer in den Daten k¨ onnen Probleme bereiten.

(78)

Bsp. Pearson -Korrelationstest

I Simulation und Test auf Normalverteilung I > set.seed(123456)

> x=rnorm(50) # Simulation N(0,1)

> y=rnorm(50) # Simulation N(0,1)

> shapiro.test(x) # Test auf Normalverteilung X

Shapiro-Wilk normality test data: x

W = 0.97062, p-value = 0.2453 # >0.05/2, Nichtablehnung

> shapiro.test(y) # Test auf Normalverteilung Y

Shapiro-Wilk normality test data: y

W = 0.97955, p-value = 0.5331 # >0.05/2, Nichtablehnung

(79)

Fortsetzung Bsp. Pearson -Korrelationstest

I Pearson -Korrelationstest.

I > cor.test(x,y)

Pearson’s product-moment correlation data: x and y

t = -0.20674, df = 48, p-value = 0.8371 # Nichtablehnung alternative hypothesis: true correlation is not equal to 0

95 percent confidence interval:

-0.3056375 0.2506010 sample estimates:

cor -0.02982726

I Der Zufallsvektor (X + Y , Y ) ist, falls X und Y unabh¨ angige standardnormalverteilte Zufallsgr¨ oßen sind, wieder ein

normalverteilter Zufallsvektor, der Korrelationskoeffizient zwischen

X + Y und Y ist jetzt positiv.

(80)

Fortsetzung Bsp. Pearson -Korrelationstest

I Test auf Normalverteilung von X + Y .

I > shapiro.test(x+y) # Test auf Normalverteilung X+Y Shapiro-Wilk normality test

data: x + y

W = 0.98991, p-value = 0.9441 # >0.05/2, Nichtablehnung

I Einseitiger Pearson -Korrelationstest f¨ ur X + Y und Y . I > cor.test(x+y,y,alternative="greater")

Pearson’s product-moment correlation data: x + y and y

t = 6.0679, df = 48, p-value = 9.873e-08 # Ablehnung alternative hypothesis: true correlation is greater than 0

95 percent confidence interval:

0.5011677 1.0000000 sample estimates:

cor

0.6588568

Referenzen

ÄHNLICHE DOKUMENTE

Bei einer einelementigen Alternative (H 0 : µ = 0, H 1 : µ = m 1 ) kann man die Testmacht (oder Power) definieren als Pr H 1 (Nullhypothese wird abgelehnt).. Meistens geht es aber

Ein Teil einer Gesamtpopulation kann auch dann als repr¨ asentative Stichprobe angesehen werden, wenn das Auswahlverfahren zwar nicht zuf¨ allig, aber von den auszuwertenden

2. Aufgabe: In einer großen industriellen Kooperation war das Ziel, Stahlkugeln f¨ur Kugellager mit einem Durchmesser von 1 mm zu produzieren. Am Ende eines Tages wurden 10

Ist es dann wahrscheinlicher, dass n¨ achste Woche die Zahlen 1, 9, 10, 15, 32, 37 gezogen werden, oder dass n¨ achste Woche die gleichen Zahlen wie in dieser Woche gezogen werden..

Ist (Ω, P) ein Wahrscheinlichkeitsraum, und sind A, B ⊆ Ω zwei Ereignisse, so sind diese unabh¨ angig (anschaulich: beeinflussen sich diese gegenseitig nicht), falls gilt:..

[r]

¨ Ubung Mathematik und Statistik f¨ ur Biologen (D.h. man berechnet die Ableitung nach der entsprechenden Variable)... ¨ Ubung Mathematik und Statistik f¨

[r]