• Keine Ergebnisse gefunden

Statistik II f¨ur Betriebswirte Vorlesung 1

N/A
N/A
Protected

Academic year: 2021

Aktie "Statistik II f¨ur Betriebswirte Vorlesung 1"

Copied!
30
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Statistik II f¨ ur Betriebswirte Vorlesung 1

Dr. Andreas W¨ unsche

TU Bergakademie Freiberg Institut f¨ur Stochastik

14. Oktober 2019

(2)

Organisatorisches

I

Vorlesung: Mo., 14:00-15:30, FOR-0270.

I

Ubungen: ¨

I Di., 11:00-12:30, MIB-1113, Herr Dipl.-Math. Markus Dietz,

I Do., 11:00-12:30, MET-2065, Herr Dr. Felix Ballani,

I Do., 11:00-12:30, MIB-1113, Frau Dr. Anna Chekhanova.

I

Selbststudium (Laut Modulbeschreibung zusammen f¨ ur beide Semester 120 h Pr¨ asenzzeit und 150 h Selbststudium.)

I

Information:

http://www.mathe.tu-freiberg.de/wiwistat

I

Pr¨ ufung: Klausur 120 Minuten, zugelassen sind Taschenrechner,

B¨ ucher, Mitschriften; nicht zugelassen sind Laptops, Handys.

(3)

Themenkomplexe und geplanter Ablauf in diesem Semester

I

Statistische Tests (drei Vorlesungen)

I

Varianzanalyse (zwei Vorlesungen)

I

Korrelationsanalyse (zwei Vorlesungen)

I

Regressionsanalyse (zwei Vorlesungen)

I Weihnachtsvorlesung (16.12.19)

I

Regressionsanalyse (zwei Vorlesungen)

I

Statistische Qualit¨ atskontrolle (drei Vorlesungen)

(4)

Klausurergebnisse Statistik 1 f¨ ur Betriebswirte

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 1 Version: 16. September 2019 4

(5)

4. Grundlagen des statistischen Schließens II (Tests)

4.1 Einf¨uhrung in statistische Tests am Beispiel dest-Tests

Beispiel 4.1: Intelligenzquotient

I

Fragestellung (1): Haben (14-j¨ ahrige) Kinder aus Dresden einen Intelligenzquotienten, der ¨ uber 100 liegt?

I

Fragestellung (2): Haben (14-j¨ ahrige) Kinder aus Dresden einen Intelligenzquotienten, der unter 100 liegt?

I

Fragestellung (3): Ist der Intelligenzquotient von (14-j¨ ahrigen) Kindern aus Dresden von 100 verschieden?

Ist µ der (unbekannte) Erwartungswert des IQ der Gesamtpopulation der (14-j¨ ahrigen) Kinder aus Dresden, dann lassen sich die Fragestel- lungen (1) bis (3) wie folgt als Forschungshypothesen formulieren:

I

(1): µ > 100 (erwarteter IQ ist h¨ oher als 100)

I

(2): µ < 100 (erwarteter IQ ist niedriger als 100)

I

(3): µ 6= 100 (erwarteter IQ ist ungleich 100)

(6)

Grundlegende Schwierigkeit

I

Auf Basis einer repr¨ asentativen Stichprobe soll auf die Grundgesamtheit geschlossen werden.

−→

Fehler, Unsicherheiten sind m¨ oglich!

I

Beispiel: Es werden

” zuf¨ allig“ 10 hochbegabte Kinder (IQ≥ 130) f¨ ur die Stichprobe ausgew¨ ahlt. Vermutlich wird dadurch µ ¨ ubersch¨ atzt!

I

Ziel der schließenden Statistik:

Quantifizierung der Unsicherheit,

z.B. mit welcher Wahrscheinlichkeit macht ein statistischer Test einen Fehler.

I

Notwendig f¨ ur die Quantifizierung:

Mathematische Modellannahmen

I

Im Beispiel 4.1 gehen wir von der Modellannahme aus, dass der IQ der (14-j¨ ahrigen) Kinder in Dresden normalverteilt ist.

I

Diese Modellannahme sollte man stets rechtfertigen (wie man das

machen kann, sehen wir sp¨ ater).

(7)

Fortsetzung Beispiel 4.1: Intelligenztest

I

Der Intelligenzquotient

X

der 14-j¨ ahrigen Kinder in Dresden wird als normalverteilt angenommen.

(math.) Stichprobe:

Xi

iid. mit

Xi ∼N(µ, σ2

),

i

= 1, . . . ,

n.

I

Aus allen (14-j¨ ahrigen) Kindern in Dresden wurden zuf¨ allig und unabh¨ angig voneinander 10 Kinder ausgew¨ ahlt. Diese machten einen IQ-Test mit folgendem Ergebnis (Daten):

i

1 2 3 4 5

xi

112 108 97 100 107

i

6 7 8 9 10

xi

110 99 106 98 104

I

Die Punktsch¨ atzung f¨ ur den unbekannten Erwartungswert µ ist gleich

ˆ

µ =

x

= 104.1

und damit gr¨ oßer als 100. Das bedeutet aber nicht, dass der

Erwartungswert µ mit Sicherheit gr¨ oßer als 100 ist.

(8)

Nullhypothese

I

Die Nullhypothese im Beispiel 4.1 lautet:

H0 : µ= 100(=µ0).

µ

0

= 100 ist also der hypothetische Wert.

I

Aus der Annahme, dass der IQ normalverteilt ist, ergibt sich, dass die Teststatistik

T

=

X −

µ

0 S

√n

t-verteilt ist mit (n

1)-Freiheitsgraden.

I

Damit l¨ asst sich die Wahrscheinlichkeit daf¨ ur kontrollieren, die Nullhypothese f¨ alschlicherweise abzulehnen.

I

Die Forschungshypothesen (1) bis (3) sind hier die m¨ oglichen

Alternativhypothesen

HA

.

(9)

Aufstellen der Null- und der Alternativhypothese

I

Man formuliert 2 sich ausschließende (oft sogar komplement¨ are) Hypothesen, die

Nullhypothese H0

und die

AlternativhypotheseHA

(oft auch mit

H1

bezeichnet)

z.B.

H0 : µ=µ0

und

HA : µ > µ0

oder

H0 : µ=µ0

und

HA: µ < µ0

oder

H0 : µ=µ0

und

HA: µ6=µ0

.

I

Die

Nullhypothese

ist diejenige Hypothese, welche auf ihren Wahrheitsgehalt hin ¨ uberpr¨ uft werden soll. Die

Nullhypothese

wird als Ausgangspunkt einer statistischen Untersuchung gesehen, den es zu widerlegen gilt.

I

Die

Alternativhypothese

ist die eigentliche Forschungshypothese und

dr¨ uckt aus, was mittels der statistischen Untersuchung gezeigt

werden soll. Die Hypothese, die statistisch abgesichert werden soll,

sollte also als

Alternativhypothese

formuliert werden!

(10)

Testentscheidung, Fehler erster und zweiter Art

I

2 m¨ ogliche Entscheidungen beim Testen:

1. H0 wird verworfen, also abgelehnt undHA angenommen:Es gibt in der erhobenen Stichprobe starke Hinweise darauf, dassH0nicht gelten kann, alsoHA gelten muss. Diese Hinweise sind so stark, dass man eher nicht von einem zuf¨alligen Zustandekommen ausgehen kann.

2. H0 wird nicht verworfen, also angenommen:Man hat keine Hinweise gefunden, die gegenH0 sprechen. Alle aufgetretenen Effekte k¨onnten genauso gut zufallsbedingt sein.

I

in der Grundgesamtheit gilt

H0 HA

Entscheidung auf- richtige Fehler 2. Art grund der Stich-

H0

Entscheidung (β-Fehler) probe zugunsten Fehler 1. Art richtige

von:

HA

(α-Fehler) Entscheidung

(11)

Fehlerwahrscheinlichkeiten

I

Formal l¨ asst sich die Wahrscheinlichkeit f¨ ur den Fehler 1. Art (α-Fehler) als bedingte Wahrscheinlichkeit schreiben:

P

(Fehler 1. Art) =

P(H0

ablehnen|

H0

ist wahr) = α

I

Die Wahrscheinlichkeit f¨ ur den Fehler 2. Art (β-Fehler) kann auch als bedingte Wahrscheinlichkeit geschrieben werden:

P

(Fehler 2. Art) =

P

(H

0

nicht ablehnen|

HA

ist wahr) = β

I

Die Wahrscheinlichkeiten f¨ ur die Fehler erster und zweiter Art ver¨ andern sich gegenl¨ aufig.

I

Bei festem Stichprobenumfang wird nur der Fehler erster Art kontrolliert.

I

Bei fester Wahrscheinlichkeit f¨ ur den Fehler 1. Art kann die

Wahrscheinlichkeit f¨ ur den Fehler 2. Art durch Vergr¨ oßerung des

Stichprobenumfanges verkleinert werden.

(12)

Einfache und zusammengesetzte Hypothesen

I

W¨ ahlt man mit der Null- oder Alternativhypothese nur einen Wert aus allen m¨ oglichen Werten aus, dann nennt man eine solche Hypothese einfach.

I

Wird dagegen eine Menge von Werten zugelassen, spricht man von einer zusammengesetzten Hypothese.

I

So ist z.B. bei

H0

: µ = µ

0

gegen

HA

: µ > µ

0 H0

eine einfache und

HA

eine zusammengesetzte Hypothese.

I

Hingegen sind bei

H0

: µ

µ

0

gegen

HA

: µ > µ

0

beide Hypothesen

H0

und

HA

zusammengesetzte Hypothesen.

I

F¨ ur eine einfache Nullhypothese ist die Bestimmung f¨ ur die Wahrscheinlichkeit f¨ ur den Fehler 1. Art eindeutig.

I

F¨ ur zusammengesetzte Nullhypothesen hingegen h¨ angt die Fehler-

wahrscheinlichkeit noch vom konkreten Wert der Nullhypothese,

welcher in der Grundgesamtheit angenommen wird, ab.

(13)

Niveau α

I

Ein Test heißt Test zum Niveau

α

(Signifikanzniveau

α), falls die

Wahrscheinlichkeit f¨ ur den Fehler 1. Art h¨ ochstens α ist.

I

Ubliche Werte f¨ ¨ ur das Signifikanzniveau α sind 0.05 oder 0.01.

I

F¨ ur einfache Nullhypothesen kann man Tests oft so bestimmen, dass die Wahrscheinlichkeit f¨ ur den Fehler 1. Art genau α ist.

I

Bei zusammengesetzten Nullhypothesen sind Tests oft so konstru- iert, dass die Wahrscheinlichkeit f¨ ur den Fehler 1. Art genau α f¨ ur den Wert der Nullhypothese ist, welcher am n¨ achsten zu den Werten der Alternativhypothese liegt. F¨ ur alle anderen Werte der Nullhypo- these ist dann die Wahrscheinlichkeit f¨ ur den Fehler 1. Art kleiner als α.

I

Im achten Kapitel, welches zugleich das letzte Kapitel ist, betrachten

wir die Wahrscheinlichkeiten f¨ ur den Fehler 1. Art und 2. Art noch

ausf¨ uhrlicher im Rahmen der statistischen Qualit¨ atskontrolle. Die

G¨ utefunktion des Testes wird dabei eine wichtige Rolle spielen.

(14)

Kritischer Bereich

Der kritische Bereich ist der Ablehnungsbereich der Nullhypothese.

Liegt die Realisierung

t

der Teststatistik

T

im kritischen Bereich, dann wird die Nullhypothese

H0

zugunsten der Alternativhypothese

HA

abgelehnt.

Einstichproben-t-Test

Voraussetzung:

Xi

iid. mit

Xi ∼N(µ, σ2

),

i

= 1, . . . ,

n.

Ist

H0 :µ=µ0

wahr, dann gilt f¨ ur die Testgr¨ oße

T

:

T

=

X −

µ

0 S

√n∼tn−1

.

Kritische Bereiche (je nach Alternative) beim Signifikanzniveau α:

I

(1)

HA : µ > µ0 K

=

t|t >tn−1,1−α

I

(2)

HA : µ < µ0 K

=

t|t <−tn−1,1−α

I

(3)

HA : µ6=µ0 K

=

n

t| |t|>tn−1,1−α 2

o

(15)

Einstichproben-t -Test f¨ ur rechtsseitige Hypothesen

I H0: µ=µ0

gegen

HA : µ > µ0

(oder oft auch so:

H0: µ≤µ0

gegen

HA : µ > µ0

).

I

Im Beispiel 4.1 ist

n

= 10,

x

= 104.1 und

s2

= 28.3222, damit ergibt sich

t

= 104.1

100

28.3222

10 = 2.44

I

Das Signifikanzniveau w¨ ahlen wir mit α = 0.05 und der Stichproben- umfang ist

n

= 10 und damit gilt

tn−1,1−α

=

t9,0.95

= 1.83.

K

=

t|t

>

tn−1,1−α

=

{t|t

> 1.83}

I

Testentscheidung:

t

= 2.44 > 1.83 =

⇒ t∈K

=

⇒H0

wird abgelehnt (H

A

wird angenommen).

I

Testergebnis: Der erwartete IQ der 14-j¨ ahrigen Kinder in Dresden ist

signifikant gr¨ oßer als 100, beim Signifikanzniveau von 5%.

(16)

−4 −2 0 2 4

0.00.10.20.30.4

Dichtefunktion der t9−Verteilung

α=5%

t9,0.95=1.83

t=2.44

(17)

Einstichproben-t -Test f¨ ur linksseitige Hypothesen

I H0: µ=µ0

gegen

HA : µ < µ0

(oder oft auch so:

H0: µ≥µ0

gegen

HA : µ < µ0

).

I

Im Beispiel 4.1 ist

t

= 2.44.

I

Als Signifikanzniveau w¨ ahlen wir wieder α = 0.05 und damit wird auch hier

tn−1,1−α

=

t9,0.95

= 1.83 f¨ ur den kritischen Bereich ben¨ otigt.

K

=

t|t

<

−tn−1,1−α

=

{t|t

<

−1.83}

I

Testentscheidung:

t

= 2.44

6<−1.83 =⇒t 6∈K

=

⇒ H0

wird angenommen.

I

Testergebnis: Der erwartete IQ der 14-j¨ ahrigen Kinder in Dresden ist

nicht signifikant kleiner als 100.

(18)

−4 −2 0 2 4

0.00.10.20.30.4

Dichtefunktion der t9−Verteilung

α=5%

t9,0.95=−1.83

t=2.44

(19)

Einstichproben-t -Test f¨ ur zweiseitige Hypothesen

I H0: µ=µ0

gegen

HA : µ6=µ0 I

Im Beispiel 4.1 ist

t

= 2.44.

I

Als Signifikanzniveau w¨ ahlen wir wieder α = 0.05 =

α2

= 0.025

=

1

α2

= 0.975 und damit ist hier das f¨ ur den kritischen Bereich ben¨ otigte t-Quantil

tn−1,1−α

2

=

t9,0.975

= 2.26.

K

=

n

t| |t|

>

tn−1,1−α 2

o

=

{t| |t|

> 2.26}

I

Testentscheidung:

|t|

= 2.44 > 2.26 =

⇒ t∈K

=

⇒ H0

wird abgelehnt (H

A

wird angenommen).

I

Testergebnis: Der erwartete IQ der 14-j¨ ahrigen Kinder in Dresden ist

signifikant von 100 verschieden.

(20)

−4 −2 0 2 4

0.00.10.20.30.4

Dichtefunktion der t9−Verteilung

α 2=2.5%

2.5%=α 2

t9,0.975=−2.26 t9,0.975=2.26

t=2.44

(21)

Statistik-Software, p-value (p-Wert), Statgraphics

I

Die Statistik-Software berechnet den p-Wert (p-value).

I

Testentscheidung mit dem p-Wert:

p≤

α =

⇒ H0

wird abgelehnt.

p

> α =

⇒ H0

wird angenommen.

I

Im Beispiel 4.1:

H0: µ=µ0

gegen

HA : µ > µ0

Statgraphics

I p

= 0.018798 < 0.05 = α =

⇒ H0

wird abgelehnt.

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 1 Version: 16. September 2019 21

(22)

−4 −2 0 2 4

0.00.10.20.30.4

Dichtefunktion der

x

t9−Verteilung

α=0.05

p=0.019

t9,0.95=1.83

t=2.44

(23)

Statgraphics, Alternative:

” kleiner“

I

Im Beispiel 4.1:

H0: µ=µ0

gegen

HA : µ < µ0

Statgraphics

I p

= 0.981202 > 0.05 = α =

⇒ H0

wird angenommen.

(24)

−4 −2 0 2 4

0.00.10.20.30.4

Dichtefunktion der

x

t9−Verteilung

p=0.981

α=0.05

−t9,0.95=−1.83

t=2.44

(25)

Statgraphics, Alternative:

” ungleich“

I

Im Beispiel 4.1:

H0: µ=µ0

gegen

HA : µ6=µ0

Statgraphics

I p

= 0.0375961 < 0.05 = α =

⇒ H0

wird abgelehnt.

(26)

Zusammenfassung

I

Beim Testen wird (erst einmal) nur die Wahrscheinlichkeit f¨ ur den Fehler 1. Art kontrolliert, d.h.

P

(H

0

ablehnen

|H0

wahr)

α .

I

Wenn also

H0

tats¨ achlich gilt, wird man sich nur (im Mittel) in α

·

100% der F¨ alle f¨ ur

HA

entscheiden.

I

Die Entscheidung f¨ ur

HA

ist in diesem Sinn statistisch abgesichert.

I

Bei einer Entscheidung gegen

H0

und damit f¨ ur

HA

spricht man von einem signifikanten Ergebnis.

I

Die Wahrscheinlichkeit f¨ ur den Fehler 2. Art wird erst einmal nicht kontrolliert.

Eine Entscheidung

H0

beizubehalten, ist nicht statistisch abgesichert.

Kann man

H0

nicht verwerfen, bedeutet das daher nicht, dass man

sich aktiv“ f¨ ur

H0

entscheidet; es spricht nur nichts gegen

H0

.

(27)

4.2. Tests f¨ ur eine Stichprobe

Eine Stichprobe:

X1

, . . . ,

Xn

iid..

I

Test f¨ ur die Lage bzw. zentrale Tendenz

I Stichprobe ist normalverteilt

I Varianzσ2ist bekannt:Einstichproben z-Test (Gauß-Test)

I Varianzσ2ist unbekannt:Einstichproben-t-Test

I Bei der Stichprobe liegt eine stetige Verteilung vor:Vorzeichentest

I

Test f¨ ur die Streuung (Varianz)

I Stichprobe ist normalverteilt:χ2-Test

I

Test f¨ ur eine (unbekannte) Wahrscheinlichkeit

p

I Binomialtest

(28)

Einstichproben z-Test (Gauß-Test)

I

Annahme:

Xi ∼N(µ, σ2

), iid.,

i

= 1, . . . ,

n,

σ

2

bekannt.

I

Zweiseitiger Test

I Hypothesen: H0 :µ=µ0, HA :µ6=µ0.

I UnterH0 gilt: X ∼N µ0,σn2

.

I Testgr¨oße: T = X−µ0

σ

√nH0N(0,1) .

I Kritischer Bereich:K ={t ∈R : |t|>z1−α/2}.

I

Einseitige Tests

I Im Fall von H0 :µ≥µ0, HA :µ < µ0 gilt K ={t∈R : t<zα=−z1−α}.

I Im Fall von H0 :µ≤µ0, HA :µ > µ0 gilt K ={t ∈R : t >z1−α}.

I

Die Tests sind f¨ ur große Werte

n

(n

30) auch ohne

Normalverteilungsvoraussetzung anwendbar.

(29)

Einstichproben-t -Test

I

Annahme:

Xi ∼N(µ, σ2

), iid.,

i

= 1, . . . ,

n,

σ

2

unbekannt.

I

Zweiseitiger Test

I Hypothesen: H0 :µ=µ0, HA :µ6=µ0.

I Testgr¨oße: T = X−µ0 S

√nH0tn−1 (t−Verteilung mitn−1

Freiheitsgraden).

I Kritischer Bereich: K ={t ∈R : |t|>tn−1;1−α/2}.

I

Einseitige Tests

I Im Fall von H0 :µ≥µ0, HA :µ < µ0 gilt

K ={t∈R : t<tn−1;α=−tn−1;1−α}.

I Im Fall von H0 :µ≤µ0, HA :µ > µ0 gilt K ={t∈R : t>tn−1;1−α}.

I

Die Tests sind f¨ ur große Werte

n

(n

30) auch ohne

Normalverteilungsvoraussetzung anwendbar.

(30)

χ

2

-Test Streuungstest

I

Annahme:

Xi ∼N(µ, σ2

) ,iid.,

i

= 1, . . . ,

n,

µ unbekannt.

I

Zweiseitiger Test

I Hypothesen: H0220, HA26=σ02.

I Testgr¨oße: T = (n−1)S2 σ02

H0

∼χ2n−12-Verteilung mitn−1 Freiheitsgraden).

I Kritischer Bereich:

K ={t ∈R : t < χ2n−1;α/2} ∪ {t∈R : t> χ2n−1;1−α/2}

I

Einseitige Tests

I Im Fall von H02≥σ20, HA2< σ02 gilt K ={t ∈R : t < χ2n−1;α}.

I Im Fall von H02≤σ20, HA2> σ02 gilt K ={t∈R : t> χ2n−1;1−α}.

Referenzen

ÄHNLICHE DOKUMENTE

Prädiktoren: (Konstante), Anspruch, Lohn, Kreativität, Leistungsstreben, Arbeitsbedingungen, Vielfalt, Lernpotential, Hierarchie, Ehrgeiz ca. Prädiktoren: (Konstante), Anspruch,

I Es k¨ onnen H¨ aufigkeitsangaben verarbeitet werden (wie hier bisher im Beispiel 7.6), aber auch die einzelnen dichotomen Merkmalswerte (0 und 1) direkt.. I Im Folgenden

I Ein ideales Pr¨ ufverfahren (bei dem keine Fehlentscheidungen getroffen werden) w¨ are eine fehlerfreie Totalkontrolle (d.h. eine fehlerfreie Kontrolle aller Teile des Postens)..

I Bisher wurden attributive Stichprobenpl¨ ane behandelt, bei denen nur festgestellt wird, ob die ¨ uberpr¨ uften St¨ ucke brauchbar oder unbrauchbar sind. I Trifft man

I Weiterhin gibt es Kontrollkarten mit Ged¨ achtnis, bei denen eine Entscheidung ¨ uber einen Eingriff auch aufgrund der Ergebnisse vergangener Stichproben getroffen wird. I

I Sind zus¨ atzliche Informationen zu einem Zufallsexperiment verf¨ ugbar (oder werden diese hypothetisch angenommen), k¨ onnen sich die Wahrscheinlichkeiten f¨ ur die zuf¨

I Oft sind Ergebnisse von Zufallsversuchen in Form von Zahlen gegeben oder es ist f¨ ur eine mathematische Behandlung g¨ unstig, den elementaren Versuchsausg¨ angen Zahlen

I Die wichtigste Kenngr¨ oße f¨ ur die Variabilit¨ at von Zufallsgr¨ oßen ist die Varianz der Zufallsgr¨ oße, auch Streuung oder Dispersion genannt.. Diese Eigenschaft gilt aber