• Keine Ergebnisse gefunden

Merkmale oder Variable: Eigenschaften der Untersuchungseinheiten Auspragungen: Werte der Merkmale

N/A
N/A
Protected

Academic year: 2021

Aktie "Merkmale oder Variable: Eigenschaften der Untersuchungseinheiten Auspragungen: Werte der Merkmale"

Copied!
60
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

1 Aussagen und Haufigkeiten

Grundgesamtheit: raumlich und zeitlich abgegrenzte Menge von Untersuchungseinheiten

Merkmale oder Variable: Eigenschaften der Untersuchungseinheiten Auspragungen: Werte der Merkmale

Datenliste: Folge von Untersuchungseinheiten Umfang: Anzahl der Elemente einer Datenliste

Statistik1,SS1999 Strasser

Slide2

Ziel einer statistischen Untersuchung: Aussagen uber die Untersuchungsobjekte

(1.3) Definition

Es sei A eine Aussage uber ein Merkmal der

Untersuchungsobjekte. Unter der absoluten Haugkeit h(A) versteht man die Anzahl der Untersuchungsobjekte, fur die die Aussage A zutrit. Unter der relativen Haugkeit f(A) versteht man den Anteil (Prozentsatz) der Untersuchungsobjekte, fur die die Aussage A zutrit.

f(A)= h(A) n

Sind A und B zwei beliebige Aussagen, so bedeuten:

A

[

B: A oder B trit zu.

Mindestens eine der beiden Aussagen A, B trit zu.

A

\

B: A und B treen zu.

Beide Aussagen A und B treen gleichzeitig zu.

A

0

: A trit nicht zu.

Das Gegenteil von A trit zu.

A

B: Wenn A, dann B.

B ist eine umfassendere Aussage als A.

Statistik1,SS1999 Strasser

Slide4

A =

;

: A ist unmoglich.

Die Aussage A trit niemals zu.

A =: A ist sicher.

Die Aussage A trit stets zu.

h(

;

)=0, f(

;

)=0

h() = n, f()=1

(2)

Es seien A und B zwei beliebige Aussagen:

Wenn A

\

B =

;

, so sind die Aussagen unvereinbar, die Aussagen konnen nicht gleichzeitig zutreen, sie schlieen einander aus.

Wenn A

[

B =, so trit stets mindestens eine der Aussagen A oder B zu.

Die Aussagen A und B schopfen gemeinsam alle Moglichkeiten aus.

Statistik1,SS1999 Strasser

Slide6

Monotoniegesetz:

A

B

)

h(A)

h(B) und f(A)

f(B) Additionsgesetz:

A

\

B =

;)

8

<

:

h(A

[

B)=h(A)+ h(B);

f(A

[

B)=f(A)+ f(B) Siebformel:

h(A

[

B)= h(A)+ h(B)

;

h(A

\

B);

f(A

[

B)= f(A)+ f(B)

;

f(A

\

B)

2 Ereignisse und Wahrscheinlichkeiten

Stochastik : Zufallsexperimente

(2.2) Definition

Unter einem Zufallsexperiment versteht man ein grundsatzlich wiederholbares Experiment mit mehreren moglichen Ergebnissen. Die

Versuchsergebnisse sind nicht vorhersagbar, sondern wechseln zufallig von Versuchswiederholung zu Versuchswiederholung.

Zufallsexperimente konnen nur statistisch beschrieben werden.

Statistik1,SS1999 Strasser

Slide8

Ereignisse: Aussagen uber die Versuchsergebnisse

Wenn die Aussage A fur ein Versuchsergebnis zutrit, so sagt man, da das Ereignis A eingetreten ist oder beobachtet worden ist.

Wenn A nicht zutrit, dann sagt man, das Ereignis A ist nicht eingetreten.

(3)

Ist das Zufallsexperiment unter identischen Versuchsbedingungen beliebig oft reproduzierbar, so kann es statistisch ausgewertet werden, dh. die

Versuchsergebnisse werden einer Datenanalyse unterworfen.

Statistische Gesetzmaigkeiten:

Die relative Haugkeiten von Ereignissen scheinen mit wachsendem Datenumfang einem festen Wert zuzustreben.

Statistik1,SS1999 Strasser

Slide10

(2.3) Beispiel: Munzwurf

Munze wird n{mal geworfen.

Haugkeit des Ereignisses A =,,Die Zahlseite liegt oben"

n = h(A) f(A)

j

f(A)

;12j

10 3 0;3 0;2

100 47 0;47 0;03

500 254 0;508 0;008 1000 488 0;488 0;012 5000 2453 0;4906 0;0094

Die relativen Haugkeiten konvergieren anscheinend gegen den Wert 0,5.

(2.4) Beispiel: Wurfelwurf

Zwei Wurfel werden geworfen.

Haugkeit des Ereignisses A =,,Die Augensumme ist mindestens 10"

n h(A) f(A)

10 0 0

100 19 0;19

500 80 0;16

1000 170 0;17 2000 349 0;1745

Auch hier scheinen die relativen Haufgkeiten gegen einen Grenzwert zu konvergieren.

Statistik1,SS1999 Strasser

Slide12

(2.5)Empirisches Gesetz der groen Zahl:

Wird ein Zufallsexperiment unter identischen Bedingungen wiederholt, und zwar so, da die einzelnen Versuchsergebnisse einander nicht beeinussen konnen, dann konvergieren die relativen Haugkeiten mit wachsender Anzahl der Versuchswiederholungen gegen einen Grenzwert:

lim

n!1

f

n

(A)= p

Der Grenzwert p hangt vom jeweiligen Ereignis A ab, daher schreibt man

p = P(A):

(4)

Empirisches Gesetz der groen Zahl:

Die langfristige durchschnittliche Haugkeit ist als naturgesetzartige Eigenschaft des Zufallsexperiments ansehbar.

(2.6) Definition

Unter der Wahrscheinlichkeit P(A) eines Ereignisses A versteht man den Grenzwert der relativen Haugkeiten f

n

(A).

Wahrscheinlichkeiten sind nichts anderes als idealisierte relative Haugkeiten.

Statistik1,SS1999 Strasser

Slide14

Daher gelten fur Wahrscheinlichkeiten gleiche Rechengesetze:

(1) 0

P(A)

1 (2) P(

;

)=0; P() = 1

(3) A

B

)

P(A)

P(B) Monotoniegesetz (4) A

\

B =

;)

P(A

[

B)= P(A)+ P(B) Additionsgesetz (5) P(A

[

B)= P(A)+ P(B)

;

P(A

\

B) Siebformel

Zwei Wege, um eine Wahrscheinlichkeit zu bestimmen:

Statistische Methoden: Die relative Haugkeit f(A) des Ereignisses ist ein Schatzer fur die unbekannte Wahrscheinlichkeit.

Mathematische Methoden: Mit mathematischen Methoden werden die exakten Werte von Wahrscheinlichkeiten berechnet.

Statistik1,SS1999 Strasser

Slide16

Methode von LAPLACE

Seien A

1

;A

2

;:::;A

m

Ereignisse, die eine Zerlegung der Ereignismenge bilden:

P(A

1

)+ P(A

2

)+

+ P(A

m

)= P() = 1:

Die Ereignisse seien gleichwahrscheinlich:

P(A

1

)= P(A

2

)= ::: = P(A

m

)= 1m:

(2.7) Beispiel

Werfen einer Munze

(2.8) Beispiel

Werfen eines Wurfels

(5)

Ziehungsexperimente

Die Grundgesamtheit bestehe aus N Untersuchungsobjekten.

Eigenschaft A besitzt die relative Haugkeit (den Anteil) p Totalerhebung, Stichprobenerhebung

Mikrozensus, Volkszahlung, Inventur

Statistik1,SS1999 Strasser

Slide18

Grundgesamtheit N mit M Untersuchungsobjekten mit Eigenschaft A:

p =

MN

Gesucht ist die Wahrscheinlichkeit P(A), da bei einer zufalligen Ziehung ein Untersuchungsobjekt mit der Eigenschaft A gezogen wird.

Da jedes einzelne Untersuchungsobjekt die Wahrscheinlichkeit

N1

hat, folgt:

P(A)=

MN

(2.11) Anwendung: Meinungsumfrage

Die politische Partei A kann 40% der Wahlerstimmen auf sich vereinigen. Bei einer Meinungsumfrage werden zufallig ausgewahlte Personen befragt. Wie gro ist die Wahrscheinlichkeit, da eine befragte Person Wahler der Partei A ist?

Der Anteil der Wahler der Partei A ist p =0;4. Daher betragt die

Wahrscheinlichkeit, da eine zufallig befragte wahlberechtigte Person Wahler der Partei A ist, gerade 0,4.

Statistik1,SS1999 Strasser

Slide20

3 Statistik einer relativen Haufigkeit

Es sei A ein Ereignis bei einem Zufallsexperiment mit P(A)= p.

Stichprobe: Versuchsergebnisse bei n-maligem Wiederholen des Zufallsexperimentes

Stichprobenumfang: Umfang n der Daten

Relative Haugkeit: ^ p = f

n

(A), ist ein Schatzer der Wahrscheinlichkeit p

(6)

Prognoseintervalle

Wie gro ist die zufallige Schwankung der relativen Haugkeit ^ p um die Wahrscheinlichkeit p?

Die Schwankung ^ p

;

p ist abhangig vom

Stichprobenumfang n

Wert der Wahrscheinlichkeit p

Die durchschnittliche Groe der Zufallsschwankungen ist proportional zur Standardabweichung:

SD :=

r

p(1

;

p) n :

Statistik1,SS1999 Strasser

Slide22

Faustregel:

Mit etwa 67% Sicherheit betragen Zufallsschwankungen nicht mehr als eine Standardabweichung:

j

f

n

(A)

;

p

j

SD.

Mit etwa 95% Sicherheit betragen Zufallsschwankungen nicht mehr als zwei Standardabweichungen:

j

f

n

(A)

;

p

j

2 SD.

Mit etwa 99,5% Sicherheit betragen Zufallsschwankungen nicht mehr als drei Standardabweichungen:

j

f

n

(A)

;

p

j

3 SD.

Statistische Sicherheit:

Berechnet man die relativen Haugkeiten f

n

(A) in sehr vielen, voneinander unabhangigen Stichproben, so erfullt der als Sicherheit angegebene Prozentsatz von Stichproben die entsprechende Ungleichung:

j

p ^

;

p

j

cSD

()

p

;

cSD

p ^

p + cSD

Statistik1,SS1999 Strasser

Slide24

(3.4) Aufgabe

p =0;2; Stichprobe vom Umfang n =200 SD =

r

0;2

0;8

200 =0;0283 Prognoseintervall:

0;1434 = 0;2

;

2

0;0283

p ^

0;2+ 2

0;0283 = 0;256

(7)

(3.5) Aufgabe

p =0;4; Stichprobenumfang n = 1000 SD =

r

0;4

0;6

1000 =0;0155 Prognoseintervall:

0;369 = 0;4

;

2

0;0155

p ^

0;4+2

0;0155 = 0;431

Statistik1,SS1999 Strasser

Slide26

Lange: Genauigkeit eines Prognoseintervalles

Wahl des Wertes c beeinut: Genauigkeit und Sicherheit Standardabweichung wird beeinut von

Wahrscheinlichkeit p

Stichprobenumfang n

Die Prognoseintervalle fur f

n

(A) sind umso genauer, je naher die Wahrscheinlichkeit p an 0 oder 1 liegt.

(3.6) p

n

{Gesetz:

Die statistische Genauigkeit eines Prognoseintervalls steigt proportional zur Wurzel aus dem Stichprobenumfang.

Konfidenzintervalle

Sei p eine unbekannte Wahrscheinlichkeit, deren relative Haugkeit ^p beobachtet wird.

Ungleichung:

p ^

;

cSD

p

p + cSD ^ Nachteil: Berechnung von SD

(3.8) Definition

Unter einem Kondenzintervall fur eine unbekannte

Wahrscheinlichkeit p versteht man ein Uberdeckungsintervall p

1

p

p

2

fur p, dessen Grenzen p

1

und p

2

wohl von den Daten, aber nicht von der unbekannten Wahrscheinlichkeit p abhangen.

Statistik1,SS1999 Strasser

Slide28

Exakte Methode:

Losungen der quadratischen Gleichung:

(p

;

p) ^

2

= c n p(1

2 ;

p):

(3.11) Aufgabe

Stichprobe der 50 ausgewahlten Bewerberinnen. Relative Haugkeit:

p = f ^

n

(A)=

1450

=0;28

(0;28

;

p)

2

= 2 50p(1

2 ;

p)=0;08p(1

;

p) p

1

=0;1730; p

2

=0;4196; Kondenzintervall:

0;17

p

0;42

(8)

(3.12) Aufgabe: Hochrechnung

Um einen Fischbestand unbekannter Groe zu messen, hat man 300 Fische gefangen, sie markiert und wieder ausgesetzt. Nach einiger Zeit wurden 500 Fische gefangen, von denen sich 113 als markiert herausstellen.

p =

300N

; n =500; ^p =

113500

=0;226

(0;226

;

p)

2

=2

2

p(1

;

p)

500 =0;008p(1

;

p) p

1

=0;190851; p

2

=0;265497

0;190851

300

N

0;265497 1129;95

N

1571;90

Statistik1,SS1999 Strasser

Slide30

Robuste Methode:

Formel:

p

1;2

= ^ p

c 2

p

n

(3.13) Aufgabe

0;28

;

2

1

2

p

50

p

0;28 + 2

1 2

p

50

also 0;14

p

0;42

Bootstrapmethode:

p

1;2

= ^ p

c

r

p(1 ^

;

p) ^

(3.14) Aufgabe: Marktforschung

n

Wieviele Hausfrauen mu man befragen, um den Bekanntheitsgrad einer Waschmittelsorte mit der Genauigkeit

2% bestimmen zu konnen ?

p ^

;

c

2

p

n

p

p + c ^ 2

p

n 2

p

2 n

0;02

)

n

2500

Statistik1,SS1999 Strasser

Slide32

Testprobleme

Es sollen zwischen zwei alternativen Aussagen uber p eine Entscheidung getroen werden.

(3.17) Anwendung: Marktforschung

Es ist bekannt, da in einer Stadt mindestens 60% der Konsumenten das Produkt A dem Produkt B vorziehen. Nach einer Werbekampagne fur das Produkt B erklaren 80 von 160 befragten Konsumenten, sie wurden das Produkt B vorziehen. Ist damit nachgewiesen, da die Werbekampagne wirksam war?

p: Anteil der B{Konsumenten nach der Werbekampagne p> 0;4=: p

0

p =0;5; Stichprobe vom Umfang n =160 ^

(9)

(3.18) Definition

Ein statistischer Test uber eine unbekannte

Wahrscheinlichkeit p ist ein Prufverfahren, das zwischen zwei Aussagen der Form

Nullhypothese:

p = p

0

Alternative:

p

6

= p

0

uber die unbekannte Wahrscheinlichkeit p entscheidet. Die Entscheidung wird auf Grund empirischer Daten getroen.

Statistik1,SS1999 Strasser

Slide34

Standardscores von relativen Haugkeiten p ^

;

p Faustregel: SD

Mit etwa 67% Sicherheit liegt ein Standardscore zwischen {1 und +1.

Mit etwa 95% Sicherheit liegt ein Standardscore zwischen {2 und +2.

Mit etwa 99,5% Sicherheit liegt ein Standardscore zwischen {3 und +3.

Prufverfahren:

Testgroe T beruht auf der Unterstellung der Nullhypothese p = p

0

: T = ^p

;

p

0

SD mit SD =

r

p

0

(1

;

p

0

) n

;

2

p ^

;

p

0

SD

2: Das Ergebnis ist nicht signikant.

Keine Entscheidung.

p ^

;

p

0

SD > 2: Das Ergebnis ist signikant.

Entscheidung: p> p

0

. p ^

;

p

0

SD <

;

2: Das Ergebnis ist signikant.

Entscheidung: p< p

0

.

Statistik1,SS1999 Strasser

Slide36

(3.20) Aufgabe: Marktforschung

Der Wert der Testgroe betragt p ^

;

p

0

SD = 0;5

;

0;4

q

0;40;6

160

=2;58:

Dieser Wert ist signikant. Wirksamkeit der Werbekampagne ist nachgewiesen.

(10)

Testtheorie Statistische Tests:

Aus den Daten wird eine Testgroe T berechnet.

Es wird ein Annahmebereich der Testgroe T festgelegt, der folgende Eigenschaft hat: Falls die Nullhypothese zutrit, liegt die Testgroe mit hoher Wahrscheinlichkeit (=Signikanzniveau) innerhalb des

Annahmebereiches.

Die Grenzen des Annahmebereiches heien kritische Werte. Uberschreitet die Testgroe einen kritischen Wert, dann liegt ein signikantes Ergebnis vor, welches dazu fuhrt, da die Hypothese verworfen wird.

Statistik1,SS1999 Strasser

Slide38

Fehlentscheidungen:

Fehler 1.Art: Die Hypothese wird verworfen, obwohl sie zutrit.

Fehler 2.Art: Die Hypothese wird beibehalten, obwohl sie nicht zutrit.

H wird nicht H wird verworfen verworfen H trit zu Entscheidung Fehlentscheidung

richtig 1.Art

H trit nicht zu Fehlentscheidung Entscheidung

2.Art richtig

(3.22) Definition

Unter dem Signikanzniveau versteht man die Sicherheit eines Tests, mit der sich der Fehler 1.Art vermeiden lat.

Durch die Wahl der kritischen Werte ist das Signikanzniveau kontrollierbar, und daher ist der Fehler 1.Art selten.

Das Verwerfen der Nullhypothese ist ein statistischer Beweis dafur, da sie tatsachlich falsch ist.

Statistik1,SS1999 Strasser

Slide40

(3.23) Definition

Unter der Trennscharfe versteht man die Sicherheit eines Tests, mit der sich der Fehler 2.Art vermeiden lat.

Eine Erhohung des Stichprobenumfangs n unter Beibehaltung des Signikanzniveaus fuhrt zu einer Erhohung der Trennscharfe.

Eine Erhohung des Signikanzniveaus unter Beibehaltung des Stichprobenumfangs fuhrt zu einer Senkung der Trennscharfe.

Wenn

j

p

;

p

0j

gro ist, dann ist auch die Trennscharfe des Tests gro.

Man kann nicht davon ausgehen, da der Fehler 2.Art selten ist. Deshalb darf das Beibehalten der Nullhypothese nicht als statistischer Beweis der

Nullhypothese interpretiert werden.

(11)

4 Der Vergleich von relativen Haufigkeiten

Zwei von einander unabhangige Zufallssexperimente: Ereignis A

1

bzw. A

2

mit P(A

1

)= p und P(A

2

)= q

Frage nach dem Unterschied p

;

q

(4.1) Anwendung : Verkehrsstatistik

Schweden Auslander Schwere Unfalle im Monat

vor der Neuordnung: 512 261

Schwere Unfalle im Monat

nach der Neuordnung: 510 189

A

1

Ereignis: ,,Schwerer Unfall im Monat vor ...", A

2

Ereignis: ,,Schwerer Unfall im Monat nach ...".

Statistik1,SS1999 Strasser

Slide42

Konfidenzintervalle

Standardabweichung der Dierenz zweier relativer Haugkeiten p und ^q: ^ SD :=

q

SD

21

+ SD

22

=

s

p(1

;

p)

n

1

+ q(1

;

q) n

2

Prognoseintervalle fur die Dierenz ^ p

;

q: ^

p

;

q

;

cSD

p ^

;

q ^

p

;

q + cSD

Konstruktion von Kondenzintervallen Robuste Methode:

p

;

q = ^p

;

q ^

c 2

r

1 n

1

+ 1n

2

Bootstrapmethode:

p

;

q = ^p

;

q ^

c

s

p(1 ^

;

p) ^

n

1

+ ^q(1

;

q) ^ n

2

Statistik1,SS1999 Strasser

Slide44

(4.4) Aufgabe

p = ^

512+261261

=0;338 ; ^q=

510+189189

=0;270; ^p

;

q =0;068 ^ SD

max

= 12

r

1

773 + 1

699 =0;026 und

SD =

d

r

0;338(1

;

0;338)

773 + 0;27(1

;

0;27)

699 =0;024

Robuste Methode:

0;017 = 0;068

;

2

0;026

p

;

q

0;068 + 2

0;026 = 0;117 Bootstrapmethode:

0;021 = 0;068

;

2

0;024

p

;

q

0;068 + 2

0;024 = 0;113

(12)

Testprobleme

Entscheidung zugunsten der Aussage p

6

= q

(4.7) Definition

Ein statistischer Test uber den Unterschied zwischen zwei Wahrscheinlichkeiten p und q im Rahmen eines Zweistichprobenproblems ist ein Prufverfahren, das zwischen den Aussagen

Nullhypothese:

p = q

Alternative:

p

6

= q

entscheidet. Die Entscheidung wird auf Grund empirischer Daten getroen, bei denen f(A) und f(B) aus unabhangigen Stichproben gewonnen werden.

Statistik1,SS1999 Strasser

Slide46

Prufverfahren:

Testgroe bei Unterstellung der Nullhypothese p = q:

T = ^p

;

q ^

SD wobei SD =

p

p

0

(1

;

p

0

)

r

1 n

1

+ 1n

2

Wie ist aber dabei der unterstellte gemeinsame Wert p

0

zu wahlen ?

p ^

0

= n

1

p + n ^

2

q ^ n

1

+ n

2

Es gibt drei Moglichkeiten:

;

2

p ^

;

^ q

SD

2: Das Ergebnis ist nicht signikant.

Es ist keine Entscheidung zugunsten von p

6

= q moglich.

p ^

;

q ^

SD > 2: Das Ergebnis ist signikant.

Entscheidung zugunsten der Aussage p> q.

p ^

;

q ^

SD <

;

2: Das Ergebnis ist signikant.

Entscheidung zugunsten der Aussage p< q.

Statistik1,SS1999 Strasser

Slide48

(4.8) Aufgabe

In einer Erhebung an Schulkindern wurde untersucht, ob sie mit der rechten oder mit der linken Hand schreiben.

Ergebnis:

linke Hand Gesamt

Knaben 991 12629

Madchen 1478 25045

Kann daraus geschlossen werden, da der Anteil der Linkshander bei Knaben

und Madchen unterschiedlich ist ?

(13)

p ^

0

= 991 + 1478 12629 + 25045 =0;0655

d

SD =

p

0;0655(1

;

0;0655)

r

1

12629 + 1

25045 =0;0027 p ^

;

q ^

SD =

d

0;0785

;

0;059 0;0027 =7;22 Daher schlieen wir auf p>q.

Statistik1,SS1999 Strasser

Slide50

5 Qualitative Merkmale

(5.1) Definition

Eine Eigenschaft heit ein quantitatives Merkmal, wenn seine Auspragungen Ergebnisse eines Zahl{ oder Mevorgangs sind. Jede andere Eigenschaft nennt man ein qualitatives Merkmal.

(5.4) Definition

Unter einer Kodierung oder Skalierung eines Merkmals versteht man eine Abbildung der Auspragungen des Merkmals in die Menge der reellen Zahlen. Der Skalentyp einer Kodierung ist die Gesamtheit jener

Eigenschaften der Zahlen, die eine Eigenschaft der Merkmalsauspragungen abbilden.

Es gibt im wesentlichen die folgenden Skalentypen:

Nominalskala: Das kodierte Merkmal hat keine Eigenschaften, welche sich in der Kodierung niederschlagen.

Ordinalskala: Die Auspragungen des Merkmals besitzen eine naturliche Anordnung, welche durch die Anordnung der Codewerte ausgedruckt wird.

Intervallskala: Die Auspragungen des Merkmals besitzen eine Anordnung und Distanzen, welche durch die Anordnung und die Abstande der Codewerte ausgedruckt werden.

Statistik1,SS1999 Strasser

Slide52

Deskriptive Statistik von qualitativen Merkmalen

Mogliche Auspragungen A

1

;A

2

;:::;A

m

: vollstandiges System von alternativen Eigenschaften

Alternativ: Die Eigenschaften schlieen einander paarweise aus.

Vollstandig: Die Eigenschaften erfassen alle Moglichkeiten.

(5.7) Definition

Unter der Haugkeitsverteilung oder empirischen Verteilung eines qualitativen Merkmals versteht man die Liste der absoluten Haugkeiten h(A

1

); h(A

2

);:::; h(A

m

) bzw. der relativen Haugkeiten

f(A

1

); f(A

2

);:::; f(A

m

).

(14)

Haugkeitsverteilungen: Tabellen oder Diagramme Haugkeitstabelle

Auspragung abs.Hfk. rel.Hfk.

A

1

h(A

1

) f(A

1

) A

2

h(A

2

) f(A

2

)

... ... ...

A

m

h(A

m

) f(A

m

)

Summe n 1

Statistik1,SS1999 Strasser

Slide54

Stabdiagramm: Die Auspragungen werden durch Stabe unterschiedlicher Lange dargestellt. Die Haugkeiten sind zu den Stablangen proportional.

Sektorendiagramm: Die Auspragungen werden durch Sektoren eines Kreises dargestellt. Die Haugkeiten sind zu den Sektorenwinkeln proportional.

Endliche stochastische Modelle

(6.1) Beispiel

Beim Munzwurf bilden die Ereignisse A

1

=

f

Zahl

g

und A

2

=

f

Wappen

g

ein vollstandiges System alternativer Moglichkeiten. Das Merkmal ,,Bildseite", welches beim Munzwurf beobachtet wird, ist ein zufalliges qualitatives Merkmal mit den Auspragungen A

1

und A

2

.

(6.2) Beispiel

Das Merkmal Videolm der DEMO{Daten ist ein zufalliges Merkmal, da seine Daten aus einem Zufallsexperiment (Reaktion auf die Prasentation eines Videolms) stammen.

(6.3) Definition

Unter einem endlichen Zufallsexperiment versteht man ein Zufallsexperiment mit endlich vielen alternativen Ergebnissen.

Statistik1,SS1999 Strasser

Slide56

Alternative Ergebnisse A

1

; A

2

;:::; A

m

mit Wahrscheinlichkeiten p

1

= P(A

1

); p

2

= P(A

2

);:::; p

m

= P(A

m

):

(6.4) Definition

Unter der Wahrscheinlichkeitsverteilung eines endlichen Zufallsexperiments mit m alternativen Ergebnissen A

1

; A

2

;:::; A

m

versteht man die Liste der Wahrscheinlichkeiten p

1

; p

2

;:::; p

m

.

Eigenschaften:

0

p

i

1 fur i =1;2;:::;m;

p

1

+ p

2

+

+ p

m

=1

(15)

(6.5) Definition

Ein endliches Zufallsexperiment, dessen alternative Ergebnisse A

1

;A

2

;:::;A

m

gleichwahrscheinlich sind, dh.

p

1

= p

2

=

= p

m

= 1m;

heit eine LAPLACE{Experiment.

Die Wahrscheinlichkeitsverteilung ist in diesem Fall eine gleichmaige Verteilung.

Wahrscheinlichkeit zusammengesetzter Ereignisse:

B = A

i1[

A

i2[

:::

[

A

ik

P(B)= km = ,,Anzahl der gunstigen Falle"

,,Anzahl der moglichen Falle"

Statistik1,SS1999 Strasser

Slide58

Ziehungsexperimente

Menge mit N Gegenstanden a

1

;a

2

;:::;a

N

Zufallige Stichprobe vom Umfang n, wobei alle Gegenstande die gleiche Chance haben.

Ziehungsmoglichkeiten: Ziehen mit Zurucklegen, Ziehen ohne Zurucklegen.

Ziehen mit Zurucklegen N

n

mogliche Stichproben

Wahrscheinlichkeit einer bestimmten Stichprobenfolge:

p = 1 N

n

Ziehen ohne Zurucklegen

N(N

;

1)(N

;

2)

(N

;

n +1) mogliche Stichproben.

Wahrscheinlichkeit einer bestimmten Stichprobefolge:

p = 1

N(N

;

1)(N

;

2)

(N

;

n +1) Wahrscheinlichkeit einer bestimmten Stichprobenmenge n(n

;

1)(n

;

2)

2

1 mogliche Reihenfolgen

p = n(n

;

1)(n

;

2)

2

1 N(N

;

1)(N

;

2)

(N

;

n +1)

Statistik1,SS1999 Strasser

Slide60

(6.6) Aufgabe

Wahrscheinlichkeit fur einen Haupttreer beim Lotto ,,6 aus 49" ? p = 6

5

4

3

2

1

49

48

47

46

45

44 =7;15

10

;8

(6.7) Aufgabe

Rubbelkarten: 11 Feldern, davon 3 Gewinnfelder Wahrscheinlichkeit eines Haupttreers:

p = 3

2

1 11

10

9 = 1

165

(16)

7 Empirische Prufung von Modellen

(7.2) Definition

Ein statistischer Test einer Hypothese uber eine endliche Wahrscheinlichkeitsverteilung (p

1

;p

2

;:::;p

m

) ist ein Prufverfahren, das zwischen den Aussagen

Nullhypothese:

(p

1

;p

2

;:::;p

m

)= (p

01

;p

02

;:::;p

0m

)

Alternative:

(p

1

;p

2

;:::;p

m

)

6

=(p

01

;p

02

;:::;p

0m

) entscheidet. Die Entscheidung wird auf Grund empirischer Daten getroen.

Ziel: Prufverfahren zur Beurteilung der Vereinbarkeit der empirische Verteilung (Haugkeitsverteilung) mit der hypothetischen Wahrscheinlichkeitsverteilung

Statistik1,SS1999 Strasser

Slide62

Mazahl fur das Ausma der Zufallsschwankung:

(7.4) Definition

Es sei (^ p

1

; ^p

2

;:::; ^p

m

) eine Haugkeitsverteilung, die aus einem Zufallsexperiment mit der Wahrscheinlichkeitsverteilung (p

01

;p

02

;:::;p

0m

) stammt. Deniert man

z

i

=

p

n ^p

i;

p

0i

p

p

0i

fur i =1;2;:::;m;

so nennt man die Liste (z

1

;z

2

;:::;z

m

) die standardisierte Haugkeitsverteilung.

Praktische Datenanalyse:

A

1

p

1

p ^

1

p ^

1;

p

1

z

1

A

2

p

2

p ^

2

p ^

2;

p

2

z

2

... ... ... ... ...

A

m

p

m

p ^

m

p ^

m;

p

m

z

m

Faustregel:

Der Maximalwert der standardisierten Haugkeitsverteilung bei Gultigkeit der Hy- pothese ist mit hinreichender statistischer Sicherheit dem Betrage nach

3.

Statistik1,SS1999 Strasser

Slide64

Die Chiquadrat{Methode

(7.7) Definition

Unter der Chiquadrat{Groe (fur die Prufung eines stochastischen Modells) versteht man

2

=

Xm

i=1

n(^p

i;

p

0i

)

2

p

0i

;

das ist die Quadratsumme der Komponenten der standardisierten Haugkeitsverteilung.

Prufverfahren:

Falls die Chiquadrat{Groe (m

;

1) + 3

p

m

;

1 ubersteigt, dann wird die

Hypothese verworfen.

(17)

(7.8) Aufgabe

Beurteilen Sie, ob die empirische Verteilung der Sternbilder in den DEMO{Daten mit der Hypothese einer gleichmaigen Verteilung vereinbar ist.

Chiquadrat{Groe:

2

=4;88. Da m = 12, ist der kritische Wert c =11 + 3

p

11 = 20;9.

(7.9) Aufgabe

Beurteilen Sie, ob die empirische Verteilung der Religionsbekenntnisse in den DEMO{Daten mit der Hypothese einer gleichmaigen Verteilung vereinbar ist.

Chiquadrat{Groe:

2

=17;8, m =5; c =4 + 3

p

4=10

Statistik1,SS1999 Strasser

Slide66

8 Der Vergleich von empirischen Verteilungen

Empirische Verteilungen von zwei qualitativen Merkmalen liegen vor.

Merkmal 1: Auspragungen A

1

;A

2

;:::;A

m

mit Wahrscheinlichkeiten P(A

1

)= p

1

; P(A

2

)= p

2

;:::; P(A

m

)= p

m

und relativen Haugkeiten f(A

1

)= ^ p

1

; f(A

2

)= ^ p

2

;:::;f(A

m

)= ^ p

m

Merkmal 2: Auspragungen B

1

;B

2

;:::;B

m

mit Wahrscheinlichkeiten P(B

1

)= q

1

; P(B

2

)= q

2

;:::; P(B

m

)= q

m

und relativen Haugkeiten f(B

1

)= ^ q

1

; f(B

2

)= ^ q

2

;:::;f(B

m

)= ^ q

m

(8.1) Beispiel:

Umfragen uber das Wahlverhalten

1944 Prasidenten- Erstes Zweites oder spa- Gesamt

Wahl Interview teres Interview

Roosevelt 138 217 355

Dewey 124 200 324

ohne Stimmabgabe 90 142 232

andere, oder zu jung 39 78 117

G e s a m t 391 637 1028

Statistik1,SS1999 Strasser

Slide68

(8.3) Definition

Ein statistischer Test uber den Unterschied zwischen zwei Wahrscheinlichkeitsverteilungen (p

1

;p

2

;:::;p

m

) und (q

1

;q

2

;:::;q

m

) ist ein Prufverfahren, das zwischen den Aussagen

Nullhypothese:

(p

1

;p

2

;:::;p

m

)=(q

1

;q

2

;:::;q

m

)

Alternative:

(p

1

;p

2

;:::;p

m

)

6

=(q

1

;q

2

;:::;q

m

)

entscheidet. Die Entscheidung wird auf Grund empirischer Daten getroen.

Das Prufverfahren beruht auf standardisierten Dierenzen der relativen Haugkeiten.

Die hypothetischen gemeinsamen Werte werden mit p

0i

:= p

i

= q

i

und ihre Schatzer mit

p ^

0i

= n

1

p ^

i

+ n

2

q ^

i

n

1

+ n

2

bezeichnet.

(18)

(8.5) Definition

Es seien (^ p

1

; ^p

2

;:::; ^p

m

) und (^ q

1

; ^q

2

;:::; ^q

m

) zwei

Haugkeitsverteilungen, die aus unabhangigen Zufallsexperimenten stammen.

Die Liste der Groen

z

i

=

r

n

1

n

2

n

1

+ n

2

p ^

i;

q ^

i

p

p ^

0i

heit die standardisierte Verteilung der Haugkeitsdierenzen.

Statistik1,SS1999 Strasser

Slide70

(8.6) Aufgabe

Standardisierte Verteilung der Dierenzen im Beispiel (8.1):

i p ^

i

q ^

i

p ^

0i

z

i

1 0;35 0;34 0;35 0;33 2 0;32 0;31 0;32 0;09 3 0;23 0;22 0;23 0;24 4 0;1 0;12 0;11

;

1;05

Beurteilung des Schwankungsbereichs der standardisierten Haugkeitsdierenzen:

Faustregel:

Der Maximalwert der standardisierten Haugkeitsdierenzen bei Gultigkeit der Hypothese ist mit hinreichender statistischer Sicherheit dem Betrage nach

3.

Statistik1,SS1999 Strasser

Slide72

Die Chiquadrat{Methode

(8.8) Definition

Unter der Chiquadrat{Groe (fur den Vergleich zweier empirischer Verteilungen) versteht man

2

=

Xm

i=1

n

1

n

2

n

1

+ n

2

(^ p

i;

q ^

i

)

2

p ^

0i

;

das ist die Quadratsumme der Liste von standardisierten Haugkeitsdierenzen.

Die Anzahl der Freiheitsgrade dieser Chiquadrat{Groe betragt df = m

;

1.

(19)

Prufverfahren:

Falls die Chiquadrat{Groe den kritischen Wert (m

;

1)+3

p

m

;

1 ubersteigt, wird die Hypothese verworfen.

(8.9) Aufgabe

Uberprufen Sie im Beispiel (8.1), ob die empirischen Verteilungen signikant voneinander abweichen.

Chiquadrat{Groe:

2

=1;26, kritischer Wert: c =3 + 3

p

3

Statistik1,SS1999 Strasser

Slide74

9 Bedingte Wahrscheinlichkeiten

Zwei qualitative Merkmale mit jeweils zwei Auspragungen A; A

0

bzw. B; B

0

. Kombinationen der Auspragungen:

A

\

B; A

\

B

0

; A

0\

B; A

0\

B

0

Kontingenztafel (Vierfeldertafel):

B B

0

A h(A

\

B) h(A

\

B

0

) h(A) A

0

h(A

0\

B) h(A

0\

B

0

) h(A

0

)

h(B) h(B

0

)

Gewohnliche relative Haugkeiten: f(A

\

B)= h(A

\

B) n Bedingte relative Haugkeiten: f(A

j

B)= h(A

\

B)

h(B) = f(A

\

B) ,,bedingte relative Haugkeit von A unter der Bedingung B" f(B)

Statistik1,SS1999 Strasser

Slide76

(9.1) Aufgabe

Von 1000 Verkehrsunfallen waren 280 mit todlichem Ausgang. Davon ereigneten sich 80 bei einer Geschwindigkeit von mehr als 150 km=h. Insgesamt ereigneten sich 900 Verkehrsunfalle bei einer niedrigeren Geschwindigkeit.

A =:,,Unfall endet todlich",

B =:,,Unfall ereignet sich bei mehr als 150 km=h".

B B

0

A 80 200 280 A

0

20 700 720 100 900 1000 f(A

j

B):= h(A

\

B)

h(B) =0;8 und f(A

j

B

0

):= h(A

\

B

0

)

h(B

0

) =0;22

(20)

Empirisches Gesetz der groen Zahl:

f

n

(A

j

B)= f

n

(A

\

B)

f

n

(B)

!

P(A

\

B) P(B)

(9.3) Definition

Die bedingte Wahrscheinlichkeit P(A

j

B) von A unter B ist die Wahrscheinlichkeit von A, gemessen an Versuchen, bei denen B eintritt:

P(A

j

B):= P(A

\

B) P(B) :

Eine bedingte Wahrscheinlichkeit ist nur dort sinnvoll, wo P(B)

6

=0.

Produktformel : P(A

\

B)= P(A

j

B)P(B)

Statistik1,SS1999 Strasser

Slide78

(9.4) Aufgabe

Ein Wurf mit zwei Wurfeln ergibt eine Augensumme

10. Wie gro ist die Wahrscheinlichkeit, da dabei mindestens eine 6 auftritt ?

S: Augensumme, A: ,,mindestens eine Sechs".

P(A

j

S

10) = P(A

\

(S

10)) P(S

10)

P(A

\

(S

10)) = 536 und P(S

10) = 636;

und daher

P(A

j

S

10) = 56:

(9.5) Aufgabe

Ein Unternehmen produziert zwei Sorten von Produkten. Vier Prozent aller Produkte sind Ausschu. Von den einwandfreien Produkten gehoren 75% zur Sorte 1. Wie gro ist die Wahrscheinlichkeit, da ein zufallig ausgewahltes Produkt zur Sorte 1 gehort und einwandfrei ist ?

A ,,Produkt gehort zur Sorte 1"

B ,,Produkt ist einwandfrei"

P(B

0

)= 0;04; P(A

j

B)= 0;75

P(A

\

B)= P(A

j

B)P(B) =0;75

0;96 = 0;72

Statistik1,SS1999 Strasser

Slide80

(9.6) Anwendung:

Qualitatskontrolle

Ein Konsument bezieht Gluhbirnen von drei Herstellern A, B und C. Je 25% der Gluhbirnen stammen von den Herstellern A und B, der Rest stammt vom Hersteller C. Die vom Konsumenten verlangte Mindestqualitat einer Gluhbirne bestehe darin, da sie eine Lebensdauer von 300 Stunden besitzt. Der

Gluhbirnen des Herstellers A erfullen diese Anforderung zu 90%, die des Herstellers B zu 70% und die des Herstellers C zu 50%.

Wie gro ist die Wahrscheinlichkeit dafur, da eine zufallig ausgewahlte

Gluhbirne, die den Anforderungen nicht entspricht, vom Hersteller A (bzw. B, C)

stammt ?

(21)

P(A)= 0:25; P(B)= 0:25; P(C)= 0:50

L: die Gluhbirne besitzt die erforderliche Lebensdauer P(L

j

A)= 0:9; P(L

j

B)= 0:7; P(L

j

C)= 0:5

Gesucht: P(A

j

L

0

), P(B

j

L

0

), P(C

j

L

0

) Tabelle:

A B C

L 0:225 0:175 0:25 0:65 L

0

0:025 0:075 0:25 0:35 0:25 0:25 0:50 1 P(A

j

L

0

)= 0:0714, P(B

j

L

0

)=0:214, P(C

j

L

0

)=0:714

Statistik1,SS1999 Strasser

Slide82

(9.7) Formel fur die inverseWahrscheinlichkeit:

P(B

j

A)= P(A

j

B)P(B) P(A)

(9.8) Formel fur die totaleWahrscheinlichkeit:

Es sei (B

1

;B

2

;:::;B

m

) eine Zerlegung. Dann gilt:

P(A)= P(A

j

B

1

)P(B

1

)+ P(A

j

B

2

)P(B

2

)+

+ P(A

j

B

m

)P(B

m

)

(9.9) Formel von BAYES:

Es sei (B

1

;B

2

;:::;B

m

) eine Zerlegung.

P(B

ij

A)= P(A

j

B

i

)P(B

i

)

P(A

j

B

1

)P(B

1

)+ P(A

j

B

2

)P(B

2

)+

+ P(A

j

B

m

)P(B

m

) fur i =1;2;:::;m.

Entscheidungsprobleme

(9.10) Anwendung: Labormedizin

Labortest:

E

+

:,,Der Patient leidet an der Krankheit"

E

;

:,,Der Patient leidet nicht an der Krankheit"

P(E

+j

K

+

)=0;95 P(E

;j

K

;

)=0;80

Verlalichkeit des Labortests: Fehlerwahrscheinlichkeiten P(E

;j

K

+

)=1

;

P(E

+j

K

+

)= 0;05 P(E

+j

K

;

)=1

;

P(E

;j

K

;

)=0;2

Statistik1,SS1999 Strasser

Slide84

Aus der Sicht des Patienten: a posteriori Wahrscheinlichkeiten

P(K

+j

E

+

)=? Wieviele der als krank eingestuften Untersuchungspersonen sind tatsachlich krank ?

P(K

;j

E

;

)=? Wieviele der als gesund eingestuften Untersuchungspersonen sind tatsachlich gesund ?

P(K

+j

E

+

)= P(E

+j

K

+

)P(K

+

)

P(E

+j

K

+

)P(K

+

)+ P(E

+j

K

;

)P(K

;

) P(K

;j

E

;

)= P(E

;j

K

;

)P(K

;

)

P(E

;j

K

+

)P(K

+

)+ P(E

;j

K

;

)P(K

;

)

Es mussen die a priori Wahrscheinlichkeiten P(K

+

) und P(K

;

) der mogliche

Zustande des Patienten bekannt sein.

(22)

P(K

+

)=0;7:

P(K

+j

E

+

)= 0;95

0;7

0;95

0;7+ 0;2

0;3 =0;91 P(K

;j

E

;

)= 0;8

0;3

0;05

0;7+ 0;8

0;3 =0;87 P(K

+

)=0;05:

P(K

+j

E

+

)= 0;95

0;05

0;95

0;05 + 0;2

0;95 =0;2 P(K

;j

E

;

)= 0;8

0;95

0;05

0;05 + 0;8

0;95 =0;997

Statistik1,SS1999 Strasser

Slide86

Binare Entscheidungsprobleme:

Z

1

und Z

2

: mogliche Zustande E

1

: Entscheidung zugunsten von Z

1

E

2

: Entscheidung zugunsten von Z

2

E

1

E

2

Z

1

richtig falsch Z

2

falsch richtig

E

1

E

2

Z

1

Z

1\

E

1

Z

1\

E

2

Z

2

Z

2\

E

1

Z

2\

E

2

Z

1\

E

2

heit Fehler 1.Art

Z

2\

E

1

heit Fehler 2.Art

(9.11) Definition

Unter den Fehlerwahrscheinlichkeiten eines binaren Entscheidungsproblems versteht man die bedingten Wahrscheinlichkeiten

Verlalichkeit von Einzelentscheidungen:

Faustregel:

Die Entscheidung E

1

gilt als verlalich, wenn P(E

1j

Z

2

) wesentlich kleiner ist als P(E

1j

Z

1

): Die Entscheidung E

1

wird unter Z

2

wesentlich seltener getroen als unter Z

1

.

Die Entscheidung E

2

gilt als verlalich, wenn P(E

2j

Z

1

) wesentlich kleiner ist als P(E

2j

Z

2

): Die Entscheidung E

2

wird unter Z

1

wesentlich seltener getroen als unter Z

2

.

Statistik1,SS1999 Strasser

Slide88

(9.12) Anwendung: Qualitatskontrolle

Produkt mit den Zustanden Z

1

=,,tauglich" und Z

2

=,,mangelhaft".

P(E

2j

Z

1

): Produzentenrisiko P(E

1j

Z

2

): Konsumentenrisiko

(9.13) Anwendung: Test einer Hypothese

Hypothese: Z

1

=,,richtig" und Z

2

=,,falsch"

Signikanzniveau: 1

;

P(E

2j

Z

1

)

Trennscharfe: 1

;

P(E

1j

Z

2

)

(23)

(9.14) Definition

Die bedingten Wahrscheinlichkeiten P(Z

1j

E

1

) und P(Z

2j

E

2

) heien a posteriori Wahrscheinlichkeiten, weil durch sie die Beurteilung von Einzelentscheidungen im nachhinein (a posteriori) moglich ist.

P(Z

1j

E

1

)= P(E

1j

Z

1

)P(Z

1

)

P(E

1

) P(Z

2j

E

2

)= P(E

2j

Z

2

)P(Z

2

) P(E

2

) Es werden die Groen P(Z

1

) und P(Z

2

) benotigt.

(9.15) Definition

Die Wahrscheinlichkeiten P(Z

1

) und P(Z

2

) der einzelnen Zustande heien a priori Wahrscheinlichkeiten, denn sie geben an, mit welchen Haugkeiten der Zustande Z

1

und Z

2

man von vornherein (a priori) rechnen mu.

Statistik1,SS1999 Strasser

Slide90

10 Gekoppelte Ereignisse

Ereignisse A und B:

,,B begunstigt A", wenn P(A

j

B) >P(A).

,,A begunstigt B", wenn P(B

j

A) >P(B).

Aquivalent mit: P(A

\

B) >P(A)P(B)

(10.1) Definition

Zwei Ereignisse A und B begunstigen einander oder sind positiv gekoppelt, wenn P(A

\

B) >P(A)P(B).

(10.2) Definition

Zwei Ereignisse A und B behindern einander oder sind negativ gekoppelt, wenn P(A

\

B) <P(A)P(B).

Das Gegenteil von Koppelung heit Unabhangigkeit.

(10.3) Definition

Zwei Ereignisse A und B heien gekoppelt oder stochastisch abhangig, wenn P(A

\

B)

6

= P(A)P(B). Sie heien stochastisch unabhangig, wenn P(A

\

B)= P(A)P(B).

(10.4) Aufgabe

In einer technischen Untersuchung werden an PKWs folgende Merkmale erhoben:

R: Der PKW weist Rostschaden auf.

S: Der PKW besitzt eine Hohlraumversiegelung.

P(R)= 0;37; P(S)= 0;71; P(R

\

S)=0;11 P(R

\

S)=0;11 <P(R)P(S)= 0;2626

Statistik1,SS1999 Strasser

Slide92

Koppelung zwischen zwei Ereignissen A und B: Vergleich der Vierfeldertafeln.

B B

0

A P(A

\

B) P(A

\

B

0

) P(A) A

0

P(A

0\

B) P(A

0\

B) P(A

0

)

P(B) P(B

0

)

B B

0

A P(A)P(B) P(A)P(B

0

) P(A) A

0

P(A

0

)P(B) P(A

0

)P(B) P(A

0

)

P(B) P(B

0

)

(24)

Dierenzen der Tabelleneintrage:

Positive Koppelung Negative Koppelung B B

0

A +

;

A

0 ;

+

B B

0

A

;

+

A

0

+

;

Statistik1,SS1999 Strasser

Slide94

(10.6) Aufgabe

Wahrscheinlichkeiten

tatsachlich bei Unabhangigkeit S S

0

R 0;11 0;26 0;37 R

0

0;60 0;03 0;63

0;71 0;29

S S

0

R 0;2627 0;1073 0;37 R

0

0;4473 0;1827 0;63

0;71 0;29 Dierenzen

S S

0

R

;

0;1527 0;1527 0 R 0;1527 0;1527 0

Vierfelderkorrelation:

(A;B)= P(A

\

B)

;

P(A)P(B)

p

P(A)P(A

0

)P(B)P(B

0

) Die Vierfelderkorrelation hat folgende Eigenschaften:

;

1

(A;B)

1.

stochastisch unabhangig: (A;B)= 0

positiv gekoppelt: (A;B) > 0

negativ gekoppelt: (A;B) < 0

(10.8) Aufgabe

(R;S)=

;

0;697

Statistik1,SS1999 Strasser

Slide96

Interpretation von Koppelungen

Zwischen den Ereignissen A und B besteht eine kausale Beziehung: Ursache und Wirkung

(10.9) Beispiel

Ist die negative Koppelung kausal erklarbar ?

Referenzen

ÄHNLICHE DOKUMENTE

‚Prinzips vom zureichenden Grunde’, erstreckt sich auch auf die Handlungen, die man für gleichgültig hält. Der freieste Wille kann sie nicht ohne ein bestimmendes

I diskret, wenn es qualitativ ist oder wenn es quantitativ ist und die Menge der m¨ oglichen Auspr¨ agungen endlich oder abz¨ ahlbar unendlich ist,. I stetig, wenn es quantitativ

Hier soll zum einen überprüft werden, ob Selbstständige auch unter Kontrolle anderer Variablen eine höhere Arbeitszufriedenheit aufweisen, und zum anderen, inwieweit die

I klassenbasierte Strukturmuster verwenden dazu Vererbung in den beiden Auspr¨ agungen Schnittstellenvererbung und Implementierungsvererbung. I objektbasierte Strukturmuster

Das führt dazu, dass nicht immer eindeutig über die Zugehörigkeit eines Elementes zu einer Kategorie entschieden werden kann und dass sich infolgedessen die klassische

Erstellen Sie eine ¨ Ubersicht der von Ihnen gefundenen Policies und der Ihnen w¨unschenswert erscheinenden Auspr¨agungen dieser Policies.

Die Auspr¨ agungen qualitativer Merkmale dr¨ ucken eine Ordnung aus. Sie k¨ onnen daher ausgez¨ ahlt und geordnet werden. Weder Differenzen noch Quotienten von Auspr¨ agungen

 Karten, die niemand haben möchte, werden auf einem separaten Stapel gesammelt.. Legt er/sie als erste/r die Hand auf eine siebte Karte, muss sie/er sich entscheiden, von welcher