• Keine Ergebnisse gefunden

Statistik Statistik

N/A
N/A
Protected

Academic year: 2021

Aktie "Statistik Statistik"

Copied!
31
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Statistik Statistik

Kapitel 4:

Wahrscheinlichkeitsrechnung und Kombinatorik

4.1. Zufallsexperiment und Ereignisse

» Zufallsexperiment: drei Eigenschaften notwendig

» Alle möglichen Ergebnisse des Experiments sind vorab bekannt.

» Das Ergebnis eines einzelnen Experiments kann nicht vorhergesagt werden (Zufälligkeit).

» Das Experiment kann unter identischen Bedingungen beliebig oft wiederholt werden.

» Realisierung eines Zufallsexperiments/Versuchsausgang

» Das Ergebnis der tatsächlichen Durchführung eines Zufallsexperiments.

» Ergebnismenge (Ereignismenge, Ereignisraum, Menge der Grundergebnisse) Ω

» Die Menge aller möglichen (einfachen) Ergebnisse des Zufallsexperiments wird Ergebnismenge (Ereignismenge, Ereignisraum) genannt.

» Sie wird mit bezeichnet.

» Bei jeder Durchführung tritt genau einer der zu gehörenden Ausgänge ein.

(2)

4.1. Zufallsexperiment und Ereignisse

» Ereignis: ein Ereignis A ist eine Teilmenge der Ergebnismenge Ω, also A ⊆ Ω

» Wir sagen:

» Das Ereignis A ist eingetreten, wenn das Ergebnis des Zufallsexperiments ein Element von A ist.

» ω A ⊆ Ω A ist eingetreten

» ω A ⊆ Ω A ist nicht eingetreten

» Sicheres Ereignis: Ω

Statistik, Prof. Dr. Karin Melzer 3

Hochschule Esslingen

» Sicheres Ereignis: Ω

» Die Menge Ω stellt das Ereignis dar, das in jedem Fall eintritt

» Unmögliches Ereignis: ∅

» Tritt nie ein, leere Menge { } bzw. ∅ ⊆ Ω

» Beachten Sie:

» „Versuchsausgang“ bzw. „Ergebnis eines Zufallsexperiments“

ist nicht das Gleiche wie „Ereignis“!

» Mit jedem Versuchsausgang treten gewisse Ereignisse ein und andere nicht.

4.2. Laplace-Experiment

» Ein Laplace-Experiment ist ein Zufallsexperiment mit den folgenden Eigenschaften:

» Das Zufallsexperiment hat nur endlich viele mögliche Ergebnisse

» Jedes dieser Ergebnisse ist gleich wahrscheinlich

» Grundformel für Wahrscheinlichkeiten bei Laplace- Experimenten

» Die Wahrscheinlichkeit P(A) eines beliebigen Ereignisses A ⊆ Ω berechnet sich als

berechnet sich als

» wobei

k = |A|: Anzahl der Elementarereignisse/Elemente in A n = |Ω|: Anzahl der Elementarereignisse/Elemente in Ω

» Es handelt sich nur um verschiedene gebräuchliche Darstellungsformen

= Ω

=

= A

n A k

P AnzahlallermöglichenErgebnisse A in Ergebnisse der

Anzahl )

(

(3)

4.3. Kombinatorik

(„Kunst des Abzählens“)

» Um bei einem Laplace-Experiment die Wahrscheinlichkeit eines

Ereignisses richtig zu berechnen, muss man die Anzahl der möglichen und günstigen Ergebnisse in A abzählen – das ist eine

kombinatorische Fragestellung

Kombinatorik = Lehre des Abzählens.

Definition: Fakultät

Statistik, Prof. Dr. Karin Melzer 5

Hochschule Esslingen

Definition: Fakultät

» n! = 1 · 2 · 3 · … · n (lies: n Fakultät) und

» 0! = 1 (per Definition)

» Berechnung von n! mit TR mindestens bis 69! i. d. R. möglich

» für größere n näherungsweise mit der Formel von Stirling;

lg = Logarithmus zur Basis 10 – TR: log-Taste



 

 + 

e

n n n n lg(2 ) lg

2 ) 1

!

lg( π

4.3. Kombinatorik: Permutationen („Kunst des Abzählens“)

4.3.1 Permutationen

» Permutation

= Anzahl der möglichen Anordnungen oder Vertauschungen

»

Permutationen ohne Wiederholung

» Wie viele Möglichkeiten gibt es, n verschiedene Objekte anzuordnen (o. Wdh. = alle Elemente verschieden)?

Anzahl Möglichkeiten: n! (lies: n Fakultät)

»

Permutationen mit Wiederholung

»

Permutationen mit Wiederholung

» Von Objekt 1 gibt es n1 (gleiche) Exemplare, von Objekt 2 gibt esn2 (gleiche) Exemplare, …, von Objekt k gibt es nk gleiche Exemplare.

» Auf wie viele Arten kann man die n = n1+ … + nk Objekte anordnen?

» Anzahl der möglichen Anordnungen:

» Durch die ni! Möglichkeiten der Anordnung in jeder Klasse muss man dividieren.

» Achtung: nicht alle Objekte verschieden

!

!

!

!

2

1 n nk

n n

K

(4)

4.3. Kombinatorik: Grundprobleme („Kunst des Abzählens“)

4.3.2 Die vier Grundprobleme der Kombinatorik

»

Grundaufgabe: Aus n verschiedenen Objekten werden k ausgewählt. Wie viele Möglichkeiten gibt es?

»

Die Antwort auf diese Frage hängt davon ab,

»

ob die Reihenfolge des Auswählens eine Rolle spielt

(„mit Beachtung der Reihenfolge“, „geordnet“) oder nicht („ohne Beachtung der Reihenfolge“, ungeordnet)

Statistik, Prof. Dr. Karin Melzer 7

Hochschule Esslingen

(„ohne Beachtung der Reihenfolge“, ungeordnet)

»

ob ein Objekt mehrfach ausgewählt werden darf

(„mit Wiederholung“, „Ziehen mit Zurücklegen“) oder nicht („ohne Wiederholung“, Ziehen ohne zurücklegen“).

4.3. Kombinatorik: Grundprobleme („Kunst des Abzählens“)

Anzahl der Möglichkeiten bei den vier Grundaufgaben:

»

Ziehen mit Zurücklegen mit Beachtung der Reihenfolge N = n

k

»

Ziehen ohne Zurücklegen mit Beachtung der Reihenfolge

» Sonderfall für k = n: n! Möglichkeiten (Permutation) )!

( ) ! 1 (

) 1 ( )

( n k

k n n n

n n k

= − +

= K

» Sonderfall für k = n: n! Möglichkeiten (Permutation)

»

Ziehen ohne Zurücklegen ohne Beachtung der Reihenfolge

» Sprechweise: Binomialkoeffizient

n

über

k

»

Ziehen mit Zurücklegen ohne Beachtung der Reihenfolge

)

! ( )!

(

! 2

1

) 1 (

) 1

( k n

k k n

n k

k n n

n k

n

=

+

=





K K

)!

1

1 (n k

k

n = + −

 + −





k n

(5)

4.3. Kombinatorik: Grundprobleme („Kunst des Abzählens“) Übersicht

Stichproben- auswahl

k

aus n

geordnet/mit Beachtung der Reihenfolge

ungeordnet/ohne Beachtung der Reihenfolge

mit

Zurück- legen

mit

Mehrfach- besetzung

n k  n + k k 1 

Statistik, Prof. Dr. Karin Melzer 9

Hochschule Esslingen

ohne

Zurück-

legen

ohne

Mehrfach- besetzungen

mit unterscheid- baren Kugeln

nicht unterscheid-

bare Kugeln

Verteilen von k Kugeln auf n

Zellen

( n n ! k ) ! = ( n )

k



 

k n

4.4. Eigenschaften von Wahrscheinlichkeiten

» Zufällige Ereignisse → keine exakten Voraussagen möglich.

» In der Mathematik: Man möchte zumindest ein Maß für die Sicherheit (oder Unsicherheit) anzugeben, die mit einer Aussage verbunden ist.

Ein solches Maß ist die Wahrscheinlichkeit.

» Die Wahrscheinlichkeitsrechnung ordnet jedem Ereignis eine Wahrscheinlichkeit für sein Eintreten zu.

» Die dem Ereignis A zugeschriebene Wahrscheinlichkeit wird mit P(A) bezeichnet (P von engl. probability).

» Die Wahrscheinlichkeit für das Eintreten eines Ereignisses A ist immer eine reelle Zahl, für die gilt

eine reelle Zahl, für die gilt

0 ≤ P(A) ≤ 1

» Zwei Extremfälle kennzeichnen Sicherheit:

» Ist P(A) = 1, so tritt A mit Sicherheit ein.

» Ist P(A) = 0, so tritt A mit Sicherheit nicht ein.

» Werte dazwischen drücken Grade an Sicherheit aus.

» Je größer die Wahrscheinlichkeit P(A), umso „eher“ ist anzunehmen, dass das Ereignis A eintritt.

» Was aber bedeutet das genau? Wie sind die Grade an Sicherheit, die durch Wahrscheinlichkeiten ausgedrückt werden, definiert?

(6)

4.4. Eigenschaften von Wahrscheinlichkeiten

4.4.1. Wahrscheinlichkeit und relative Häufigkeit

» Wahrscheinlichkeit ist eine Konstante

» relative Häufigkeit hängt vom Zufall (konkreter Ausgang der Experimente) ab

» Im Allgemeinen ist daher P(A) hn(A)

» Beispiel: Werfen eines gezinkten Würfels

n Versuchsreihe 1 Versuchsreihe 2

Anzahl der

Absolute Häufigkeit von

Relative Häufigkeit von

Absolute Häufigkeit von

Relative Häufigkeit von

Statistik, Prof. Dr. Karin Melzer 11

Hochschule Esslingen

» Auf lange Sicht scheint 6 mit einer relativen Häufigkeit von 0,25 aufzutreten.

» In der Praxis: Wahrscheinlichkeit eines Ereignisses relative Häufigkeit dieses Ereignisses in einer großen Anzahl von Versuchen (Näherungswert)

Anzahl der Würfe

Häufigkeit von

„6“

Häufigkeit von

„6“

Häufigkeit von

„6“

Häufigkeit von

„6“

10 2 0,2 4 0,4

50 15 0,3 19 0,38

100 26 0,26 31 0,31

1000 248 0,248 252 0,252

4.4. Eigenschaften von Wahrscheinlichkeiten

4.4.1 Wahrscheinlichkeit und relative Häufigkeit

» Wenn man P(A) nicht ausrechnen kann, aber ein Zufallsexperiment n mal durchführt, kann man P(A) durch die relative Häufigkeit schätzen.

» Nach dem Gesetz der großen Zahlen wird diese Schätzung um so besser sein, je größer n ist.

» Definition der Wahrscheinlichkeit:

» Die Wahrscheinlichkeit eines Ereignisses ist die für eine gegen unendlich strebende Anzahl n von Durchführungen des betreffenden Zufallsexperiments vorausgesagte relative Häufigkeit seines

Zufallsexperiments vorausgesagte relative Häufigkeit seines Eintretens.

» Das Maß für die Sicherheit, mit dem gezinkten Würfel eine 6 zu würfeln, könnte man so formulieren (die Wkt., eine 6 zu würfeln, beträgt bei dem gezinkten Würfel ¼):

» "Unter einer sehr großen Zahl n von Würfel-Versuchen wird ungefähr n/4 mal die Augenzahl 6 auftreten".

= P A n

n

f

n

h

n

( ) für

(7)

4.4.2 Schranken für Wahrscheinlichkeiten

»

Die Wahrscheinlichkeit eines Ereignisses A

⊆ Ω

liegt immer zwischen 0 und 1:

0 ≤ P(A) ≤ 1

»

P(A) = 0 gilt für ein unmögliches Ereignis

»

P(A) = 1 gilt nur für ein mit Sicherheit eintretendes Ereignis.

»

Beispiel „Würfeln“

Statistik, Prof. Dr. Karin Melzer 13

Hochschule Esslingen

»

Beispiel „Würfeln“

» A = Augenzahl größer als 7; dann ist P(A) = 0

» B = Augenzahl kleiner als 7; dann ist P(B) = 1

4.4.3 Wahrscheinlichkeiten für zusammengesetzte Ereignisse

Gegenereignis und zusammengesetzte Ereignisse

»

Man kann Ereignisse miteinander verknüpfen, um andere/komplexere Ereignisse zu erhalten.

»

Seien A und B Ereignisse mit A, B

⊆ Ω

.

a) „nicht A“ = Ā = Ω\A

d.h. A tritt nicht ein, Gegenereignis von A b) „A und B“ = A ⋂ B (Durchschnitt)

d.h. A und B treten beide ein; sowohl A als auch B tritt ein

d.h. A und B treten beide ein; sowohl A als auch B tritt ein c) „A oder B“ = A ⋃ B (Vereinigung)

d.h. A tritt ein oder B tritt ein oder beide treten ein

Tipp: Benutzen Sie a) – c), um Text in Formeln umzuwandeln.

»

Die Ereignisse A und B heißen unvereinbar, wenn A

B = { } d.h. A und B haben keine gemeinsamen Elemente.

»

Die Ereignisse A und B heißen vereinbar, wenn A

B ≠ { }.

(8)

4.4.3 Wahrscheinlichkeiten für zusammengesetzte Ereignisse

Wahrscheinlichkeiten zusammengesetzter Ereignisse

»

Wkt. des Gegenereignisses Ā von A:

P(Ā) = 1 – P(A)

» P(A ⋂ B)

Multiplikationssatz:

»Multiplikationssatz allgemein: P(A ⋂B) = P(A) · P(B|A) = P(B) · P(A|B)

»Multiplikationssatz für unabhängige Ereignisse: P(A ⋂B) = P(A) · P(B) Dabei ist P(B|A) (lies: „Wahrscheinlichkeit von B unter der Bedingung A“) die Wahrscheinlichkeit, dass B eintritt, wenn sicher ist, dass A eintritt bzw.

Statistik, Prof. Dr. Karin Melzer 15

Hochschule Esslingen

die Wahrscheinlichkeit, dass B eintritt, wenn sicher ist, dass A eintritt bzw.

eingetreten ist.

Wenn sich zwei Ereignisse (definitiv) nicht beeinflussen, spricht man von unabhängigen Ereignissen, dann gilt P(B|A) = P(B).

» P(A ⋃B)

Additionssatz:

»Additionssatz allgemein: P(A ⋃B) = P(A) + P(B) – P(A ⋂B )

»Additionssatz für unvereinbare Ereignisse: P(A ⋃B) = P(A) + P(B)

4.4.3 Wahrscheinlichkeiten für zusammengesetzte Ereignisse

Bemerkung/Beispiel:

(un)abhängige Ereignisse

»

In einer Urne befinden sich zwei weiße und drei schwarze Kugeln. Zwei Kugeln werden nacheinander gezogen

a) mit Zurücklegen b) ohne Zurücklegen

»

Wie groß ist die Wahrscheinlichkeit, dass beide weiß sind?

»

Ereignisse W1 = „erste Kugel weiß“ , W2= „zweite Kugel weiß“

a) W1 und W2 sind unabhängig, wenn mit Zurücklegen gezogen a) W1 und W2 sind unabhängig, wenn mit Zurücklegen gezogen

wird.

P(W1) = P(W2) =

P(W1 ∩ W2) =

b) Die Wahrscheinlichkeit für W2 hängt davon ab, ob im ersten Zug eine weiße Kugel gezogen wurde, oder nicht. W1 und W2 sind abhängig, wenn ohne Zurücklegen gezogen wird.

P(W1) = P(W2|W1) =

P(W1 ∩ W2) =

(9)

4.4.3 Wahrscheinlichkeiten für zusammengesetzte Ereignisse

»

Wann dürfen Sie die Wahrscheinlichkeiten von zwei Ereignissen einfach

» addieren?

» multiplizieren?

»

Beispiel:

» Ein zufällig gewählter PC besitze

Statistik, Prof. Dr. Karin Melzer 17

Hochschule Esslingen

» Ein zufällig gewählter PC besitze

» mit Ws-keit 0,5 eine Festplatte mit mind. 80GB,

» mit Ws-keit 0,4 einen Flachbildschirm und

» mit Ws-keit 0,2 beide Eigenschaften.

» P(PC hat mindestens eine der Eigenschaften) = ?

» P(PC hat Festplatte mit mind. 80GB aber keinen Flachbildschirm)

= ?

4.4.4 Wahrscheinlichkeiten bei mehrstufigen Zufallsexperimenten

» Zufallsexperimente, die aus Einzelversuchen aufgebaut sind, die nacheinander oder gleichzeitig durchgeführt werden, kann man als Baumdiagramm darstellen.

» Knoten: Ereignisse

» Entlang der Pfade werden die Wahrscheinlichkeiten aufgetragen (Wahrscheinlichkeitsbaum)

(B A) B

P |

Berechnung von Wahrscheinlich- keiten im Baumdiagramm:

»Wahrscheinlichkeit eines Pfades

= Produkt der

B

Ā A

B

1. Stufe 2. Stufe

( )A

B

P

( )

A

P

( )

B A

P |

( )

B A

P |

( )

B A

P |

= Produkt der

Wahrscheinlichkeiten längs des Pfades (Produktregel).

„Entlang der Pfade wird multipliziert“

»Wahrscheinlichkeit für ein Ereignis = Summe der

Wahrscheinlichkeiten aller zu diesem Ereignis führenden Pfade (Summenregel)

„Entlang der Äste wird addiert“

(10)

4.5 Zufallsvariablen

»

real (Daten) abstrakt (Modell)

» Merkmal Zufallsvariable

» Merkmalsausprägung Realisierung der Zufallsvariablen

» relative Häufigkeit Wahrscheinlichkeit

Definition:

»

Eine Zufallsvariable (ZV)

X

beschreibt, welche Ausprägungen eines quantitativen Merkmals in einem Zufallsexperiment mit

Statistik, Prof. Dr. Karin Melzer 19

Hochschule Esslingen

eines quantitativen Merkmals in einem Zufallsexperiment mit welchen Wahrscheinlichkeiten auftreten.

» Man spricht von einer diskreten Zufallsvariablen, falls es sich um ein quantitativ-diskretes Merkmal handelt,

» und von einer stetigen Zufallsvariablen, falls es sich um ein quantitativ-stetiges Merkmal handelt.

4.6 Diskrete Zufallsvariablen

» Wahrscheinlichkeitsverteilung oder Dichtefunktion

» Diskrete ZV kann nur einzelne Punkte auf dem Zahlenstrahl als Ausprägungen annehmen

» Die Menge aller Ausprägungen einer Zufallsvariable mit den zugehörigen Wktn. heißt Wahrscheinlichkeitsverteilung oder (diskrete) Dichtefunktion/Dichte

» (diskrete) Dichte = Liste aller Wahrscheinlichkeiten P(X = xi)

» Darstellung der Wkts.verteilung: Tabelle, Formel oder Stab- oder Säulendiagramm

Säulendiagramm

» Verteilungsfunktion

» Die Funktion

heißt Verteilungsfunktion von X.

» Die Funktion F(t) beschreibt die Wahrscheinlichkeit, dass die Zufallsvariable X kleiner als der fixe Wert t ist.

» Darstellung der Verteilungsfunktion: Funktionsterm oder (Funktions-)Graph

= P X x x x

F ( ) ( ),

(11)

4.6 Diskrete Zufallsvariablen

» Zusammenhang Wahrscheinlichkeitsverteilung/Dichte – Verteilungsfunktion

» Die (kumulative) Verteilungsfunktion F(x) = P(Xx)

wird durch die Wahrscheinlichkeiten P(X = xi) eindeutig bestimmt:

» Dichte und Verteilungsfunktion lassen sich ineinander überführen.

Gewichte = Höhe der Sprünge der diskreten Verteilungsfunktion

» Es gilt:

( )

=

=

=

x x

k

k

x X P x

X P x

F( ) ( )

Statistik, Prof. Dr. Karin Melzer 21

Hochschule Esslingen

» Es gilt:

» 0 ≤F(x) ≤1 für, F(x) ist monoton wachsend.

» Die Wahrscheinlichkeitsverteilung ist sozusagen die theoretische Verteilung eines Ereignisses. Wenn man etwa das Zufallsexperiment Würfelwurf betrachtet, so bestimmt die Wahrscheinlichkeitsverteilung, mit welchen Wahrscheinlichkeiten die einzelnen Ausprägungen

auftreten.

( )

1

0 1 )

( = = ≤ = ≤

k

k

k P X x

x X

P ,

Berechnung von Wahrscheinlichkeiten für diskrete ZVen:

» Zusammenhang zw. VF und Wahrscheinlichkeiten:

4.6 Diskrete Zufallsvariable

( )

) (

) (

) ( ) (

) (

x X P a

X P

a F x X P a

X P

a X P

a x

i a

x

i

i

=

=

<

=

=

=

=

<

sfunktion) Verteilung

n (Definitio

Verteilung jeweiligen

der nd entspreche Berechnung

» Achtung: Unterscheidung zwischen < und ≤ (darf nicht verwechselt werden).

( )

( )

1 (( )) 1 ( ( ) ) ( ) ( )

) (

) (

a F a

X P a

X P

a F b F a X P b X P b X a P

x X P b

X a P

b

a x

i a

x

i i

=

=

>

=

=

<

=

=

=

<

(12)

4.6 Diskrete Zufallsvariablen

Kennzahlen diskreter Zufallsvariablen

» Erwartungswert

» Varianz

( )

=

(

=

)

=

i

i

i P X x

x X

µ E

( ) = ∑ ( ) ( = )

= Var X x

i 2

P X x

i

2

µ

σ

Statistik, Prof. Dr. Karin Melzer 23

Hochschule Esslingen

» „Taschenrechnerformel“ (besser zu berechnen):

» Standardabweichung

( ) = ∑ ( ) ( = )

=

i

i

i

P X x

x X

Var µ

σ

( )

2

2

2

µ

σ

−

 

 ⋅ =

=

i

i

i P X x

x

( ) X

= Var

= σ

2

σ

4.6 Diskrete Zufallsvariablen

Bemerkungen zu Erwartungswert µ und arithmetisches Mittel :

» Pro Zufallsexperiment ist µ eine Konstante, während vom Zufall abhängt, nämlich von der jeweiligen Messreihe x1, x2, x3, … xn, den Realisierungen der Zufallsvariablen X.

» Im Allgemeinen gilt daher:

» Falls n groß ist, gilt das „Gesetz der großen Zahlen“, das besagt, dass .

» Der Wert wird später (siehe Kapitel 5) zur Schätzung von µbenutzt.

Die Schätzung ist umso besser, je größer n ist.

x

µ

x x

x

µ x

Bemerkungen zu Varianz σ2und empirische Varianz s2:

» Pro Zufallsexperiment ist σ2 eine Konstante, während s2 vom Zufall abhängt, nämlich von der jeweiligen Messreihe x1, x2, x3, … xn, den Realisierungen der Zufallsvariablen X.

» Im Allgemeinen gilt daher: σ2≠ s2.

» Falls n groß ist, gilt das „Gesetz der großen Zahlen“, das besagt, dass σ2≈ s2.

» Der Wert s2wird später (siehe Kapitel 5) zur Schätzung von σ2 benutzt.

Die Schätzung ist umso besser, je größer n ist.

(13)

4.7 Spezielle diskrete Zufallsvariablen

» Wir betrachten hier folgende diskrete Verteilungen

» Hypergeometrische Verteilung

» Binomialverteilung

» Poisson-Verteilung

» Zufallsvariablen (ZV) werden durch ihre Verteilung vollständig charakterisiert.

» Bei diskreten ZV entspricht die Verteilung der Angabe der Wahrscheinlichkeiten für die Elementarereignisse (Dichte).

Statistik, Prof. Dr. Karin Melzer 25

Hochschule Esslingen

Wahrscheinlichkeiten für die Elementarereignisse (Dichte).

» Statt der Dichte kann man auch die Verteilungsfunktion angeben.

Dichte und Verteilungsfunktion lassen sich ineinander überführen.

» Aus der Verteilung lassen sich die Wahrscheinlichkeiten für alle Ereignisse berechnen.

» Außerdem lassen sich alle anderen Kennzahlen ableiten:

» Erwartungswert

» Varianz

» Standardabweichung

4.7 Spezielle diskrete Zufallsvariablen 4.7.1 Hypergeometrische Verteilung

» Ausgangslage

» Grundgesamtheit (GG) aus NElementen,

» MElemente der GG haben eine spezifische Eigenschaft A,

» entnommen wird eine Stichprobe (ohne Zurücklegen) vom Umfang n

» Die ZV X gebe an, wie viele der gezogenen Objekte die Eigenschaft A haben.

X = Anzahl der Elemente mit Eigenschaft A in der Stichprobe

» Dann ist X hypergeometrisch verteilt mit Parametern n, N, M. Man schreibt X ~ H(n;N;M)

» Achtung: in machen Büchern ist die Reihenfolge der Parameter anders.

» Achtung: in machen Büchern ist die Reihenfolge der Parameter anders.

» Die Wahrscheinlichkeit, genau k Elemente mit der spezifischen Eigenschaft in der Stichprobe vorzufinden, beträgt dann: (diskrete Dichte)

( )







 

⋅ −



 

=

=

n N

k n

M N k M k

X P

(14)

4.7 Spezielle diskrete Zufallsvariablen 4.7.1 Hypergeometrische Verteilung

» Erwartungswert für X ~ H(n;N;M):

wobei Anteil der Objekte mit Eigenschaft A in der Grundgesamtheit

» Varianz:

Typische Anwendungssituation für hypergeometrische Verteilung:

( )

n p ,

N n M X

E = ⋅ = ⋅ µ=

=

= N p M

( )

q p

N n q N p n X

Var = −

⋅ −

=

= 1

1

2 , mit

σ

Statistik, Prof. Dr. Karin Melzer 27

Hochschule Esslingen

Typische Anwendungssituation für hypergeometrische Verteilung:

» Ziehen ohne Zurücklegen:

» Gegeben sind N Objekte (z. B. eine Lieferung von Bauteilen oder Kugeln in einer Urne). Mgebe die Anzahl der Objekte mit einer bestimmten

Eigenschaft A an (z. B. defektes Bauteil bzw. rote Kugel). Unter den Objekten wird n-mal eines zufällig ausgewählt; das gezogene Objekt wird nicht zurückgelegt. Das Ergebnis der folgenden Ziehung ist also von den vorherigen Ziehungen abhängig. X gibt dann an, wie viele der gezogenen Objekte die Eigenschaft A haben (z. B. Anzahl der Defektstücke bzw.

Anzahl der roten Kugeln).

4.7 Spezielle diskrete Zufallsvariablen 4.7.2 Binomialverteilung

» Ausgangslage

» Ein Zufallsexperiment wird n-mal durchgeführt (unabhängig voneinander).

» Bei jeder der Durchführungen kann ein Ereignis A („Erfolg“) mit der

Wahrscheinlichkeit P(A) = p auftreten. Das Gegenereignis Ā („Misserfolg“) tritt mit einer Wahrscheinlichkeit von P(Ā) = 1 – pauf.

» Die Zufallsvariable X gibt an, wie oft bei den n Durchführungen das Ereignis A eintritt.

» X = Anzahl „Erfolge“ bei n-maliger Durchführung des Experiments

» Dann ist X binomialverteilt mit den Parametern n, p und man schreibt X~ B(n; p)

X~ B(n; p)

» Die Wahrscheinlichkeit, dass das Ereignis A genau k-mal bei den n Versuchen eintritt, beträgt (Dichte):

» Erwartungswert und Varianz für X~ B(n; p):

» µ= E(X) = n · p ,

» σ2= Var(X) = n · p · q mit q = 1 – p

( ) p ( p) k n

k k n X

P  k 1 n k =0,1,...,



=

=

(15)

4.7 Spezielle diskrete Zufallsvariablen 4.7.2 Binomialverteilung

Typische Anwendungssituationen für die Binomialverteilung:

» n unabhängige Wiederholungen eines Zufallsexperimentes (z.B. Aufg. 75: Werfen eines Würfels mit X = # Einsen)

» n-maliges Ziehen mit Zurücklegen aus einer endlichen

Grundgesamtheit (z.B. Aufg. 70: Ziehen von schwarzen Kugeln mit X = # der gezogenen schwarzen Kugeln)

» n-maliges Ziehen ohne Zurücklegen aus einer unendlichen Grundgesamtheit (z.B. Aufg. 72: laufende Produktion oder Massenproduktion mit p= Ausschussanteil, X = # der defekten

Statistik, Prof. Dr. Karin Melzer 29

Hochschule Esslingen

Grundgesamtheit (z.B. Aufg. 72: laufende Produktion oder Massenproduktion mit p= Ausschussanteil, X = # der defekten Teile in der Stichprobe)

» Binomialverteilung B(n,p) als Näherung der hypergeometrischen Verteilung H(n;N;M).

» Falls N groß ist und n nicht zu groß ist (Faustregel: ) darf die hypergeom. Verteilung H(n;N;M) durch die

BinomialverteilungB(n,p) angenähert werden.

» Dabei ist p = M/N zu setzen.

1 ,

0 N n

4.7 Spezielle diskrete Zufallsvariablen 4.7.3 Poisson-Verteilung

» Gegeben

» Betrachtungseinheit wie z.B. Länge, Zeit oder Fläche

» die mittlere Anzahl λ (lambda) von Vorkommnissen pro Betrachtungseinheit

» X = Anzahl der Vorkommnisse pro Betrachtungseinheit

» Dann sagt man, X ist Poissonverteilt mit

» Dann sagt man, X ist Poissonverteilt mit dem Parameter λ

» und schreibt X ~ Po(λ)

» Die Wahrscheinlichkeit, dass genau k Vorkommnisse pro Betrachtungseinheit auftreten, beträgt (diskrete Dichte):

( = ) = λ e

λ

k k X P

k

!

Siméon Denis Poisson 1781-1840

(16)

4.7 Spezielle diskrete Zufallsvariablen 4.7.3 Poisson-Verteilung

» Erwartungswert und Varianz für X ~ Po(λ):

µ= E(X) = λ σ2= Var(X) = λ

Typische Anwendungssituationen für Poissonverteilung:

»

In Fällen, bei denen als Parameter nur eine „mittlere Anzahl“

bekannt ist, eignet sich die Poissonverteilung.

» Beispiel: In einer Telefonzentrale gehen im Mittel 3 Gespräche innerhalb von 5 Minuten ein. Dann ist zur Beschreibung der

Statistik, Prof. Dr. Karin Melzer 31

Hochschule Esslingen

innerhalb von 5 Minuten ein. Dann ist zur Beschreibung der zufälligen Anzahl der in 5 Minuten eingehenden Gespräche eine Poissonverteilung mit λ = 3 anwendbar.

» Poissonverteilung als Näherung der Binomialverteilung,wenn n groß und p klein ist

» Faustregel: Näherung erlaubt für n 30 und p 0,1 (verschieden Faustregeln in der Literatur!)

» Dann Po(λ)als Näherung für die Binomialverteilung B(n;p), wobei λ = npgesetzt wird (z.B. Aufgabe 81)

4.7 Spezielle diskrete Zufallsvariable:

Näherungen (Zusammenfassung)

X ~ H(n;N;M)

» Voraussetzung: N groß und n nicht zu groß (N/n ≤ 0,1)

» Dann kann man die Wahrscheinlichkeiten

näherungsweise mit der Binomialverteilung berechnen, wobei n beibehalten wird und p = M/N ist.

rteilung Binomialve

Vert

Hypergeom.  

nklein,

 

Ngroß

  →

X ~ B(n,p)

» Voraussetzung: p ≤ 0,1 (klein) und n ≥ 30 (groß)

» Dann kann man die Wahrscheinlichkeiten

näherungsweise durch die Poissonverteilung mit λ = n p berechnen

rteilung Binomialve

Vert

Hypergeom.       →

teilung Poissonver

rteilung

Binomialve  

pklein,

 

ngroß

 →

(17)

4.8 Stetige Zufallsvariablen

» Das Konzept der diskreten Zufallsgrößen

P( X = xi) = pi> 0 , Σpi = 1 (Gewichte) passt in vielen Situationen nicht:

» Zeit bis zum Eintreten eines Ereignisses (Ausfall eines Geräts, Antwort eines Servers)

» Messungen auf kontinuierlicher Skala (Größe, Gewicht, Widerstand, Spannung,…)

» Beispiel:

P(Körpertemperatur übermorgen um 7:00 Uhr ist 36,457812 °C) = ?

Statistik, Prof. Dr. Karin Melzer 33

Hochschule Esslingen

P(Körpertemperatur übermorgen um 7:00 Uhr ist 36,457812 °C) = ?

» Es gibt keine Gewichte!

» Modellvorstellungen mit Wahrscheinlichkeiten oder gar

kombinatorischen Berechnungen von Laplace-Wktn. sind hier nicht möglich!

» Neue Vorstellung: Die Gewichte werden „verschmiert“, aus den {pi } entsteht eine positive Funktion f , die Wahrscheinlichkeits-Dichte.

4.8 Stetige Zufallsvariable

»

Die Wahrscheinlichkeits- Dichte kann man sich vorstellen als idealisiertes Histogramm, in dem

relative Häufigkeiten

(Prozentwerte) dargestellt werden

sehr viele Beobachtungen

sehr viele Beobachtungen

viele Klassen

»

Vorstellung: verbinde die Mitten der Säulen.

»

Daten werden jetzt durch

eine Kurve repräsentiert

(18)

4.8 Stetige Zufallsvariablen

Definition:

» Eine Zufallsvariable X ist eine stetige Zufallsvariable, wenn sie jeden beliebigen Wert in einem Intervall annehmen kann,

» das ist genau dann der Fall, wenn eine Dichtefunktion f ≥ 0 existiert, mit

x

Statistik, Prof. Dr. Karin Melzer 35

Hochschule Esslingen

» f(x) heißt Dichtefunktion von X

» Die Verteilungsfunktion F(x) = P(X ≤ x) ist dann eine stetige Funktion.

=

= P X x x f u du x

F( ) ( ) ( )

4.8 Stetige Zufallsvariablen

Folgerungen:

» Fläche unter der Dichte = 1:

» F(x) = P(X x) entspricht dem Flächeninhalt unter dem Graphen von f im Intervall von –∞ bis x bzw. „Fläche unter der Dichte links von x“:

» Berechnung von Wahrscheinlichkeiten als Fläche unter der Dichte:

1 )

( =

du u f

=

= P X x x f u du x

F( ) ( ) ( )

b

» P(X=x) = 0 für alle x ∊ ℝ

» P(X x) = P(X < x) und P(X≥ x) = P(X > x)

jedes „≤“ darf für stetige ZV durch „<“ ersetzt werden.

» Zusammenhang Dichte – Verteilungsfunktion: F´(x) = f(x) )

( 1 ) ( ),

( ) (

) ( ) ( )

( ) (

a F X

a F b

F b X P

a F b F dx x f b X a P

b

a

=

=

=

=

(19)

4.8 Stetige Zufallsvariablen

»

Berechnung von Kennzahlen und Wahrscheinlichkeiten einer diskreten und stetigen Zufallsvariable X im Vergleich:

Ausdruck Symbol X diskret X stetig

Wert der

Verteilungsfunktion an der Stelle x

) ( )

(x P X x

FX =

=

x k

k X

P( )

x f( )u du

Wahrscheinlichkeit dafür, dass die

Zufallsvariable X P(a X b)

b P(X = k)

b f( )u du

Statistik, Prof. Dr. Karin Melzer 37

Hochschule Esslingen

Zufallsvariable X einen Wert zw. a und b annimmt

(a X b)

P

( )

=

=

a k

k X

P f( )u du

a

Erwartungswert µ = E( )X

=

i

i

iP X x

x ( )

u f( )u du

Varianz σ2 =Var(X)

( )

2 2

2

) (

) (

µ µ

=

=

=

i

i i

i

i i

x X P x

x X P

x ( ) ( )

( ) 2

2 2

µ µ

=

du u f u

du u f u

4.9 Spezielle stetige Zufallsvariablen

» Wir betrachten folgende Beispiele für stetige ZV

» Gleichverteilung

» Exponentialverteilung

» Normalverteilung/Standardnormalverteilung

4.9.1 Gleichverteilung

» Eine Zufallsvariable mit der Dichtefunktion

1

heißt gleichverteilt auf dem Intervall [a,b].

» Schreibweise: X ~ U(a,b)

» Erwartungswert und Varianz sind in diesem Fall gegeben durch ( ) 

=

sonst für , 0 1 ,

b x a a

x b f

( )

12 2

2

2 b a

b

a+ = −

= σ

µ und

(20)

4.9 Spezielle stetige Zufallsvariablen 4.9.2 Exponentialverteilung

» Eine Zufallsvariable mit der Dichtefunktion

oder mit der Verteilungsfunktion

( )

=  >

sonst für ,

0

0

, x

x e f

λx

λ

( )    − >

=

sonst für ,

0

0 ,

1 e x

x F

λx

Statistik, Prof. Dr. Karin Melzer 39

Hochschule Esslingen

heißt exponentialverteilt mit Parameter λ.

» Schreibweise: X ~ Exp(λ)

» Für Erwartungswert und Varianz gilt:

 

sonst ,

0

2

2 1

1

σ λ µ = λ und =

4.9 Spezielle stetige Zufallsvariablen 4.9.3 Normalverteilung

Unter allen stetigen Dichtekurven herausragend: die Normalverteilung.

» Wichtig(st)e stetige Verteilung

» Beschreibt viele Größen, die in der Realität vorkommen.

» Abweichungen von (Mess-)Werten vieler ingenieurswissenschaftlicher Vorgänge vom Mittelwert lassen sich durch die Normalverteilung entweder exakt oder wenigstens in sehr guter Näherung beschreiben

» Vor allem bei Prozessen, bei denen mehrere Faktoren unabhängig voneinander in verschiedene

voneinander in verschiedene Richtungen wirken, kann man von einer Normalverteilung ausgehen.

» Beispiele:

» Zufällige Messfehler

» zufällige Abweichungen vom Sollmaß bei der Fertigung von Werkstücken

(21)

4.9 Spezielle stetige Zufallsvariablen 4.9.3 Normalverteilung

Eigenschaften der Normalverteilung:

» Symmetrisch

» Es gibt viele verschiedene Kurven, manche schmal und hoch, manche breit und flach

» Das Zentrum kann an einer beliebigen Stelle sein. Manche sind bei 0 zentriert, manche bei 5, etc.

» Jede Normalverteilung wird eindeutig durch zwei Parameter

41

eindeutig durch zwei Parameter identifiziert: Erwartungswert und Standardabweichung.

» Kennt man µ und σ, kann man die Normalverteilung zeichnen.

» Erwartungswert: Mitte der Kurve

» Standardabweichung: definiert, wie breit die Verteilung ist

Statistik, Prof. Dr. Karin Melzer Hochschule Esslingen

4.9 Spezielle stetige Zufallsvariablen 4.9.3 Normalverteilung

»

Ist eine Zufallsvariable X

normalverteilt, so schreibt man X ~ N(

µ

,σ2)

»

Dabei ist µ der Erwartungswert und σ

2

die Varianz

»

Erwartungswert µ und Varianz σ

2

müssen entweder bekannt sein, oder es muss eine Stichprobe vorliegen, so dass man die Werte aus den Daten über das arithmetische Mittel bzw. die empirische Varianz schätzen kann.

»

Die zugehörige Wahrscheinlichkeitsverteilung heißt

»

Die zugehörige Wahrscheinlichkeitsverteilung heißt

Normalverteilung

oder Gauß-Verteilung.

» Dichte:

(Gauß´sche Glockenkurve)

» Erwartungswert: E(X) =

µ (bestimmt Lage der Dichte)

» Varianz: Var(X) =

σ

2

(bestimmt Form der Glocke)

( )

(2 2)2

2

1 σµ

σ π

=

x

e x

f

(22)

4.9 Spezielle stetige Zufallsvariablen 4.9.3 Normalverteilung

» Die Gauß´sche Glockenkurve besitzt die folgenden Eigenschaften:

» sie ist symmetrisch zu x0=µ,

» die einzige Maximumsstelle existiert bei x0=µ,

» sie besitzt zwei Wendepunkte an den Stellen x1=µ + σ und x2=µ σ,

» Flächeninhalt unter der Gauß´schen Glockenkurve ist gleich 1 (wie jede Dichte, d.h. in dem Fall eine schmale Glockenkurve ist hoch, eine breite Glockekurve ist niedrig).

» Die Verteilungsfunktion

Statistik, Prof. Dr. Karin Melzer 43

Hochschule Esslingen

» Die Verteilungsfunktion

kann nur numerisch berechnet werden (und damit auch die Wktn.)

» In der Praxis

» Verwendung von Tabellen für die Standardnormalverteilung N(0,1).

» Excel: =NORMVERT(x; µ; σ; „kumuliert“);

» Kumuliert WAHR = P(X x) = VF (zur Berechnung von Wktn.);

» Kumuliert FALSCH = f(x)(Funktions-)Wert der Dichtefunktion ( )

dt e

x X P x F

x t

X

=

= 2

2

2 1

2 ) 1

( )

( σ

µ

π σ

Berechnung von Wahrscheinlichkeiten für normalverteilte ZVen:

» Es gibt unendlich viele Normalverteilungen (für jede Kombination von µ und σ)

» Zwischen allen Kurven gibt es aber eine Beziehung, alle können in die sog. Standardnormalverteilung transformiert werden.

» Z ist normalverteilt mit EW 0 und Varianz 1: Z ~ N(0,1)

4.9 Spezielle stetige Zufallsvariablen 4.9.3 Normalverteilung

( )

0,1

X ~ N

Z σ

µ

= −

» Für die Standardnormalverteilung liegt die Verteilungsfunktion (Fläche

„links von“ a) als Tabelle vor: Φ(z) = P(Z≤z)

» Damit kann man die Wahrscheinlichkeiten für beliebige X~N(µ,σ2) berechnen:

» Kurz:

( )

 

 −

Φ

=

≤ σ

µ x x

X P

( ) ( )

Φ

=

=

=

= σ

µ σ

µ σ

µ σ

µ x x

Z x P

P X x X P x FX

(23)

Berechnung von Wahrscheinlichkeiten für normalverteilte ZVen:

» Wahrscheinlichkeiten für X~N(µ,σ2):

(Berechnung als Fläche unter der Dichte)

4.9 Spezielle stetige Zufallsvariablen 4.9.3 Normalverteilung

( )

( )

( )

a

b b F b X P

a a b

F b F b X a P

X

X X

 −



 

 − Φ

=

=



 

 − Φ



 

 − Φ

=

=

) (

) ( ) (

µ σ

µ

σ µ σ

µ

Statistik, Prof. Dr. Karin Melzer 45

Hochschule Esslingen

» P(X = x) = 0 für alle x ∊ ℝ

» P(X x) = P(X < x) und P(X ≥ x) = P(X > x)

d.h. jedes „≤“ darf für stetige ZV durch „<“ ersetzt werden und umgekehrt.

( )

( )

z z

( )

z

a a F a

X

P X

Φ

=

− Φ

Φ



 

 − Φ

=

=

≥ 1 ) (

1 ) ( 1

lung rmalvertei Standardno

der sfunktion Verteilung

: mit

σµ

4.9 Spezielle stetige Zufallsvariablen 4.9.3 Normalverteilung

Verteilungsfunktion Φ(z) der Standard- Normalverteilung N(0; 1)

z 0 1 2 3 4 5 6 7 8 9

0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359

0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753

0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141

0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517

0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879

0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224

0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549

0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852

0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133

0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389

1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621

1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830

1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015

1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177

1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177

1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319

1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441

1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545

1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633

1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706

1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767

2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817

2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857

2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890

2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916

2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936

2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952

2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964

2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974

2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981

2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986

3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990

Ablesebeispiel: Φ(0,92)=0,8212 Werte für negatives z mit der Formel Φ(z)=1Φ(z), z. B.

0606 , 0 9394 , 0 1 ) 55 , 1

( = =

Φ

Referenzen

ÄHNLICHE DOKUMENTE

(b) Aus einer Urne mit sechs gelben und einer roten Kugel werden drei Kugeln nach einander gezogen:.. mit zur¨

Was kann man über zwei sich berührende Kugeln

Die Koordinatengleichung einer

Die Koordinatengleichung einer

Aus einer Urne mit n Kugeln werden mit Zur¨ucklegen Kugeln gezogen, und zwar so lange, bis jede Kugel einmal gegriffen wurde. Sei T die Anzahl der

1) Aus einer Urne mit 100 gleichartigen Kugeln, die mit den Zahlen 1 bis 100 beschriftet sind, wird eine Kugel gezogen. Wie groß ist die W. a) dass eine Kugel mit einer durch

” X = Wartezeit in Minuten“ kann dann jeden Wert aus dem Intervall [0; 20] annehmen.. Sehr h¨ aufig findet man aber auch Anwendungen, in denen eine geeignete Dichtefunktion f¨ ur

Wir ben¨ otigen eine neue Instanz einer Klasse A Wer erzeugt die Instanz?.