• Keine Ergebnisse gefunden

2.5 Monte Carlo- Simulation 2.6 Übungsbeispiele

N/A
N/A
Protected

Academic year: 2021

Aktie "2.5 Monte Carlo- Simulation 2.6 Übungsbeispiele "

Copied!
31
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

2 WAHRSCHEINLICHKEITSVERTEILUNGEN Inhalt:

2.1 Binomialverteilung

2.2 Kennzahlen von diskreten Verteilungen 2.3 Weitere diskrete Verteilungen

2.4 Normalverteilung

2.5 Monte Carlo- Simulation 2.6 Übungsbeispiele

2.7 Repetitorium: Begriffe und Methoden

Lernziele:

2.1 Die Begriffe „diskrete Zufallsvariable“ und Wahrscheinlichkeitsfunktion erklären können;

2.2 „n-stufiger Bernoulliexperimente“ und Zufallsexperimente vom Typ

„Auswählen mit Zurücklegen“ mit Hilfe der Binomialverteilung modellieren können;

2.3 den Mittelwert und die Varianz einer diskreten Zufallsvariablen X erklären und berechnen können;

2.4 die Binomialverteilung durch die Poissonverteilung im Falle kleiner Erfolgswahrscheinlichkeiten approximieren können;

2.5 Zufallsexperimente vom Typ „Auswählen ohne Zurücklegen“ mit Hilfe der hypergeometrischen Verteilung modellieren können;

2.6 die Begriffe „stetige Zufallsvariable“ und Dichtefunktion erklären können;

2.7 die Kennzahlen Mittelwert und Standardabweichung sowie die Quantile von stetigen Zufallsvariablen erklären können;

2.8 Verteilungsfunktionswerte und Quantile der allgemeinen

Normalverteilung berechnen können.

(2)

2.1 Binomialverteilung Lernziel 2.1:

Die Begriffe „diskrete Zufallsvariable“ und Wahrscheinlichkeitsfunktion erklären können.

Einführendes Beispiel:

Wir betrachten ein Zufallsexperiment mit zwei Ausgängen, z.B. das Werfen einer Münze mit den Ausgängen K (Kopf) oder A (Adler), und stellen die Frage, wie oft z.B. bei 2 Wiederholungen ein „K“ auftritt. Mit dieser Frage haben wir implizit eine Variable eingeführt, nämlich die Anzahl X der Wiederholungen mit dem Ausgang „K“ beim 2-maligen Werfen der Münze. Die Ergebnismenge dieses Zufallsexperimentes ist Ω ={(K, K), (K, A), (A, K), (A, A)}, wobei das Element (K, A) die Ausgänge

„K“ und „A“ beim ersten und zweiten Werfen bedeutet usw. Offensichtlich kann X die Werte 0, 1 oder 2 annehmen. Welchen Wert X annimmt, kann nicht vorhergesagt werden, der Wert von X kommt zufällig zustande.

Man bezeichnet X daher als eine Zufallsvariable. Man beachte, dass durch die Zufallsvariable jedem Element von Ω eine reelle Zahl

zugeordnet wird und umgekehrt durch die Vorgabe eines möglichen Wertes von X ein Element oder mehrere Elemente von Ω bestimmt werden.

Definition einer diskreten Zufallsvariablen:

Es sei Ω die Ergebnismenge eines Zufallsexperimentes mit endlich vielen oder abzählbar unendlich vielen Ausgängen und X eine

Abbildung, die jedem Ausgang ω des Zufallsexperimentes eine reelle Zahl X( ω ) zuordnet. Man nennt X eine diskrete Zufallsvariable und die Werte, die X bei jeder Ausführung des Zufallsexperimentes animmt, Realisierungen von X. Ist x eine Realisierung von X, so bildet die durch E

x

= { ω |X( ω )=x} bestimmte Menge eine Teilmenge (d.h. ein Ereignis) von Ω . Mit dem auf Ω definierten Wahrscheinlichkeitsmaß P wird die

Wahrscheinlichkeit dieses Ereignisses auch kurz durch P(E

x

) = P(X = x) dargestellt.

Bezeichnungen:

Zufallsvariable werden meist mit lateinischen Großbuchstaben (z.B. X) bezeichnet, die Werte mit den entsprechenden (indizierten)

Kleinbuchstaben (z.B. x

1

, x

2

, ...). Im vorhin betrachteten Beispiel hat X die Bedeutung eines sogenannten Zählmerkmals.

Definition der Wahrscheinlichkeitsfunktion:

Es sei X eine diskrete Zufallsvariable. Die Variation von X wird durch

Angabe der Menge M der (höchstens abzählbar unendlich vielen)

(3)

möglichen Werte x

1

, x

2

, ... von X und durch Angabe der

Wahrscheinlichkeiten p

i

= P(X = x

i

) für x

i

∈ M beschrieben. Die Funktion f: [0,1] mit f(x) = p

i

= P(X = x

i

) für x=x

i

∈ M und f(x)=0 für x M heißt Wahrscheinlichkeitsfunktion von X. Man beachte, dass p

1

+ p

2

+ ... = 1ist.

Grafische Darstellung der Wahrscheinlichkeitsfunktion:

Über der X-Achse werden an den Stellen x

i

(i=1, 2, …) Strecken der Länge p

i

aufgetragen, wodurch ein Folge von Strecken entsteht (Stabdiagramm). Denkt man sich die Strecken mit Masse belegt, so bringt das Stabdiagramm bildlich zum Ausdruck, wie die gesamte

„Wahrscheinlichkeitsmasse“ (nämlich 1) einer diskreten Zufallsvariablen auf der reellen Achse verteilt ist. Der Vergleich mit einer Masseverteilung ist auch bei der Interpretation von Verteilungskennwerten (z.B.

Mittelwert) nützlich.

Beispiel 2.1

• Ein einfaches Beispiel einer diskreten Zufallsvariablen ist die Bernoulli-Variable X, mit der Bernoulli-Experimente beschrieben werden, d.h. Zufallsexperimente mit zwei Ausgängen ω

1

und ω

2

, die mit gewissen Wahrscheinlichkeiten p bzw. 1-p eintreten. Ordnet man X den Wert 1 zu, wenn das Ereignis { ω

1

} eintritt, und

andernfalls der Wert 0, so erhält man die sogenannte

Zweipunktverteilung mit den durch P(X=1)=p und P(X=0)=1-p gegebenen Wahrscheinlichkeiten.

Dreistufiges Bernoulli-Experiment

Von einer hinsichtlich der Blütenfarbe mischerbigen Erbsenpflanze (Genotyp Vw) werden nach Bestäubung mit einer anderen

mischerbigen Pflanze n = 3 Tochterpflanzen ausgewählt. Wir

X(ω)=x für ω aus Ex x ω1 R

ω2 X(ω1) X(ω2)

X(ω)=x für ω aus Exx x X(ω)=x für ω aus Ex

R

0 1

Ex

p

P(Ex) = p = P({ω|X(ω)=x})

Diskrete Zufallsvariable

(4)

violett blühenden Tochterpflanzen". Offensichtlich kann X die Werte 0, 1, 2 oder 3 annehmen. Die Bestimmung der

Wahrscheinlichkeiten der Ereignisse X=0, X=1 usw. kann in anschaulicher Weise durch eine Darstellung des

Zufallsexperimentes in Form eines Baumdiagramms (V = violett, w

= weiß; p = 3/4, q=1/4) vorgenommen werden:

Das Ereignis X=0 tritt ein, wenn die erste und die zweite und die dritte Pflanze weißblühend ist. Die Wahrscheinlichkeit dafür, dass eine aus einer mischerbigen Pflanze durch Selbstbestäubung hervorgehende Tochterpflanze weißblühend ist, beträgt q=0.25.

Unter der (gegebenen) Voraussetzung, dass sich die

Ausprägungen der Tocherpflanzen voneinander unabhängig entwickeln, ergibt die Anwendung der Multiplikationsregel

P(X=0)=P(www)= q

3

= 0.25

3

=0.01563. Analog findet man durch Anwendung der Additions- und Multiplikationsregel die weiteren Wahrscheinlichkeiten P(X=1)=P(Vww oder wVw oder

wwV)=3q

2

p=0.1406, P(X=2)=P(VVw oder VwV oder wVV)=3qp

2

=0.4219 und P(X=3) = P(VVV)=p

3

=0.4219. Die

Wahrscheinlichkeitsfunktion von X kann grafisch durch ein Stabdiagramm dargestellt werden:

w V w V w V w

V w V w

V p

p

p p p p

p q

q q

q q q q

V V V

V V w

V w V

V w w

W V V

W V w

W w V

W w w

A u s g ä n g e

X

3 2 2 1 2 1 1 0

w

V

0 0,1 0,2 0,3 0,4 0,5

0 1 2 3

X

P(X = x)

(5)

Man beachte, dass sich die Einzelwahrscheinlichkeiten durch Entwicklung des Binoms (q + p)

3

= q

3

+ 3q

2

p + 3qp

2

+ p

3

ergeben. Diesem Zusammenhang entnimmt man wegen p+q=1, dass sich die Einzelwahrscheinlichkeiten auf 1 summieren. Die Verteilung von X ist ein Sonderfall der sogenannten

Binomialverteilung.

Lernziel 2.2:

„n-stufige Bernoulliexperimente“ und Zufallsexperimente vom Typ

„Auswählen mit Zurücklegen“ mit Hilfe der Binomialverteilung modellieren können;

Man betrachte eine Folge von n Bernoulli-Experimenten; bei jeder einzelnen Durchführung des Experiments möge das Ereignis E mit der Wahrscheinlichkeit p (=Erfolgswahrscheinlichkeit) eintreten; dabei wird vorausgesetzt, dass die Versuchsausführungen voneinander unabhängig sind.

Es gilt:

Die Zufallsvariable X = "Anzahl der Wiederholungen mit dem Ausgang E"

ist binomialverteilt mit den Parametern n und p (kurz X ∼ B

n,p

); die Werte der Binomialverteilung B

n,p

sind für x=0, 1, 2, ... , n gegeben durch:

Für x ∉ {0, 1, 2, ..., n} ist B

n,p

(x)=0.

Man beachte:

• Die Funktionsterme der B

n,p

–Verteilung treten in der Entwicklung des Binoms (q+p)

n

auf. Für n=0, 1, 2, ... erhält man:

)

1 ( )

, ( B ) (

P p x p n x

x x n p x n

X = = =

− −



( )

usw.

1 4

6 4

1 ) (

1 3

3 1

) (

1 2

1 ) (

1 1

1 ) (

4 0 3

1 2

2 1

3 0

4 4

3 0 2

1 1

2 0

3 3

2 0 1

1 0

2 2

1 0 0

1 1

0 0 0

q p q

p q

p q

p q

p q

p

q p q

p q

p q

p q

p

q p q

p q

p q

p

q p q

p q

p

q p q

p

⋅ +

⋅ +

⋅ +

⋅ +

= +

⋅ +

⋅ +

⋅ +

= +

⋅ +

⋅ +

= +

= +

= +

+

(6)

Die in dieser Entwicklung auftretenden Koeffizienten heißen Binomialkoeffizienten; diese können mit den Formeln

direkt berechnet werden. Dabei bedeuten n! (gelesen „n-Faktorielle“, n=2,3,4, …) = 1⋅2⋅3 ⋅⋅⋅ n die Anzahl von Permutationen (d.h.

Anordnungen) von n Elementen in einer Reihenfolge. Für die Sonderfälle n=0 und n=1 gilt: 0!=1, 1!=1.

• Der Binomialkoeffizient 

 

x

n (gelesen „n über x“, x=0,1, ..., n) ist gleich der Anzahl der x-Kombinationen aus n Elementen, d.h. der Anzahl der Möglichkeiten, x Elemente aus einer Menge von n Elementen

auszuwählen, wobei die Reihenfolge der Auswahl ohne Belang ist.

• Mit der Binomialverteilung werden Zufallsexperimente vom Typ

„Auswählen mit Zurücklegen“ modelliert. Bei diesem Modell eines Zufallsexperimentes hat man sich eine „Urne“ mit N Elementen

vorzustellen, von denen eine bestimmte Zahl a eine weiße Farbe und die restlichen N-a eine rote Farbe aufweisen. Die Wahrscheinlichkeit dafür, ein weißes Element auszuwählen, ist p=a/N. Legt man jedes ausgewählte Element wieder zurück, bleibt die Wahrscheinlichkeit für die Auswahl eines weißen Elementes unverändert gleich p. Die

Wahrscheinlichkeit, bei zufälliger Auswahl von n Elementen x weiße und n-x rote in einer bestimmten Reihenfolge auszuwählen, ergibt sich mit Hilfe der Multiplikationsregel als

p

x

(1-p)

n-x

. Da es nun 

 

x

n verschiedene Möglichkeiten gibt, die x weißen und n-x roten Elemente anzuordnen, ist das Ereignis A=

„Auswahl von x weißen Elementen bei n-maligem Auswählen mit Zurücklegen“ die Vereinigung der 

 

x

n disjunkten Ereignisse, ein bestimmtes Anordnungsmuster der weißen und roten Elemente (z.B.

zuerst x weiße gefolgt von n-x roten) zu erhalten. Somit ist P(A) = ).

( )

1

( p B

,

x

x p n

p n x n

x

− =

 

 

n n n

x x x n

n x

x n n

n n x n

=

=

− =

⋅ =

⋅ − − +

= −

1 , 0 1

) , 3 , 2 (

! )!

(

! 3

2 1

) 1 (

) 2 )(

1

( K

L

L

(7)

Beispiel 2.2

Wie viele Möglichkeiten m gibt es, 12 Probanden in 3 gleich große Behandlungsgruppen aufzuteilen.

Lösung:

Für die Auswahl einer Vierergruppe aus 12 Probanden (d.h. einer 4er- Kombination aus 12 Elementen) gibt es (12 über 4) Möglichkeiten; zu jeder Möglichkeit der ersten Auswahl existieren (8 über 4)

Möglichkeiten, 4er-Gruppen aus den verbleibenden 8 Elementen zu bilden. Die nach der zweiten Auswahl verbleibenden 4 Elemente bilden eine Vierergruppe, d.h. die Anzahl der möglichen 4er- Kombinationen aus 4 Elementen ist 1. Daher ist

• Die Wahrscheinlichkeit, dass eine bezüglich der Samenform

mischerbige Erbse nach Selbstbestäubung einen kantigen Samen ausbildet, ist nach der Mendel'schen Spaltungsregel gleich 1/4; die Wahrscheinlichkeit, dass ein mischerbiger Samen entsteht, ist 1/2.

Man generiere die Entwicklung von 6 Samen durch ein

Wahrscheinlichkeitsmodell und stelle die Verteilung der Anzahl X der kantigen (Fall 1) bzw. mischerbigen Samen (Fall 2) tabellarisch und grafisch dar.

Lösung:

Im Fall 1 ist X binomialverteilt mit n= 6 und p=0.25. Es ist z.B.

Im Fall 2 ist X binomialverteilt mit n= 6 und p=0.5. Es ist z.B.

34650

! 4

! 4

! 4

! 12

! 0

! 4

! 4

! 4

! 4

! 8

! 8

! 4

! 12 4 4 4 8 4

12 = = =

 



 



 

= m

. 2966 . 0 75 . 0 25 . )0 4 3 2 1 )(

2 1 (

6 5 4 3 2 ) 1

25 . 0 1 ( 25 . 2 0 ) 6 2 (

P 2 6 2 2 4 =

= ⋅

 −



=

=

X

. 3125 . 0 5 . ) 0 3 2 1 )(

3 2 1 (

6 5 4 3 2 ) 1

5 . 0 1 ( 5 . 3 0 ) 6 3 (

P

3 6 3 6

=

= ⋅

 −

 

= 

=

X

(8)

Man beachte:

Die Verteilungsfunktion ist im Allg. asymmetrisch; sie steigt im Falle 1 mit p=0.25 links steil an und fällt dann nach rechts flacher ab

(rechtsschiefe Verteilung). Nur für p=0.5 zeigt ist die

Wahrscheinlichkeitsfunktion symmetrisch (z.B. im Falle 2) mit der Symmetrieachse an der Stelle x=3.

Lösung mit R:

R-Script:

# Beispiel 2.2 options(digits=4)

n <- 6 # Anzahl der Wiederholungen

p1 <- 1/4 # Erfolgswahrscheinlichkeit c1 p2 <- 1/2 # Erfolgswahrscheinlichkeit c2

#

# Tabellarische Darstellung der Wahrscheinlichkeitsfunktionen x_werte <- seq(from=0, to=n, by=1)

dbinom(1,n,p1) # Wert der B(n,p)-Wahrscheinlichkeitsfunktion für x=1 dbinom_werte1 <- dbinom(x_werte, n, p1) # Vektor der B(n,p1)-Werte dbinom_werte2 <- dbinom(x_werte, n, p2) # Vektor der B(n,p2)-Werte print(cbind(x_werte, dbinom_werte1, dbinom_werte2), digits=4) # Ausgabe der Wertetabelle

sum(dbinom_werte1) # Summe der Binomialwahrscheinlichkeiten = 1!

#

# Grafische Darstellung der Wahrscheinlichkeitsverteilungen

plot(x_werte, dbinom_werte1, type="p", col="blue", xlab="x_werte", ylab="B(n,p)", main="B(n,p)-Wahrscheinlichkeitsfunktionen") lines(x_werte, dbinom_werte1, col="blue", lty=1, lwd=2)

lines(x_werte, dbinom_werte2, col="red", lty=2, lwd=2) text(0.8, 0.025, col="red", expression("n=6, p=0.5")) text(0.8, 0.18, col="blue", expression("n=6, p=0.25")) Ergebnisse:

Console:

[1] 0.3560 <B(1, ¼)>

x_werte dbinom_werte1 dbinom_werte2 <Wertetabelle>

[1,] 0 0.1779785 0.01563 [2,] 1 0.3559570 0.09375 [3,] 2 0.2966309 0.23438

% P(X =

x) x

0 1 2 3

0.0156 0.3560

0.2966 0.1318

1 2 3 4 5 6 X

20 30

0 0

10

B6,0.25

B6,0.5

B6,0.25

4 5 6

0.0330 0.0044 0.0002

B6,0.5 0.1780

0.0938 0.2344 0.3125 0.2344 0.0938 0.0156

(9)

[4,] 3 0.1318359 0.31250 [5,] 4 0.0329590 0.23438 [6,] 5 0.0043945 0.09375 [7,] 6 0.0002441 0.01563

[1] 1 <Summe der Binomialwahrscheinlichkeiten>

Grafik:

2.2 Kennzahlen von diskreten Zufallsvariablen Lernziel 2.3:

Den Mittelwert und die Varianz einer diskreten Zufallsvariablen X erklären und berechnen können.

Mit der Wahrscheinlichkeitsfunktion f wird die Zufallsvariation einer diskreten Zufallsvariablen X vollständig beschrieben. Eine

Kurzbeschreibung der Zufallsvariation erhält man, wenn man die

Wahrscheinlichkeitsfunktion hinsichtlich ihrer „Lage“ auf der horizontalen Achse (Merkmalsachse) und hinsichtlich ihrer „Form“ durch geeignete Kennzahlen beschreibt.

Das wichtigste Lagemaß ist der Mittelwert

∑ = + +

=

i i i

X

x f ( x ) x

1

f ( x

1

) x

2

f ( x

2

) L µ

0 1 2 3 4 5 6

0.000.050.100.150.200.250.300.35

B(n,p)-Wahrscheinlichkeitsfunktionen

x_werte

B(n,p)

n=6, p=0.5 n=6, p=0.25

(10)

von X; zur seiner Berechnung wird jeder Wert x

i

von X mit der

entsprechenden Wahrscheinlichkeit f(x

i

)=P(X= x

i

) multipliziert und die erhaltenen Produkte aufsummiert. Statt Mittelwert von X sagt man auch Erwartungswert und schreibt dafür E[X].

Hinweis:

Die Definitionsgleichung für den Mittelwert erinnert an die Formel für den Schwerpunkt von Punkten, die mit der Masse f(x

i

) belegt und an den Stellen x

i

der horizontalen Achse angeordnet sind. Auf der Grundlage der Schwerpunktinterpretation kann man sich den Mittelwert als zentrales Lagemaß näher bringen. Zu diesem Zweck denke man sich die

horizontale Achse mit der Massenbelegung f(x

i

) an den Stellen x

i

als einen Waagebalken, der an irgendeiner Stelle ξ

i

drehbar gelagert ist.

Unter dem Einfluss der Schwerkraft werden die Massenpunkte links und rechts von ξ

i

Drehungen im einander entgegengesetzten Sinn bewirken.

Die resultierende Drehwirkung ist null, d.h., der Balken befindet sich im Gleichgewicht, wenn ξ

i

mit µ

X

übereinstimmt.

Wir wenden uns nun der Beschreibung der Form der Verteilung einer diskreten Zufallsvariablen X mit der Wahrscheinlichkeitsfunktion f zu. Es erscheint nahe liegend, die Form zunächst danach zu beurteilen, ob der Graph von f einen flachen, langgestreckten Verlauf besitzt oder über einen engen Bereich der Merkmalsachse konzentriert ist. Die damit angesprochene Verteilungseigenschaft wird durch die sogenannten Streuungsmaße erfasst, von denen die Varianz bzw. die

Standardabweichung die bedeutsamsten sind.

Die Varianz von X wird als mittlere quadratische Abweichung

der Variablenwerte um den Mittelwert µ

X

=E[X] eingeführt und auch durch

2

σ

X

bezeichnet. Die Quadratwurzel σ

X

= σ

X2

aus der Varianz heißt die Standardabweichung von X.

Speziell gilt für die Binomialverteilung mit den Parametern n und p:

[ ] X npq np p E [ ] X ( E [ ] X n )

Var

np X

E

/ 1

) 1 ( ]

[

=

=

=

=

[ ] =





=

i i X i

X

x f x

X E X

Var ( µ )

2

( µ )

2

( )

[ ] =





=

i i X i

X

x f x

X E X

Var ( µ )

2

( µ )

2

( )

(11)

Beispiel 2.3

• Es sei X eine Bernoulli-Variable mit den Werten 0 und 1 und es gelte P(X=1)=3/4. Man berechne den Mittelwert und die Varianz von X.

Ferner zeige man an Hand des Beispiels, dass für beliebige reelle Zahlen a, b gilt: E[aX + b]=a E[X] + b, Var[aX+ b] = a

2

Var[X].

Lösung:

µ = 0 ⋅ 1/4+ 1 ⋅ 3/4 = 3/4;

σ

2X

= E[(X- µ )

2

] = (0-3/4)

2

⋅ 1/4 + (1-3/4)

2

⋅ 3/4 = 9/64+3/64 = 3/16.

E[aX+b] = b1/4+(a+b)3/4 = a3/4+b = a E[X]+b;

Var[aX+b] = E[(aX+b-a⋅3/4 -b)

2

] =a

2

⋅9/16⋅1/4 + (a-a⋅3/4)

2

⋅3/4 = a

2

⋅3/16

= a

2

Var[X].

• Es sei X eine mit den Parametern n=6 und p=0.25 binomialverteilte Zufallsvariable. Man berechne den Mittelwert und die

Standardabweichung.

Lösung:

Mittelwert µ

X

=np=6 ⋅ 0.25=1.5; Standardabweichung σ

X

= √ [np(1-p)]=1,061.

Lösung mit R:

R-Script:

# Beispiel 2.3b options(digits=4)

n <- 6 # Anzahl der Wiederholungen p <- 1/4 # Erfolgswahrscheinlichkeit x_werte <- seq(from=0, to=n, by=1)

dbinom_werte <- dbinom(x_werte, n, p) # Vektor der B(n,p)-Werte

# Berechnung der Mittelwerte (Erwartungswerte)

mittelwert <- x_werte %*% dbinom_werte # %*% ist der Operator für das Skalarprodukt

print(mittelwert)

# Hinweis: Man überzeuge sich, dass für den Mittelwert die Formel gilt:

# Mittelwert = Anzahl n der Wiederholungen x Erfolgswahrscheinlichkeit p

# Berechnung der Varianzen

abweichung <- x_werte - mittelwert

varianz <- (abweichung * abweichung) %*% dbinom_werte print(varianz)

# Hinweis: Man überzeuge sich, dass für die Varianz die Formel gilt:

Varianz = n x p x (1-p) Ergebnisse:

Console:

[,1]

[1,] 1.5 <Mittelwert>

[,1]

[1,] 1.125 <Varianz>

(12)

Hinweise:

• Bei der Durchführung eines Zufallsexperiments möge mit der Wahrscheinlichkeit p ein Ereignis E auftreten. Wiederholt das Zufallsexperiment n-mal und fragt danach, wie oft unter den Wiederholungen das Ereignis „erwartet“ werden kann, so ist die erwartete Häufigkeit von E durch n × P(E) gegeben.

Der Mittelwert ist ein Sonderfall der sogenannten Momente einer Zufallsvariablen. Das Moment k-ter Ordnung (k=1, 2, …) der diskreten Zufallsvariablen X mit den Werten x

i

und der

Wahrscheinlichkeitsfunktion f ist definiert durch:

Setzt man k=1, ergibt sich als Moment erster Ordnung der Mittelwert.

Die Varianz von X hängt mit dem Moment zweiter Ordnung über die Beziehung

zusammen; dabei wurde die Regel angewendet, dass der

Erwartungswert einer Summe von Zufallsvariablen gleich der Summe der Erwartungswerte der Zufallsvariablen ist.

Für die Berechnung von Momenten ist die momenterzeugende

Funktion von Bedeutung. Die momenterzeugende Funktion M

X

: D R (R ist die Menge der reellen Zahlen und D eine Teilmenge von R) ist für eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion f durch die Abbildungsvorschrift

definiert. Die erste und zweite Ableitung von M

X

an der Stelle t=0 ist gleich dem Moment erster bzw. zweiter Ordnung von X.

Die momenterzeugende Funktion der mit den Parametern p und n binomialverteilten Zufallsvariablen X mit den Werten x=0, 1, 2, …, n ist

[ ] =

=

i

i k i k

k

E X x f x

m ( )

2 1 2 2 2

2 2 2

2

E ( X ) E X 2 E X

X

m m

X X X

X

= − = − + =

− = −





µ µ µ µ

σ

[ ( ) ] ( ) tx f x t D

E t M

i

i i

X

( ) = exp tX = ∑ exp ( ) mit

[ ( ) ] ( )

( ) (

t

)

n

x

x x n

t

x n x

x X

p p

p p

p p

tx E

t M

− +

=

 −



= 

=

 −



= 

=

1 e )

1 ( x e

n

) 1 x ( exp n tX

exp )

(

(13)

Wegen

ergeben sich µ

X

= m

1

= np und σ

X

2

= m

2

-m

1

2

= np(1-p) als Mittelwert bzw. Varianz von X.

2.3 Weitere diskrete Verteilungen Lernziel 2.4:

Die Binomialverteilung durch die Poissonverteilung im Falle kleiner Erfolgswahrscheinlichkeiten approximieren können.

Für ein n-stufiges Bernoulli-Experiment mit der Erfolgswahrscheinlichkeit p gilt: X = "Anzahl der erfolgreichen Ausgänge" ∼ B

n,p

. Die

Binomialverteilung strebt für p 0 und konstant bleibendem Mittelwert np = λ gegen die sogenannte Poissonverteilung P

λ

mit den

Funktionswerten

für x ∈ {0, 1, 2, ... } und P

λ

(x)=0 für x ∉ {0, 1, 2, ... }.

Man beachte:

Eine gute Approximation der Binomialverteilung durch die Poissonverteilung wird bereits für n ≥ 10 und p ≤ 0.1 erreicht.

Für eine mit dem Parameter λ Poisson-verteilte Zufallsvariable gilt:

Beispiel 2.4

Bei einem Verfahren zur sterilen Abfüllung von Flaschen tritt mit der Wahrscheinlichkeit p=0.1% eine Unsterilität auf. Wie groß ist die

! e

) ( P ) (

P x

x x x

X λ λ

λ =

=

=

λ

=

= [ ] ]

[ X Var X E

( )

[ ]

( ) ( ) ( )

[ ]

np p

n n

p p

p n p

p p

n n M m

np p

p p

n M m

t n t

t n t

t X

t n t

t X

+

=

− + +

− +

=

= ′′

=

− +

=

= ′

=

=

2

0 1

2 2

2

0 1

1

) 1 (

e 1

e e

1 e

) 1 (

) 0 (

e 1

e

)

0

(

(14)

Lösung:

Die Anzahl X der unsterilen Flaschen unter den 1000 Einheiten ist binomialverteilt mit n=1000 und p=0.001; die Binomialverteilung kann näherungsweise durch die Poissonverteilung P

λ

mit λ =np=1 ersetzt werden. Es ist P

λ

(0)=e

-1

1

0

/0! =0.3679; P

λ

(1)=e

-1

1

1

/1! =0.3679; P

λ

(2)=e

-

1

1

2

/2! =0.1839; P

λ

(3)=e

-1

1

3

/3! =0.0613 P(X>3)=1- P

λ

(0)- P

λ

(1)- P

λ

(2)- P

λ

(3)=1.9%.

Lösung mit R:

R-Script:

# Beispiel 2.4

n <- 1000 # Umfang der Prüfstichprobe p <- 0.001 # Defektwahrscheinlichkeit

# Anzahl X der unsterilen Flaschen ist B(n,p)-verteilt

# gesucht: P(X>3)=1-P(X<=3)

#

Pklgl3 <- dbinom(0,n,p)+dbinom(1,n,p)+dbinom(2,n,p)+dbinom(3,n,p) cat("P(X<=3)= ", Pklgl3, "\n")

# Hinweis: Mit 'cat' können mehrere Objekte auf der Konsole angezeigt werden

# (mit 'print' nur eines!)

#

# schnellere Berechnung mit pbinom (kumulative Dichtefunktion) Pklgl3 <- pbinom(3,n,p)

cat("P(X<=3)= ", Pklgl3, "\n")

Pgr3 <- 1-Pklgl3 # gesuchte Wahrscheinlichkeit cat("P(X>3)= ", Pgr3, "\n")

#

# Approximation der Binomialverteilung durch die Poissonverteilung (für n>10 und p<0.1)

lambda <- n*p # Parameter der Poissonverteilung Pklgl3 <-

dpois(0,lambda)+dpois(1,lambda)+dpois(2,lambda)+dpois(3,lambda) cat("P(X<=3) mit Poissonapproximation = ", Pklgl3, "\n")

#

# schnellere Berechnung mit ppois (kumulative Dichtefunktion) Pklgl3 <- ppois(3,lambda)

cat("P(X<=3)= ", Pklgl3, "\n")

#

Pgr3 <- 1-Pklgl3 # gesuchte Wahrscheinlichkeit mit Poissonapproximation berechnet

cat("P(X>3)mit Poissonapproximation = ", Pgr3, "\n") Ergebnisse:

Console:

P(X<=3)= 0.981 <P(X<=3) mit dbinom()>

P(X<=3)= 0.981 <P(X<=3) mit pbinom()>

P(X>3)= 0.01893 <P(X>3) mit pbinom()>

P(X<=3)mit Poissonapproximation = 0.981 <P(X<=3) mit dpois()>

P(X<=3)= 0.981 <P(X<=3) mit ppois()>

P(X>3)mit Poissonapproximation = 0.01899 <P(X<=3) mit ppois()>

Lernziel 2.5:

Zufallsexperimente vom Typ „Auswählen ohne Zurücklegen“ mit Hilfe der

hypergeometrischen Verteilung modellieren können.

(15)

Es seien M eine Menge von N Elementen, von denen a<N vom Typ A sind, und X die Zufallsvariable „Anzahl der Elemente vom Typ A, wenn insgesamt n (n ≤ a, n ≤ N-a) aus der Menge M gezogenen (und nicht wieder zurückgelegt) werden“. Dann ist X hypergeometrisch verteilt mit den Parametern a, N-a und n (kurz X ∼ H

a,N-a, n

). Die Funktionswerte der hypergeometrischen Verteilung H

a,N-a, n

sind

für x ∈ D={x

min

, x

min+1

, ..., x

max

} und H

a,N-a, n

(x)=0 für x ∉ D; dabei ist x

min

=max(0, n-N+a) und x

max

=min(a, n).

Man beachte:

• Eine gute Approximation der hypergeometrischen Verteilung durch die Binomialverteilung wird bereits für n/N <0.1 und N > 60 erreicht.

Für eine mit den Parametern a,N-a und n hypergeometrisch verteilte

Zufallsvariable gilt:

Beispiel 2.5:

In einem Betrieb mit 30 Mitarbeitern wurden 20 prophylaktisch gegen Grippe geimpft. Insgesamt erkrankten 6 Mitarbeiter an Grippe. Unter der Annahme, dass das Erkrankungsrisiko mit und ohne Impfung gleich groß ist, bestimme man die Wahrscheinlichkeit, dass 2 der geimpften

Mitarbeiter an Grippe erkranken, also X = 2 ist. Wie groß ist der Erwartungswert von X?

Lösung:

Es ist X ∼ H

a,N-a, n

mit a=20, N-a=10 und n=6

)

( )

(

P

, ,

 

 

 

 

 −

 

=

=

=

n N

x n

a N x a x

H x

X

aN an

; 0672 . 0 6

5 4 3 2

30 29 28 27 26 25

4 3 2

10 9 8 7 2

20 19

! 24

! 6

! 30

! 6

! 4

! 10

! 18

! 2

! 20

6 30

4 10 2 20 )

2

( =

⋅ ⋅ ⋅

=

=

 

 

 

 

 

 

=

= X P

) 1 1 ( ]

[ , ]

[ −

− −

=

= N

n p N

np X

Var np

X E

N

N-a a

x n-x

(16)

Lösung mit R:

R-Script:

# Beispiel 2.5

N <- 30; a <- 20; na <- N-a; n <- 6

# X = Anzahl der geimpften Personen unter den Erkrankten PXgl2 <- dhyper(2, a, na, n)

cat("P(X=2)= ", PXgl2, "\n") Ergebnisse:

Console:

P(X=2) = 0.0672

2.4 Normalverteilung Lernziel 2.6:

Die Begriffe „stetige Zufallsvariable“ und Wahrscheinlichkeitsdichte erklären können.

Im Allgemeinen liefert die wiederholte Messung einer Größe X (z.B. der Spaltöffnungslänge auf den Blättern einer Pflanze) mehr oder weniger stark abweichende Ergebnisse. Die Variation der Messergebnisse zeigt an, dass der Vorgang, der die Werte von X erzeugt, den Charakter eines Zufallsexperimentes hat. Dabei sind zwei verschiedene Situationen zu unterscheiden. Es kann die Größe X zwar einen festen „wahren“ Wert besitzen, durch den Messvorgang wird dem wahren Wert aber ein Messfehler überlagert, der zu regellos um den wahren Wert

schwankenden Messergebnissen führt; in diesem Fall ist das

Zufallsexperiment mit dem Messvorgang verbunden. Oder die Werte der Größe X selbst sind bereits Ergebnisse eines Zufallsexperimentes (wie z.B. die konkrete Realisierung einer Spaltöffnung bestimmter Länge).

Definition der stetigen Zufallsvariablen:

Wir bezeichnen X als eine stetige Zufallsvariable, wenn sie einem

Zufallsexperiment zugeordnet ist und eine auf der Ergebnismenge Ω des Zufallsexperimentes definierte reellwertige Funktion mit der Eigenschaft darstellt, dass für jedes Intervall (a, b) der reellen Zahlenachse die Wahrscheinlichkeit P(a < X < b) existiert.

Definition der Wahrscheinlichkeitsdichte:

Die Zufallsvariation einer stetigen Zufallsvariablen X wird mit Hilfe der sogenannten Wahrscheinlichkeitsdichte f beschrieben. Diese ist eine für alle reellen x definierte nichtnegative Funktion, mit der die

Wahrscheinlichkeit P(a < X < b), dass X einen Wert zwischen a und b annimmt, als „Fläche unter der Dichtekurve“ zwischen x=a und x=b dargestellt wird. Es folgt, dass die Gesamtfläche unter der „Dichtekurve“

1 Flächeneinheit ist.

(17)

Hinweis:

Das Arbeiten mit stetigen Zufallsvariablen erfordert die Berechnung von

„Flächen unter der Dichtekurve“, d.h. die Berechnung von bestimmten Integralen der Art:

In der Praxis erfolgt die Berechnung mit Hilfe von tabellierten Werten der sogenannten Verteilungsfunktion F von X:

Man beachte:

• P(X ≤ b)= F(b)

• P(X ≥ a)=1 - P(X<a) = 1-F(a)

• P(a<X<b)=F(b)-F(a)

Wichtige Verteilungsfunktionen (z.B. Standardnormalverteilung, sogenannte Prüfverteilungen) sind tabelliert.

Beispiel 2.6:

a) Man stelle die Dichte- und die Verteilungsfunktion

X Dichte

a b

Fläche = P(a<X<b)

f

= ∫

<

< b

a f d b

X

a ) ( ξ ) ξ (

P

X Dichte

f

x Fläche = F(x)

= P(X < x)

= −

= Φ

→ Φ

 

 

 −

=

z

d f z

X z

z z

z f z

f ξ ξ

π exp 2 / 2 bzw. : ( ) P ( ) ( ) 2

) 1 ( :

∫ ∞

= −

=

x

d f x

X x

F x

F : ( ) P ( ) ( ξ ) ξ

(18)

Lösung mit R:

R-Script:

# Beispiel 2.6a

options(digits=4) # Festlegung der signifikanten Stellen für die Ausgabe auf der Konsole

x <- seq(from=-4, to=4, by=0.5) # Definitionsbereich

N01dichte <- dnorm(x, mean=0, sd=1) # Werte der N(0,1)-Dichtefunktion N01vert <- pnorm(x, mean=0, sd=1) # Werte der Verteilungsfunktion wertetabelle <- data.frame(z_Wert=x, N01_dichtefunktion=N01dichte, N01_Verteilungsfunktion=N01vert)

wertetabelle

#

plot(x, N01vert, type="p", col="blue", xlab="z_werte", ylab="N(0,1)", main="Standardnormalverteilung") lines(x, N01vert, col="blue", lty=1, lwd=2)

text(3, 0.9, col="blue", expression("N(0,1)-Verteilung")) curve(exp(-x*x/2)/sqrt(2*pi), ad=T, col="red", lty=2, lwd=2) text(2.5, 0.15, col="red", expression("N(0,1)-Dichte")) Ergebnisse:

Console:

z_Wert N01_dichtefunktion N01_Verteilungsfunktion <Wertetabelle>

1 -4.0 0.0001338 3.167e-05 2 -3.5 0.0008727 2.326e-04 3 -3.0 0.0044318 1.350e-03 4 -2.5 0.0175283 6.210e-03 5 -2.0 0.0539910 2.275e-02 6 -1.5 0.1295176 6.681e-02 7 -1.0 0.2419707 1.587e-01 8 -0.5 0.3520653 3.085e-01 9 0.0 0.3989423 5.000e-01 10 0.5 0.3520653 6.915e-01 11 1.0 0.2419707 8.413e-01 12 1.5 0.1295176 9.332e-01 13 2.0 0.0539910 9.772e-01 14 2.5 0.0175283 9.938e-01 15 3.0 0.0044318 9.987e-01 16 3.5 0.0008727 9.998e-01 17 4.0 0.0001338 1.000e+00 Grafik:

-4 -2 0 2 4

0.00.20.40.60.81.0

Standardnormalverteilung

z_werte

N(0,1)

N(0,1)-Verteilung

N(0,1)-Dichte

(19)

b) Es sei Z eine standardnormalverteilte Zufallsvariable mit der

Verteilungsfunktion Φ . Man berechne P(Z>1), P(Z ≤ -1), P(0 ≤ Z ≤ 1) und P(-1<Z<1).

Lösung:

P(Z>1)=1-P(Z ≤ 1)=1-0.8413=0.1587;

P(Z -1)=P(Z 1)=1-P(Z<1)= 0.1587;

P(0 ≤ Z ≤ 1)= Φ (1)- Φ (0)=0.8413-0.5=0.3413;

P(-1<Z<1)= Φ (1)- Φ (-1)= Φ (1)-[1- Φ (1)]=2 Φ (1)-1=2 ⋅ 0.8413-1=0.6826.

Lösung mit R:

R-Script:

# Beispiel 2.6b

PZgr1 <- 1-pnorm(1, mean=0, sd=1) PZklm1 <- pnorm(-1, mean=0, sd=1)

PZgr0kl1 <- pnorm(1, mean=0, sd=1)-pnorm(0, mean=0, sd=1) PZgrm1kl1 <- pnorm(1, mean=0, sd=1) - pnorm(-1, mean=0, sd=1) print(cbind(PZgr1, PZklm1, PZgr0kl1, PZgrm1kl1))

Ergebnisse:

Console:

PZgr1 PZklm1 PZgr0kl1 PZgrm1kl1 [1,] 0.1587 0.1587 0.3413 0.6827

Lernziel 2.7:

Die Kennzahlen Mittelwert und Standardabweichung sowie die Quantile von stetigen Zufallsvariablen erklären können.

Der Mittelwert µ

X

oder Erwartungswert E[X] einer stetigen

Zufallsvariablen X mit der Dichtefunktion f wird durch das Integral

definiert. Wie im diskreten Fall kann µ

X

mechanisch als

Schwerpunktskoordinate veranschaulicht werden; wenn man

nämlich die Merkmalsachse mit variabler Masse so belegt, dass f(x) die Massendichte an der Stelle x ist, liegt der Schwerpunkt dieser

Massenverteilung genau an der Stelle µ

X

. Hinweis:

Bei symmetrischer Dichtekurve stimmt die Lage des Mittelwerts mit der Symmetriestelle überein.

Die Varianz Var[X] (oder σ

X2

) von X ist als der Erwartungswert der quadratischen Abweichung der Zufallsvariablen X von ihrem Mittelwert µ

∫ ∞ +

= −

= E X xf x dx

X [ ] ( )

µ

(20)

Die Quadratwurzel σ

X

= σ

X2

aus der Varianz heißt die Standardabweichung von X.

Neben dem Mittelwert und der Standardabweichung sind der Median und der Quartilabstand weitere Maßzahlen zur Kennzeichnung der zentralen Lage bzw. der Streuung einer stetigen Zufallsvariablen X.

Der Median x

0,5

ist derjenige Wert von X, der mit 50%-iger

Wahrscheinlichkeit unter- bzw. überschritten wird, d.h., für den gilt:

P(X ≤ x

0,5

) = P(X ≥ x

0,5

) = 0.5. Die an der Stelle x

0,5

der Merkmalsachse errichtete Ordinate teilt die Fläche „unter“ der Dichtekurve in zwei

Hälften.

Der Median ist ein Spezialfall eines allgemeineren Lagemaßes, des sogenannten γ -Quantils mit x

γ

(0< γ <1); x

γ

ist der durch die Forderung P(X x

γ

) = γ festgelegte Wert von X, also jener Wert, der mit der Wahrscheinlichkeit γ unterschritten wird.

Das 25%-Quantil x

0.25

und das 75%-Quantil x

0.75

heißen auch das untere bzw. das obere Quartil. Die Differenz x

0.75

- x

0.25

aus dem oberen und unteren Quartil ist der Quartilabstand.

Beispiel 2.7:

a) Es sei Z eine standardnormalverteilte Zufallsvariable ( µ =0 und σ =1).

Man zeige: Die Wahrscheinlichkeit, dass Z einen Wert im einfachen Streubereich (- σ , σ ) annimmt, ist 68.3%.

Lösung:

P(- σ <Z< σ )= P(-1<Z<1)=68.26%

b) Man berechne das 95%-, 97.5%- und 2.5%-Quantil einer standardnormalverteilten Zufallsvariablen.

X

1 2 3

0 xγ -2 -3

0.1 0.2

f Dichte

Φ(xγ ) = γ

∫ ∞ +

− −

=

=

= Var X E X x f x dx

X X

X

[ ] [( ) 2 ] ( ) 2 ( )

2 µ µ

σ

(21)

Lösung:

Φ (z

0.95

)=0.95 Tabelle x

0.95

=1.65; Φ (z

0.975

)=0.975 Tabelle z

0.95

=1.96; Φ (z

0.025

)=0.025 Symmetrie! z

0.025

=- x

0.975

=-1.96.

Lösung mit R:

R-Script:

# Beispiel 2.7b

z0950 <- qnorm(0.95, mean=0, sd=1) z0975 <- qnorm(0.975, mean=0, sd=1) z0025 <- qnorm(0.025, mean=0, sd=1) print(cbind(z0950, z0975, z0025)) Ergebnisse:

Console:

z0950 z0975 z0025 [1,] 1.645 1.96 -1.96

Lernziel 2.8:

Verteilungsfunktionswerte und Quantile der allgemeinen Normalverteilung berechnen können.

Definition der allgemeinen Normalverteilung:

X heißt normalverteilt mit dem Mittelwert µ und der Varianz σ

2

(kurz: X ∼ N( µ , σ

2

)), wenn Z = (X- µ )/ σ standardnormalverteilt ist.

Man beachte:

• Es sei X ∼ N( µ , σ

2

). Wegen

Ist der Wert der Verteilungsfunktion F von X an der Stelle x gleich dem Wert der Standardnormalverteilungsfunktion Φ an der

Stelle (x-µ)/σ.

• Dichtefunktionen der allgemeinen Normalverteilung zu verschiedenen Werten von µ und σ :

X µ = 0

σ = 1

0.8

Dichte

0.6

0.2

µ = 2, σ = 0.5

µ = 4, σ = 1.5



 

 



− < − = Φ −

=

<

= σ µ

σ µ

σ µ x x

x X X

F(x) P ( ) P

(22)

Gleichung der Dichtefunktion von X :

Beispiel 2.8:

Es sei X N( µ , σ

2

) mit µ =15 und σ

2

=16. Man berechne:

P(X < 10), P(X > 10), P(10 X 20) sowie das Quantil x

0.95

! Lösung:

P(X<10) = F(10)= Φ [(10-15)/4]= Φ (-1.25)=1- Φ (1.25)=1-0.8944=0.1056;

P(X>10) = 1-F(10) = 1-0.1056 = 0.8944;

P(10 ≤ X ≤ 20) = F(20) - F(10) = Φ [(20-15)/4]-F(10)=

Φ (1.25) - F(10) = 0.8944 - 0.1056 = 0.7888;

P(X x

0.95

)=0.95 ⇔ P[(X- µ )/ σ ≤ (x

0.95

-15)/4] = 0.95 ⇔ Φ [(x

0.95

-15)/4] = 0.95

(x

0.95

-15)/4 = 1.65 x

0.95

= 15+4 ⋅ 1.65 = 21.6.

Lösung mit R:

R-Script:

# Beispiel 2.8 mittelwert <- 15 varianz <- 16

std <- sqrt(varianz)

#

PXkl10 <- pnorm(10, mean=mittelwert, sd=std) PXgr10 <- 1 - pnorm(10, mean=mittelwert, sd=std)

PXgr10kl20 <- pnorm(20, mean=mittelwert, sd=std)-pnorm(10, mean=mittelwert, sd=std)

print(cbind(PXkl10, PXgr10, PXgr10kl20))

#

# Berechnung des 95%-Quantils

x0950 <- qnorm(0.95, mean=mittelwert, sd=std) cat("95%-Quantil= ", x0950, "\n")

Ergebnisse:

Console:

PXkl10 PXgr10 PXgr10kl20 [1,] 0.1056 0.8944 0.7887 95%-Quantil= 21.58

2.5 Monte Carlo-Simulationen

Ein Zufallsexperiment mit den Ausgang E und dem dazu komplemen- tären Ausgang E

c

wird n-mal ausgeführt. Die Wahrscheinlichkeit dafür, dass E eintritt, sei bei jeder Durchführung des Experimentes gleich p.

Die Anzahl der Durchführungen des Zufallsexperimentes mit dem Ausgang E sei X.









=

→ 2

) (

2 - 1 2 exp

) 1 (

: σ µ

π

σ

x x

f

x

f

(23)

Dann gilt das sogenannte Gesetz der großen Zahlen von Bernoulli, nach dem zu einer beliebigen positiven Zahl ε >0 die Wahrscheinlichkeit, dafür, dass X/n von p um weniger als ε abweicht, mit wachsendem n gegen den Wert 1 strebt.

Dieses Ergebnis legt nahe, die Wahrscheinlichkeit p eines Ereignisses E in Verbindung mit einem Zufallsexperiment durch die relative Häufigkeit X/n zu schätzen, mit der E bei n Wiederholungen des

Zufallsexperimentes auftritt.

Auf das Gesetz der großen Zahlen wird in Simulationsexperimenten (Monte Carlo-Simulationen) zurückgegriffen. Für Simulationsexperi- mente werden Zufallszahlen benötigt; eine besondere Bedeutung kommt dabei den Zufallszahlen zu, die Realisierungen einer im Intervall von 0 bis 1 gleichverteilen Zufallsvariablen sind.

Die stetige Zufallsvariable X heißt im Intervall [0, 1] gleichverteilt, wenn die Dichtefunktion von X durch

 

 

>

<

=

1 für 0

1 0

für 1

0 für 0 ) (

x x x x

f

gegeben ist. Da die Dichtekurve die Form eines Rechtecks hat, spricht man auch von einer Rechteckverteilung.

Beispiel 2.9

Wir bestimmen die Zahl π durch ein Simulationsexperiment und betrachten dazu einen Viertelkreis V mit dem Radius 1 und das den Viertelkreis beinhaltende Quadrat Q mit der Seite 1.

Offensichtlich ist das Verhältnis der Flächeninhalte A

V

/A

Q

= π /4; dieses Flächenverhältnis stimmt mit der Wahrscheinlichkeit p überein, dass ein zufällig aus dem Quadrat ausgewählter Punkt P(x, y) im Kreis liegt, d.h., dass x

2

+y

2

<1 ist. Die zufällige Auswahl eines Punktes wird so

vorgenommen, dass sowohl seine x-Koordinate als auch die y-

Koordinate als Realisation einer im Intervall von 0 bis 1 gleichverteilten Zufallsvariablen generiert werden.

Indem wir auf diese Weise eine große Anzahl n von Punkten generieren

und die Anzahl x jener Punkte miterfassen, die im Viertelkreis liegen,

kann die Wahrscheinlichkeit p durch x/n geschätzt werden. Gleichsetzen

mit π /4 führt auf den Näherungswert 4x/n für π . Eine Simulation mit

(24)

R-Script:

# Beispiel 2.9a

# Monte Carlo-Simulation zur Berechnung von pi punkt <- function(n_sim){

H <- 0

x <- runif(n_sim); y <- runif(n_sim); r <- x*x + y*y for (i in (1:n_sim)){

if (r[i] <= 1) {H <- H+1}}

h <- H/n_sim return(h)}

n_sim <- 10000

pi_est <- 4*punkt(n_sim) print(cbind(n_sim, pi_est)) Ergebnis:

Console:

n_sim pi_est [1,] 10000 3.1468

Anmerkung:

Mit Hilfe von im Intervall von 0 bis 1 gleichverteilten Zufallzahlen können in einfacher Weise z.B. standardnormalverteilte Zufallszahlen gewonnen werden. Es sei X eine im Intervall [0, 1) gleichverteilte Zufallsvariable mit der Realisierung x. Dann ist z = Φ

-1

(x) die Realisierung einer

standardnormalverteilten Zufallsvariablen Z.

2.6 Übungsbeispiele

1. Bei einem Test werden 5 Aufgaben derart gestellt, dass es bei jeder Aufgabe 4 Antwortmöglichkeiten gibt, von denen genau eine die richtige ist. Wie groß ist die Wahrscheinlichkeit, dass man mehr als die Hälfte der Aufgaben richtig löst, wenn die Lösungsauswahl aufs Geratewohl erfolgt, d.h., jeder Lösungsvorschlag mit der Wahrscheinlichkeit 1/4 gewählt wird? (10.35%)

2. Für bestimmte Blumenzwiebeln wird eine Wahrscheinlichkeit von mindestens 80% garantiert, dass eine Zwiebel nach dem Einsetzen austreibt. Jemand kauft 5 Zwiebeln und stellt fest, dass nur 3 austreiben. Unter der Voraussetzung, dass die garantierte Mindestwahrscheinlichkeit von 80% zutrifft, gebe man die

Wahrscheinlichkeit dafür an, dass höchstens 3 der 5 Zwiebeln austreiben.

(26.27%)

3. Es sei angenommen, dass linksseitige und rechtsseitige Migräne gleich wahrscheinlich sind. Wie groß ist die Wahrscheinlichkeit, dass von 10 zufällig ausgewählten Migränepatienten gleich viele an links- wie rechtsseitiger Migräne leiden? (24.61%)

4. Bei einem Herstellungsverfahren ist die Wahrscheinlichkeit, dass die Länge eines Produktes die obere Toleranzgrenze überschreitet bzw. die untere

Toleranzgrenze unterschreitet jeweils gleich 2,5%. Man gebe die

Wahrscheinlichkeit an, dass von 10 Produkten höchstens 2 außerhalb des Toleranzbereiches liegen! (98.85%)

Referenzen

ÄHNLICHE DOKUMENTE

Spannbaum des folgenden Graphen.. Zur Kollisionsverwaltung werden einfah verkette Listen verwendet.. Sie können dabei annehmen, dass n eine Zweierpotenz ist... Ein T

Achtung: für Funktionen TFi werden die Zufallszahlen ebenfalls über Histogramme mit einer Anzahl von Punkten

In this case the proportion of the golden section can be constructed in a square lattice, using circles going through lattice points.?. This gives

Auf dem einen Schenkel wählen wir einen belie- bigen Punkt P 0 und ergänzen zu einer Zickzacklinie der Seitenlänge 1 gemäß Abbil- dung 10.. 10: Winkel und Zickzacklinie

Wir sehen, dass sich ein gewisses Grundmuster modulo 4 wiederholt... Im Folgenden noch einige größere Werte

Weitere anspruchsvolle Proben für das Fach Mathematik in der zweiten Klasse findest Du auf unserer Partnerseite www.CATLUX.de.. Dort gibt es ausführliche Musterlösungen,

September findet in den Räumen des Ministeriums für Gesundheit und So- ziales des Landes Sachsen-Anhalt eine Fachtagung unter dem Titel „Prävention von sexualisierter Gewalt an

die rechte Hälfte ein Rechteckpotential behandelt, welches als Näherung für.. das Wood-Saxon-Potential angesehen