2 WAHRSCHEINLICHKEITSVERTEILUNGEN Inhalt:
2.1 Binomialverteilung
2.2 Kennzahlen von diskreten Verteilungen 2.3 Weitere diskrete Verteilungen
2.4 Normalverteilung
2.5 Monte Carlo- Simulation 2.6 Übungsbeispiele
2.7 Repetitorium: Begriffe und Methoden
Lernziele:
2.1 Die Begriffe „diskrete Zufallsvariable“ und Wahrscheinlichkeitsfunktion erklären können;
2.2 „n-stufiger Bernoulliexperimente“ und Zufallsexperimente vom Typ
„Auswählen mit Zurücklegen“ mit Hilfe der Binomialverteilung modellieren können;
2.3 den Mittelwert und die Varianz einer diskreten Zufallsvariablen X erklären und berechnen können;
2.4 die Binomialverteilung durch die Poissonverteilung im Falle kleiner Erfolgswahrscheinlichkeiten approximieren können;
2.5 Zufallsexperimente vom Typ „Auswählen ohne Zurücklegen“ mit Hilfe der hypergeometrischen Verteilung modellieren können;
2.6 die Begriffe „stetige Zufallsvariable“ und Dichtefunktion erklären können;
2.7 die Kennzahlen Mittelwert und Standardabweichung sowie die Quantile von stetigen Zufallsvariablen erklären können;
2.8 Verteilungsfunktionswerte und Quantile der allgemeinen
Normalverteilung berechnen können.
2.1 Binomialverteilung Lernziel 2.1:
Die Begriffe „diskrete Zufallsvariable“ und Wahrscheinlichkeitsfunktion erklären können.
Einführendes Beispiel:
Wir betrachten ein Zufallsexperiment mit zwei Ausgängen, z.B. das Werfen einer Münze mit den Ausgängen K (Kopf) oder A (Adler), und stellen die Frage, wie oft z.B. bei 2 Wiederholungen ein „K“ auftritt. Mit dieser Frage haben wir implizit eine Variable eingeführt, nämlich die Anzahl X der Wiederholungen mit dem Ausgang „K“ beim 2-maligen Werfen der Münze. Die Ergebnismenge dieses Zufallsexperimentes ist Ω ={(K, K), (K, A), (A, K), (A, A)}, wobei das Element (K, A) die Ausgänge
„K“ und „A“ beim ersten und zweiten Werfen bedeutet usw. Offensichtlich kann X die Werte 0, 1 oder 2 annehmen. Welchen Wert X annimmt, kann nicht vorhergesagt werden, der Wert von X kommt zufällig zustande.
Man bezeichnet X daher als eine Zufallsvariable. Man beachte, dass durch die Zufallsvariable jedem Element von Ω eine reelle Zahl
zugeordnet wird und umgekehrt durch die Vorgabe eines möglichen Wertes von X ein Element oder mehrere Elemente von Ω bestimmt werden.
Definition einer diskreten Zufallsvariablen:
Es sei Ω die Ergebnismenge eines Zufallsexperimentes mit endlich vielen oder abzählbar unendlich vielen Ausgängen und X eine
Abbildung, die jedem Ausgang ω des Zufallsexperimentes eine reelle Zahl X( ω ) zuordnet. Man nennt X eine diskrete Zufallsvariable und die Werte, die X bei jeder Ausführung des Zufallsexperimentes animmt, Realisierungen von X. Ist x eine Realisierung von X, so bildet die durch E
x= { ω |X( ω )=x} bestimmte Menge eine Teilmenge (d.h. ein Ereignis) von Ω . Mit dem auf Ω definierten Wahrscheinlichkeitsmaß P wird die
Wahrscheinlichkeit dieses Ereignisses auch kurz durch P(E
x) = P(X = x) dargestellt.
Bezeichnungen:
Zufallsvariable werden meist mit lateinischen Großbuchstaben (z.B. X) bezeichnet, die Werte mit den entsprechenden (indizierten)
Kleinbuchstaben (z.B. x
1, x
2, ...). Im vorhin betrachteten Beispiel hat X die Bedeutung eines sogenannten Zählmerkmals.
Definition der Wahrscheinlichkeitsfunktion:
Es sei X eine diskrete Zufallsvariable. Die Variation von X wird durch
Angabe der Menge M der (höchstens abzählbar unendlich vielen)
möglichen Werte x
1, x
2, ... von X und durch Angabe der
Wahrscheinlichkeiten p
i= P(X = x
i) für x
i∈ M beschrieben. Die Funktion f: ℜ [0,1] mit f(x) = p
i= P(X = x
i) für x=x
i∈ M und f(x)=0 für x ∉ M heißt Wahrscheinlichkeitsfunktion von X. Man beachte, dass p
1+ p
2+ ... = 1ist.
Grafische Darstellung der Wahrscheinlichkeitsfunktion:
Über der X-Achse werden an den Stellen x
i(i=1, 2, …) Strecken der Länge p
iaufgetragen, wodurch ein Folge von Strecken entsteht (Stabdiagramm). Denkt man sich die Strecken mit Masse belegt, so bringt das Stabdiagramm bildlich zum Ausdruck, wie die gesamte
„Wahrscheinlichkeitsmasse“ (nämlich 1) einer diskreten Zufallsvariablen auf der reellen Achse verteilt ist. Der Vergleich mit einer Masseverteilung ist auch bei der Interpretation von Verteilungskennwerten (z.B.
Mittelwert) nützlich.
Beispiel 2.1
• Ein einfaches Beispiel einer diskreten Zufallsvariablen ist die Bernoulli-Variable X, mit der Bernoulli-Experimente beschrieben werden, d.h. Zufallsexperimente mit zwei Ausgängen ω
1und ω
2, die mit gewissen Wahrscheinlichkeiten p bzw. 1-p eintreten. Ordnet man X den Wert 1 zu, wenn das Ereignis { ω
1} eintritt, und
andernfalls der Wert 0, so erhält man die sogenannte
Zweipunktverteilung mit den durch P(X=1)=p und P(X=0)=1-p gegebenen Wahrscheinlichkeiten.
• Dreistufiges Bernoulli-Experiment
Von einer hinsichtlich der Blütenfarbe mischerbigen Erbsenpflanze (Genotyp Vw) werden nach Bestäubung mit einer anderen
mischerbigen Pflanze n = 3 Tochterpflanzen ausgewählt. Wir
X(ω)=x für ω aus Ex x ω1 R
ω2 X(ω1) X(ω2)
X(ω)=x für ω aus Exx x X(ω)=x für ω aus Ex
R
0 1
Ex Ω
p
P(Ex) = p = P({ω|X(ω)=x})
Diskrete Zufallsvariable
violett blühenden Tochterpflanzen". Offensichtlich kann X die Werte 0, 1, 2 oder 3 annehmen. Die Bestimmung der
Wahrscheinlichkeiten der Ereignisse X=0, X=1 usw. kann in anschaulicher Weise durch eine Darstellung des
Zufallsexperimentes in Form eines Baumdiagramms (V = violett, w
= weiß; p = 3/4, q=1/4) vorgenommen werden:
Das Ereignis X=0 tritt ein, wenn die erste und die zweite und die dritte Pflanze weißblühend ist. Die Wahrscheinlichkeit dafür, dass eine aus einer mischerbigen Pflanze durch Selbstbestäubung hervorgehende Tochterpflanze weißblühend ist, beträgt q=0.25.
Unter der (gegebenen) Voraussetzung, dass sich die
Ausprägungen der Tocherpflanzen voneinander unabhängig entwickeln, ergibt die Anwendung der Multiplikationsregel
P(X=0)=P(www)= q
3= 0.25
3=0.01563. Analog findet man durch Anwendung der Additions- und Multiplikationsregel die weiteren Wahrscheinlichkeiten P(X=1)=P(Vww oder wVw oder
wwV)=3q
2p=0.1406, P(X=2)=P(VVw oder VwV oder wVV)=3qp
2=0.4219 und P(X=3) = P(VVV)=p
3=0.4219. Die
Wahrscheinlichkeitsfunktion von X kann grafisch durch ein Stabdiagramm dargestellt werden:
w V w V w V w
V w V w
V p
p
p p p p
p q
q q
q q q q
V V V
V V w
V w V
V w w
W V V
W V w
W w V
W w w
A u s g ä n g e
X
3 2 2 1 2 1 1 0
w
V
0 0,1 0,2 0,3 0,4 0,5
0 1 2 3
X
P(X = x)
Man beachte, dass sich die Einzelwahrscheinlichkeiten durch Entwicklung des Binoms (q + p)
3= q
3+ 3q
2p + 3qp
2+ p
3ergeben. Diesem Zusammenhang entnimmt man wegen p+q=1, dass sich die Einzelwahrscheinlichkeiten auf 1 summieren. Die Verteilung von X ist ein Sonderfall der sogenannten
Binomialverteilung.
Lernziel 2.2:
„n-stufige Bernoulliexperimente“ und Zufallsexperimente vom Typ
„Auswählen mit Zurücklegen“ mit Hilfe der Binomialverteilung modellieren können;
Man betrachte eine Folge von n Bernoulli-Experimenten; bei jeder einzelnen Durchführung des Experiments möge das Ereignis E mit der Wahrscheinlichkeit p (=Erfolgswahrscheinlichkeit) eintreten; dabei wird vorausgesetzt, dass die Versuchsausführungen voneinander unabhängig sind.
Es gilt:
Die Zufallsvariable X = "Anzahl der Wiederholungen mit dem Ausgang E"
ist binomialverteilt mit den Parametern n und p (kurz X ∼ B
n,p); die Werte der Binomialverteilung B
n,psind für x=0, 1, 2, ... , n gegeben durch:
Für x ∉ {0, 1, 2, ..., n} ist B
n,p(x)=0.
Man beachte:
• Die Funktionsterme der B
n,p–Verteilung treten in der Entwicklung des Binoms (q+p)
nauf. Für n=0, 1, 2, ... erhält man:
)
1 ( )
, ( B ) (
P p x p n x
x x n p x n
X = = =
− −
( )
usw.
1 4
6 4
1 ) (
1 3
3 1
) (
1 2
1 ) (
1 1
1 ) (
4 0 3
1 2
2 1
3 0
4 4
3 0 2
1 1
2 0
3 3
2 0 1
1 0
2 2
1 0 0
1 1
0 0 0
q p q
p q
p q
p q
p q
p
q p q
p q
p q
p q
p
q p q
p q
p q
p
q p q
p q
p
q p q
p
⋅ +
⋅ +
⋅ +
⋅ +
⋅
= +
⋅ +
⋅ +
⋅ +
⋅
= +
⋅ +
⋅ +
⋅
= +
⋅
⋅
= +
⋅
= +
+
Die in dieser Entwicklung auftretenden Koeffizienten heißen Binomialkoeffizienten; diese können mit den Formeln
direkt berechnet werden. Dabei bedeuten n! (gelesen „n-Faktorielle“, n=2,3,4, …) = 1⋅2⋅3 ⋅⋅⋅ n die Anzahl von Permutationen (d.h.
Anordnungen) von n Elementen in einer Reihenfolge. Für die Sonderfälle n=0 und n=1 gilt: 0!=1, 1!=1.
• Der Binomialkoeffizient
x
n (gelesen „n über x“, x=0,1, ..., n) ist gleich der Anzahl der x-Kombinationen aus n Elementen, d.h. der Anzahl der Möglichkeiten, x Elemente aus einer Menge von n Elementen
auszuwählen, wobei die Reihenfolge der Auswahl ohne Belang ist.
• Mit der Binomialverteilung werden Zufallsexperimente vom Typ
„Auswählen mit Zurücklegen“ modelliert. Bei diesem Modell eines Zufallsexperimentes hat man sich eine „Urne“ mit N Elementen
vorzustellen, von denen eine bestimmte Zahl a eine weiße Farbe und die restlichen N-a eine rote Farbe aufweisen. Die Wahrscheinlichkeit dafür, ein weißes Element auszuwählen, ist p=a/N. Legt man jedes ausgewählte Element wieder zurück, bleibt die Wahrscheinlichkeit für die Auswahl eines weißen Elementes unverändert gleich p. Die
Wahrscheinlichkeit, bei zufälliger Auswahl von n Elementen x weiße und n-x rote in einer bestimmten Reihenfolge auszuwählen, ergibt sich mit Hilfe der Multiplikationsregel als
p
x(1-p)
n-x. Da es nun
x
n verschiedene Möglichkeiten gibt, die x weißen und n-x roten Elemente anzuordnen, ist das Ereignis A=
„Auswahl von x weißen Elementen bei n-maligem Auswählen mit Zurücklegen“ die Vereinigung der
x
n disjunkten Ereignisse, ein bestimmtes Anordnungsmuster der weißen und roten Elemente (z.B.
zuerst x weiße gefolgt von n-x roten) zu erhalten. Somit ist P(A) = ).
( )
1
( p B
,x
x p n
p n x n
x
− =
−n n n
x x x n
n x
x n n
n n x n
=
=
− =
⋅ =
⋅ − − +
= −
1 , 0 1
) , 3 , 2 (
! )!
(
! 3
2 1
) 1 (
) 2 )(
1
( K
L
L
Beispiel 2.2
• Wie viele Möglichkeiten m gibt es, 12 Probanden in 3 gleich große Behandlungsgruppen aufzuteilen.
Lösung:
Für die Auswahl einer Vierergruppe aus 12 Probanden (d.h. einer 4er- Kombination aus 12 Elementen) gibt es (12 über 4) Möglichkeiten; zu jeder Möglichkeit der ersten Auswahl existieren (8 über 4)
Möglichkeiten, 4er-Gruppen aus den verbleibenden 8 Elementen zu bilden. Die nach der zweiten Auswahl verbleibenden 4 Elemente bilden eine Vierergruppe, d.h. die Anzahl der möglichen 4er- Kombinationen aus 4 Elementen ist 1. Daher ist
• Die Wahrscheinlichkeit, dass eine bezüglich der Samenform
mischerbige Erbse nach Selbstbestäubung einen kantigen Samen ausbildet, ist nach der Mendel'schen Spaltungsregel gleich 1/4; die Wahrscheinlichkeit, dass ein mischerbiger Samen entsteht, ist 1/2.
Man generiere die Entwicklung von 6 Samen durch ein
Wahrscheinlichkeitsmodell und stelle die Verteilung der Anzahl X der kantigen (Fall 1) bzw. mischerbigen Samen (Fall 2) tabellarisch und grafisch dar.
Lösung:
Im Fall 1 ist X binomialverteilt mit n= 6 und p=0.25. Es ist z.B.
Im Fall 2 ist X binomialverteilt mit n= 6 und p=0.5. Es ist z.B.
34650
! 4
! 4
! 4
! 12
! 0
! 4
! 4
! 4
! 4
! 8
! 8
! 4
! 12 4 4 4 8 4
12 = = =
= m
. 2966 . 0 75 . 0 25 . )0 4 3 2 1 )(
2 1 (
6 5 4 3 2 ) 1
25 . 0 1 ( 25 . 2 0 ) 6 2 (
P 2 6 2 2 4 =
⋅
⋅
⋅
⋅
⋅
⋅
⋅
⋅
= ⋅
−
=
= −
X
. 3125 . 0 5 . ) 0 3 2 1 )(
3 2 1 (
6 5 4 3 2 ) 1
5 . 0 1 ( 5 . 3 0 ) 6 3 (
P
3 6 3 6=
⋅
⋅
⋅
⋅
⋅
⋅
⋅
⋅
= ⋅
−
=
=
−X
Man beachte:
Die Verteilungsfunktion ist im Allg. asymmetrisch; sie steigt im Falle 1 mit p=0.25 links steil an und fällt dann nach rechts flacher ab
(rechtsschiefe Verteilung). Nur für p=0.5 zeigt ist die
Wahrscheinlichkeitsfunktion symmetrisch (z.B. im Falle 2) mit der Symmetrieachse an der Stelle x=3.
Lösung mit R:
R-Script:
# Beispiel 2.2 options(digits=4)
n <- 6 # Anzahl der Wiederholungen
p1 <- 1/4 # Erfolgswahrscheinlichkeit c1 p2 <- 1/2 # Erfolgswahrscheinlichkeit c2
#
# Tabellarische Darstellung der Wahrscheinlichkeitsfunktionen x_werte <- seq(from=0, to=n, by=1)
dbinom(1,n,p1) # Wert der B(n,p)-Wahrscheinlichkeitsfunktion für x=1 dbinom_werte1 <- dbinom(x_werte, n, p1) # Vektor der B(n,p1)-Werte dbinom_werte2 <- dbinom(x_werte, n, p2) # Vektor der B(n,p2)-Werte print(cbind(x_werte, dbinom_werte1, dbinom_werte2), digits=4) # Ausgabe der Wertetabelle
sum(dbinom_werte1) # Summe der Binomialwahrscheinlichkeiten = 1!
#
# Grafische Darstellung der Wahrscheinlichkeitsverteilungen
plot(x_werte, dbinom_werte1, type="p", col="blue", xlab="x_werte", ylab="B(n,p)", main="B(n,p)-Wahrscheinlichkeitsfunktionen") lines(x_werte, dbinom_werte1, col="blue", lty=1, lwd=2)
lines(x_werte, dbinom_werte2, col="red", lty=2, lwd=2) text(0.8, 0.025, col="red", expression("n=6, p=0.5")) text(0.8, 0.18, col="blue", expression("n=6, p=0.25")) Ergebnisse:
Console:
[1] 0.3560 <B(1, ¼)>
x_werte dbinom_werte1 dbinom_werte2 <Wertetabelle>
[1,] 0 0.1779785 0.01563 [2,] 1 0.3559570 0.09375 [3,] 2 0.2966309 0.23438
% P(X =
x) x
0 1 2 3
0.0156 0.3560
0.2966 0.1318
1 2 3 4 5 6 X
20 30
0 0
10
B6,0.25
B6,0.5
B6,0.25
4 5 6
0.0330 0.0044 0.0002
B6,0.5 0.1780
0.0938 0.2344 0.3125 0.2344 0.0938 0.0156
[4,] 3 0.1318359 0.31250 [5,] 4 0.0329590 0.23438 [6,] 5 0.0043945 0.09375 [7,] 6 0.0002441 0.01563
[1] 1 <Summe der Binomialwahrscheinlichkeiten>
Grafik:
2.2 Kennzahlen von diskreten Zufallsvariablen Lernziel 2.3:
Den Mittelwert und die Varianz einer diskreten Zufallsvariablen X erklären und berechnen können.
Mit der Wahrscheinlichkeitsfunktion f wird die Zufallsvariation einer diskreten Zufallsvariablen X vollständig beschrieben. Eine
Kurzbeschreibung der Zufallsvariation erhält man, wenn man die
Wahrscheinlichkeitsfunktion hinsichtlich ihrer „Lage“ auf der horizontalen Achse (Merkmalsachse) und hinsichtlich ihrer „Form“ durch geeignete Kennzahlen beschreibt.
Das wichtigste Lagemaß ist der Mittelwert
∑ = + +
=
i i i
X
x f ( x ) x
1f ( x
1) x
2f ( x
2) L µ
0 1 2 3 4 5 6
0.000.050.100.150.200.250.300.35
B(n,p)-Wahrscheinlichkeitsfunktionen
x_werte
B(n,p)
n=6, p=0.5 n=6, p=0.25
von X; zur seiner Berechnung wird jeder Wert x
ivon X mit der
entsprechenden Wahrscheinlichkeit f(x
i)=P(X= x
i) multipliziert und die erhaltenen Produkte aufsummiert. Statt Mittelwert von X sagt man auch Erwartungswert und schreibt dafür E[X].
Hinweis:
Die Definitionsgleichung für den Mittelwert erinnert an die Formel für den Schwerpunkt von Punkten, die mit der Masse f(x
i) belegt und an den Stellen x
ider horizontalen Achse angeordnet sind. Auf der Grundlage der Schwerpunktinterpretation kann man sich den Mittelwert als zentrales Lagemaß näher bringen. Zu diesem Zweck denke man sich die
horizontale Achse mit der Massenbelegung f(x
i) an den Stellen x
ials einen Waagebalken, der an irgendeiner Stelle ξ
idrehbar gelagert ist.
Unter dem Einfluss der Schwerkraft werden die Massenpunkte links und rechts von ξ
iDrehungen im einander entgegengesetzten Sinn bewirken.
Die resultierende Drehwirkung ist null, d.h., der Balken befindet sich im Gleichgewicht, wenn ξ
imit µ
Xübereinstimmt.
Wir wenden uns nun der Beschreibung der Form der Verteilung einer diskreten Zufallsvariablen X mit der Wahrscheinlichkeitsfunktion f zu. Es erscheint nahe liegend, die Form zunächst danach zu beurteilen, ob der Graph von f einen flachen, langgestreckten Verlauf besitzt oder über einen engen Bereich der Merkmalsachse konzentriert ist. Die damit angesprochene Verteilungseigenschaft wird durch die sogenannten Streuungsmaße erfasst, von denen die Varianz bzw. die
Standardabweichung die bedeutsamsten sind.
Die Varianz von X wird als mittlere quadratische Abweichung
der Variablenwerte um den Mittelwert µ
X=E[X] eingeführt und auch durch
2
σ
Xbezeichnet. Die Quadratwurzel σ
X= σ
X2aus der Varianz heißt die Standardabweichung von X.
Speziell gilt für die Binomialverteilung mit den Parametern n und p:
[ ] X npq np p E [ ] X ( E [ ] X n )
Var
np X
E
/ 1
) 1 ( ]
[
−
=
−
=
=
=
[ ] =
−
= ∑ −
i i X i
X
x f x
X E X
Var ( µ )
2( µ )
2( )
[ ] =
−
= ∑ −
i i X i
X
x f x
X E X
Var ( µ )
2( µ )
2( )
Beispiel 2.3
• Es sei X eine Bernoulli-Variable mit den Werten 0 und 1 und es gelte P(X=1)=3/4. Man berechne den Mittelwert und die Varianz von X.
Ferner zeige man an Hand des Beispiels, dass für beliebige reelle Zahlen a, b gilt: E[aX + b]=a E[X] + b, Var[aX+ b] = a
2Var[X].
Lösung:
µ = 0 ⋅ 1/4+ 1 ⋅ 3/4 = 3/4;
σ
2X= E[(X- µ )
2] = (0-3/4)
2⋅ 1/4 + (1-3/4)
2⋅ 3/4 = 9/64+3/64 = 3/16.
E[aX+b] = b ⋅ 1/4+(a+b) ⋅ 3/4 = a ⋅ 3/4+b = a E[X]+b;
Var[aX+b] = E[(aX+b-a⋅3/4 -b)
2] =a
2⋅9/16⋅1/4 + (a-a⋅3/4)
2⋅3/4 = a
2⋅3/16
= a
2Var[X].
• Es sei X eine mit den Parametern n=6 und p=0.25 binomialverteilte Zufallsvariable. Man berechne den Mittelwert und die
Standardabweichung.
Lösung:
Mittelwert µ
X=np=6 ⋅ 0.25=1.5; Standardabweichung σ
X= √ [np(1-p)]=1,061.
Lösung mit R:
R-Script:
# Beispiel 2.3b options(digits=4)
n <- 6 # Anzahl der Wiederholungen p <- 1/4 # Erfolgswahrscheinlichkeit x_werte <- seq(from=0, to=n, by=1)
dbinom_werte <- dbinom(x_werte, n, p) # Vektor der B(n,p)-Werte
# Berechnung der Mittelwerte (Erwartungswerte)
mittelwert <- x_werte %*% dbinom_werte # %*% ist der Operator für das Skalarprodukt
print(mittelwert)
# Hinweis: Man überzeuge sich, dass für den Mittelwert die Formel gilt:
# Mittelwert = Anzahl n der Wiederholungen x Erfolgswahrscheinlichkeit p
# Berechnung der Varianzen
abweichung <- x_werte - mittelwert
varianz <- (abweichung * abweichung) %*% dbinom_werte print(varianz)
# Hinweis: Man überzeuge sich, dass für die Varianz die Formel gilt:
Varianz = n x p x (1-p) Ergebnisse:
Console:
[,1]
[1,] 1.5 <Mittelwert>
[,1]
[1,] 1.125 <Varianz>
Hinweise:
• Bei der Durchführung eines Zufallsexperiments möge mit der Wahrscheinlichkeit p ein Ereignis E auftreten. Wiederholt das Zufallsexperiment n-mal und fragt danach, wie oft unter den Wiederholungen das Ereignis „erwartet“ werden kann, so ist die erwartete Häufigkeit von E durch n × P(E) gegeben.
• Der Mittelwert ist ein Sonderfall der sogenannten Momente einer Zufallsvariablen. Das Moment k-ter Ordnung (k=1, 2, …) der diskreten Zufallsvariablen X mit den Werten x
iund der
Wahrscheinlichkeitsfunktion f ist definiert durch:
Setzt man k=1, ergibt sich als Moment erster Ordnung der Mittelwert.
Die Varianz von X hängt mit dem Moment zweiter Ordnung über die Beziehung
zusammen; dabei wurde die Regel angewendet, dass der
Erwartungswert einer Summe von Zufallsvariablen gleich der Summe der Erwartungswerte der Zufallsvariablen ist.
• Für die Berechnung von Momenten ist die momenterzeugende
Funktion von Bedeutung. Die momenterzeugende Funktion M
X: D R (R ist die Menge der reellen Zahlen und D eine Teilmenge von R) ist für eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion f durch die Abbildungsvorschrift
definiert. Die erste und zweite Ableitung von M
Xan der Stelle t=0 ist gleich dem Moment erster bzw. zweiter Ordnung von X.
• Die momenterzeugende Funktion der mit den Parametern p und n binomialverteilten Zufallsvariablen X mit den Werten x=0, 1, 2, …, n ist
[ ] = ∑
=
i
i k i k
k
E X x f x
m ( )
2 1 2 2 2
2 2 2
2
E ( X ) E X 2 E X
Xm m
X X X
X
= − = − + =
− = −
µ µ µ µ
σ
[ ( ) ] ( ) tx f x t D
E t M
i
i i
X
( ) = exp tX = ∑ exp ( ) mit ∈
[ ( ) ] ( )
( ) (
t)
nx
x x n
t
x n x
x X
p p
p p
p p
tx E
t M
− +
=
−
=
=
−
=
=
∑
∑
−
−
1 e )
1 ( x e
n
) 1 x ( exp n tX
exp )
(
Wegen
ergeben sich µ
X= m
1= np und σ
X2
= m
2-m
12
= np(1-p) als Mittelwert bzw. Varianz von X.
2.3 Weitere diskrete Verteilungen Lernziel 2.4:
Die Binomialverteilung durch die Poissonverteilung im Falle kleiner Erfolgswahrscheinlichkeiten approximieren können.
Für ein n-stufiges Bernoulli-Experiment mit der Erfolgswahrscheinlichkeit p gilt: X = "Anzahl der erfolgreichen Ausgänge" ∼ B
n,p. Die
Binomialverteilung strebt für p 0 und konstant bleibendem Mittelwert np = λ gegen die sogenannte Poissonverteilung P
λmit den
Funktionswerten
für x ∈ {0, 1, 2, ... } und P
λ(x)=0 für x ∉ {0, 1, 2, ... }.
Man beachte:
Eine gute Approximation der Binomialverteilung durch die Poissonverteilung wird bereits für n ≥ 10 und p ≤ 0.1 erreicht.
Für eine mit dem Parameter λ Poisson-verteilte Zufallsvariable gilt:
Beispiel 2.4
Bei einem Verfahren zur sterilen Abfüllung von Flaschen tritt mit der Wahrscheinlichkeit p=0.1% eine Unsterilität auf. Wie groß ist die
! e
) ( P ) (
P x
x x x
X λ λ
λ = −
=
=
λ
=
= [ ] ]
[ X Var X E
( )
[ ]
( ) ( ) ( )
[ ]
np p
n n
p p
p n p
p p
n n M m
np p
p p
n M m
t n t
t n t
t X
t n t
t X
+
−
=
− + +
− +
−
=
= ′′
=
− +
=
= ′
=
−
−
=
−
2
0 1
2 2
2
0 1
1
) 1 (
e 1
e e
1 e
) 1 (
) 0 (
e 1
e
)
0
(
Lösung:
Die Anzahl X der unsterilen Flaschen unter den 1000 Einheiten ist binomialverteilt mit n=1000 und p=0.001; die Binomialverteilung kann näherungsweise durch die Poissonverteilung P
λmit λ =np=1 ersetzt werden. Es ist P
λ(0)=e
-11
0/0! =0.3679; P
λ(1)=e
-11
1/1! =0.3679; P
λ(2)=e
-1
1
2/2! =0.1839; P
λ(3)=e
-11
3/3! =0.0613 P(X>3)=1- P
λ(0)- P
λ(1)- P
λ(2)- P
λ(3)=1.9%.
Lösung mit R:
R-Script:
# Beispiel 2.4
n <- 1000 # Umfang der Prüfstichprobe p <- 0.001 # Defektwahrscheinlichkeit
# Anzahl X der unsterilen Flaschen ist B(n,p)-verteilt
# gesucht: P(X>3)=1-P(X<=3)
#
Pklgl3 <- dbinom(0,n,p)+dbinom(1,n,p)+dbinom(2,n,p)+dbinom(3,n,p) cat("P(X<=3)= ", Pklgl3, "\n")
# Hinweis: Mit 'cat' können mehrere Objekte auf der Konsole angezeigt werden
# (mit 'print' nur eines!)
#
# schnellere Berechnung mit pbinom (kumulative Dichtefunktion) Pklgl3 <- pbinom(3,n,p)
cat("P(X<=3)= ", Pklgl3, "\n")
Pgr3 <- 1-Pklgl3 # gesuchte Wahrscheinlichkeit cat("P(X>3)= ", Pgr3, "\n")
#
# Approximation der Binomialverteilung durch die Poissonverteilung (für n>10 und p<0.1)
lambda <- n*p # Parameter der Poissonverteilung Pklgl3 <-
dpois(0,lambda)+dpois(1,lambda)+dpois(2,lambda)+dpois(3,lambda) cat("P(X<=3) mit Poissonapproximation = ", Pklgl3, "\n")
#
# schnellere Berechnung mit ppois (kumulative Dichtefunktion) Pklgl3 <- ppois(3,lambda)
cat("P(X<=3)= ", Pklgl3, "\n")
#
Pgr3 <- 1-Pklgl3 # gesuchte Wahrscheinlichkeit mit Poissonapproximation berechnet
cat("P(X>3)mit Poissonapproximation = ", Pgr3, "\n") Ergebnisse:
Console:
P(X<=3)= 0.981 <P(X<=3) mit dbinom()>
P(X<=3)= 0.981 <P(X<=3) mit pbinom()>
P(X>3)= 0.01893 <P(X>3) mit pbinom()>
P(X<=3)mit Poissonapproximation = 0.981 <P(X<=3) mit dpois()>
P(X<=3)= 0.981 <P(X<=3) mit ppois()>
P(X>3)mit Poissonapproximation = 0.01899 <P(X<=3) mit ppois()>
Lernziel 2.5:
Zufallsexperimente vom Typ „Auswählen ohne Zurücklegen“ mit Hilfe der
hypergeometrischen Verteilung modellieren können.
Es seien M eine Menge von N Elementen, von denen a<N vom Typ A sind, und X die Zufallsvariable „Anzahl der Elemente vom Typ A, wenn insgesamt n (n ≤ a, n ≤ N-a) aus der Menge M gezogenen (und nicht wieder zurückgelegt) werden“. Dann ist X hypergeometrisch verteilt mit den Parametern a, N-a und n (kurz X ∼ H
a,N-a, n). Die Funktionswerte der hypergeometrischen Verteilung H
a,N-a, nsind
für x ∈ D={x
min, x
min+1, ..., x
max} und H
a,N-a, n(x)=0 für x ∉ D; dabei ist x
min=max(0, n-N+a) und x
max=min(a, n).
Man beachte:
• Eine gute Approximation der hypergeometrischen Verteilung durch die Binomialverteilung wird bereits für n/N <0.1 und N > 60 erreicht.
•
Für eine mit den Parametern a,N-a und n hypergeometrisch verteilte
Zufallsvariable gilt:
Beispiel 2.5:
In einem Betrieb mit 30 Mitarbeitern wurden 20 prophylaktisch gegen Grippe geimpft. Insgesamt erkrankten 6 Mitarbeiter an Grippe. Unter der Annahme, dass das Erkrankungsrisiko mit und ohne Impfung gleich groß ist, bestimme man die Wahrscheinlichkeit, dass 2 der geimpften
Mitarbeiter an Grippe erkranken, also X = 2 ist. Wie groß ist der Erwartungswert von X?
Lösung:
Es ist X ∼ H
a,N-a, nmit a=20, N-a=10 und n=6
)
( )
(
P
, ,
−
−
=
=
=
−n N
x n
a N x a x
H x
X
aN an; 0672 . 0 6
5 4 3 2
30 29 28 27 26 25
4 3 2
10 9 8 7 2
20 19
! 24
! 6
! 30
! 6
! 4
! 10
! 18
! 2
! 20
6 30
4 10 2 20 )
2
( =
⋅
⋅
⋅
⋅
⋅
⋅
⋅
⋅
⋅ ⋅ ⋅
⋅
⋅
⋅
⋅
=
=
=
= X P
) 1 1 ( ]
[ , ]
[ −
− −
=
= N
n p N
np X
Var np
X E
N
N-a a
x n-x
Lösung mit R:
R-Script:
# Beispiel 2.5
N <- 30; a <- 20; na <- N-a; n <- 6
# X = Anzahl der geimpften Personen unter den Erkrankten PXgl2 <- dhyper(2, a, na, n)
cat("P(X=2)= ", PXgl2, "\n") Ergebnisse:
Console:
P(X=2) = 0.0672
2.4 Normalverteilung Lernziel 2.6:
Die Begriffe „stetige Zufallsvariable“ und Wahrscheinlichkeitsdichte erklären können.
Im Allgemeinen liefert die wiederholte Messung einer Größe X (z.B. der Spaltöffnungslänge auf den Blättern einer Pflanze) mehr oder weniger stark abweichende Ergebnisse. Die Variation der Messergebnisse zeigt an, dass der Vorgang, der die Werte von X erzeugt, den Charakter eines Zufallsexperimentes hat. Dabei sind zwei verschiedene Situationen zu unterscheiden. Es kann die Größe X zwar einen festen „wahren“ Wert besitzen, durch den Messvorgang wird dem wahren Wert aber ein Messfehler überlagert, der zu regellos um den wahren Wert
schwankenden Messergebnissen führt; in diesem Fall ist das
Zufallsexperiment mit dem Messvorgang verbunden. Oder die Werte der Größe X selbst sind bereits Ergebnisse eines Zufallsexperimentes (wie z.B. die konkrete Realisierung einer Spaltöffnung bestimmter Länge).
Definition der stetigen Zufallsvariablen:
Wir bezeichnen X als eine stetige Zufallsvariable, wenn sie einem
Zufallsexperiment zugeordnet ist und eine auf der Ergebnismenge Ω des Zufallsexperimentes definierte reellwertige Funktion mit der Eigenschaft darstellt, dass für jedes Intervall (a, b) der reellen Zahlenachse die Wahrscheinlichkeit P(a < X < b) existiert.
Definition der Wahrscheinlichkeitsdichte:
Die Zufallsvariation einer stetigen Zufallsvariablen X wird mit Hilfe der sogenannten Wahrscheinlichkeitsdichte f beschrieben. Diese ist eine für alle reellen x definierte nichtnegative Funktion, mit der die
Wahrscheinlichkeit P(a < X < b), dass X einen Wert zwischen a und b annimmt, als „Fläche unter der Dichtekurve“ zwischen x=a und x=b dargestellt wird. Es folgt, dass die Gesamtfläche unter der „Dichtekurve“
1 Flächeneinheit ist.
Hinweis:
Das Arbeiten mit stetigen Zufallsvariablen erfordert die Berechnung von
„Flächen unter der Dichtekurve“, d.h. die Berechnung von bestimmten Integralen der Art:
In der Praxis erfolgt die Berechnung mit Hilfe von tabellierten Werten der sogenannten Verteilungsfunktion F von X:
Man beachte:
• P(X ≤ b)= F(b)
• P(X ≥ a)=1 - P(X<a) = 1-F(a)
• P(a<X<b)=F(b)-F(a)
Wichtige Verteilungsfunktionen (z.B. Standardnormalverteilung, sogenannte Prüfverteilungen) sind tabelliert.
Beispiel 2.6:
a) Man stelle die Dichte- und die Verteilungsfunktion
X Dichte
a b
Fläche = P(a<X<b)
f
= ∫
<
< b
a f d b
X
a ) ( ξ ) ξ (
P
X Dichte
f
x Fläche = F(x)
= P(X < x)
∫
∞
= −
≤
= Φ
→ Φ
−
=
→ z
d f z
X z
z z
z f z
f ξ ξ
π exp 2 / 2 bzw. : ( ) P ( ) ( ) 2
) 1 ( :
∫ ∞
= −
≤
=
→ x
d f x
X x
F x
F : ( ) P ( ) ( ξ ) ξ
Lösung mit R:
R-Script:
# Beispiel 2.6a
options(digits=4) # Festlegung der signifikanten Stellen für die Ausgabe auf der Konsole
x <- seq(from=-4, to=4, by=0.5) # Definitionsbereich
N01dichte <- dnorm(x, mean=0, sd=1) # Werte der N(0,1)-Dichtefunktion N01vert <- pnorm(x, mean=0, sd=1) # Werte der Verteilungsfunktion wertetabelle <- data.frame(z_Wert=x, N01_dichtefunktion=N01dichte, N01_Verteilungsfunktion=N01vert)
wertetabelle
#
plot(x, N01vert, type="p", col="blue", xlab="z_werte", ylab="N(0,1)", main="Standardnormalverteilung") lines(x, N01vert, col="blue", lty=1, lwd=2)
text(3, 0.9, col="blue", expression("N(0,1)-Verteilung")) curve(exp(-x*x/2)/sqrt(2*pi), ad=T, col="red", lty=2, lwd=2) text(2.5, 0.15, col="red", expression("N(0,1)-Dichte")) Ergebnisse:
Console:
z_Wert N01_dichtefunktion N01_Verteilungsfunktion <Wertetabelle>
1 -4.0 0.0001338 3.167e-05 2 -3.5 0.0008727 2.326e-04 3 -3.0 0.0044318 1.350e-03 4 -2.5 0.0175283 6.210e-03 5 -2.0 0.0539910 2.275e-02 6 -1.5 0.1295176 6.681e-02 7 -1.0 0.2419707 1.587e-01 8 -0.5 0.3520653 3.085e-01 9 0.0 0.3989423 5.000e-01 10 0.5 0.3520653 6.915e-01 11 1.0 0.2419707 8.413e-01 12 1.5 0.1295176 9.332e-01 13 2.0 0.0539910 9.772e-01 14 2.5 0.0175283 9.938e-01 15 3.0 0.0044318 9.987e-01 16 3.5 0.0008727 9.998e-01 17 4.0 0.0001338 1.000e+00 Grafik:
-4 -2 0 2 4
0.00.20.40.60.81.0
Standardnormalverteilung
z_werte
N(0,1)
N(0,1)-Verteilung
N(0,1)-Dichte
b) Es sei Z eine standardnormalverteilte Zufallsvariable mit der
Verteilungsfunktion Φ . Man berechne P(Z>1), P(Z ≤ -1), P(0 ≤ Z ≤ 1) und P(-1<Z<1).
Lösung:
P(Z>1)=1-P(Z ≤ 1)=1-0.8413=0.1587;
P(Z ≤ -1)=P(Z ≥ 1)=1-P(Z<1)= 0.1587;
P(0 ≤ Z ≤ 1)= Φ (1)- Φ (0)=0.8413-0.5=0.3413;
P(-1<Z<1)= Φ (1)- Φ (-1)= Φ (1)-[1- Φ (1)]=2 Φ (1)-1=2 ⋅ 0.8413-1=0.6826.
Lösung mit R:
R-Script:
# Beispiel 2.6b
PZgr1 <- 1-pnorm(1, mean=0, sd=1) PZklm1 <- pnorm(-1, mean=0, sd=1)
PZgr0kl1 <- pnorm(1, mean=0, sd=1)-pnorm(0, mean=0, sd=1) PZgrm1kl1 <- pnorm(1, mean=0, sd=1) - pnorm(-1, mean=0, sd=1) print(cbind(PZgr1, PZklm1, PZgr0kl1, PZgrm1kl1))
Ergebnisse:
Console:
PZgr1 PZklm1 PZgr0kl1 PZgrm1kl1 [1,] 0.1587 0.1587 0.3413 0.6827
Lernziel 2.7:
Die Kennzahlen Mittelwert und Standardabweichung sowie die Quantile von stetigen Zufallsvariablen erklären können.
Der Mittelwert µ
Xoder Erwartungswert E[X] einer stetigen
Zufallsvariablen X mit der Dichtefunktion f wird durch das Integral
definiert. Wie im diskreten Fall kann µ
Xmechanisch als
Schwerpunktskoordinate veranschaulicht werden; wenn man
nämlich die Merkmalsachse mit variabler Masse so belegt, dass f(x) die Massendichte an der Stelle x ist, liegt der Schwerpunkt dieser
Massenverteilung genau an der Stelle µ
X. Hinweis:
Bei symmetrischer Dichtekurve stimmt die Lage des Mittelwerts mit der Symmetriestelle überein.
Die Varianz Var[X] (oder σ
X2) von X ist als der Erwartungswert der quadratischen Abweichung der Zufallsvariablen X von ihrem Mittelwert µ
∫ ∞ +
∞
= −
= E X xf x dx
X [ ] ( )
µ
Die Quadratwurzel σ
X= σ
X2aus der Varianz heißt die Standardabweichung von X.
Neben dem Mittelwert und der Standardabweichung sind der Median und der Quartilabstand weitere Maßzahlen zur Kennzeichnung der zentralen Lage bzw. der Streuung einer stetigen Zufallsvariablen X.
Der Median x
0,5ist derjenige Wert von X, der mit 50%-iger
Wahrscheinlichkeit unter- bzw. überschritten wird, d.h., für den gilt:
P(X ≤ x
0,5) = P(X ≥ x
0,5) = 0.5. Die an der Stelle x
0,5der Merkmalsachse errichtete Ordinate teilt die Fläche „unter“ der Dichtekurve in zwei
Hälften.
Der Median ist ein Spezialfall eines allgemeineren Lagemaßes, des sogenannten γ -Quantils mit x
γ(0< γ <1); x
γist der durch die Forderung P(X ≤ x
γ) = γ festgelegte Wert von X, also jener Wert, der mit der Wahrscheinlichkeit γ unterschritten wird.
Das 25%-Quantil x
0.25und das 75%-Quantil x
0.75heißen auch das untere bzw. das obere Quartil. Die Differenz x
0.75- x
0.25aus dem oberen und unteren Quartil ist der Quartilabstand.
Beispiel 2.7:
a) Es sei Z eine standardnormalverteilte Zufallsvariable ( µ =0 und σ =1).
Man zeige: Die Wahrscheinlichkeit, dass Z einen Wert im einfachen Streubereich (- σ , σ ) annimmt, ist 68.3%.
Lösung:
P(- σ <Z< σ )= P(-1<Z<1)=68.26%
b) Man berechne das 95%-, 97.5%- und 2.5%-Quantil einer standardnormalverteilten Zufallsvariablen.
X
1 2 3
0 xγ -2 -3
0.1 0.2
f Dichte
Φ(xγ ) = γ
∫ ∞ +
∞
− −
=
−
=
= Var X E X x f x dx
X X
X
[ ] [( ) 2 ] ( ) 2 ( )
2 µ µ
σ
Lösung:
Φ (z
0.95)=0.95 Tabelle x
0.95=1.65; Φ (z
0.975)=0.975 Tabelle z
0.95=1.96; Φ (z
0.025)=0.025 Symmetrie! z
0.025=- x
0.975=-1.96.
Lösung mit R:
R-Script:
# Beispiel 2.7b
z0950 <- qnorm(0.95, mean=0, sd=1) z0975 <- qnorm(0.975, mean=0, sd=1) z0025 <- qnorm(0.025, mean=0, sd=1) print(cbind(z0950, z0975, z0025)) Ergebnisse:
Console:
z0950 z0975 z0025 [1,] 1.645 1.96 -1.96
Lernziel 2.8:
Verteilungsfunktionswerte und Quantile der allgemeinen Normalverteilung berechnen können.
Definition der allgemeinen Normalverteilung:
X heißt normalverteilt mit dem Mittelwert µ und der Varianz σ
2(kurz: X ∼ N( µ , σ
2)), wenn Z = (X- µ )/ σ standardnormalverteilt ist.
Man beachte:
• Es sei X ∼ N( µ , σ
2). Wegen
Ist der Wert der Verteilungsfunktion F von X an der Stelle x gleich dem Wert der Standardnormalverteilungsfunktion Φ an der
Stelle (x-µ)/σ.
• Dichtefunktionen der allgemeinen Normalverteilung zu verschiedenen Werten von µ und σ :
X µ = 0
σ = 1
0.8
Dichte
0.6
0.2
µ = 2, σ = 0.5
µ = 4, σ = 1.5
− < − = Φ −
=
<
= σ µ
σ µ
σ µ x x
x X X
F(x) P ( ) P
• Gleichung der Dichtefunktion von X :
Beispiel 2.8:
Es sei X ∼ N( µ , σ
2) mit µ =15 und σ
2=16. Man berechne:
P(X < 10), P(X > 10), P(10 ≤ X ≤ 20) sowie das Quantil x
0.95! Lösung:
P(X<10) = F(10)= Φ [(10-15)/4]= Φ (-1.25)=1- Φ (1.25)=1-0.8944=0.1056;
P(X>10) = 1-F(10) = 1-0.1056 = 0.8944;
P(10 ≤ X ≤ 20) = F(20) - F(10) = Φ [(20-15)/4]-F(10)=
Φ (1.25) - F(10) = 0.8944 - 0.1056 = 0.7888;
P(X ≤ x
0.95)=0.95 ⇔ P[(X- µ )/ σ ≤ (x
0.95-15)/4] = 0.95 ⇔ Φ [(x
0.95-15)/4] = 0.95
(x
0.95-15)/4 = 1.65 x
0.95= 15+4 ⋅ 1.65 = 21.6.
Lösung mit R:
R-Script:
# Beispiel 2.8 mittelwert <- 15 varianz <- 16
std <- sqrt(varianz)
#
PXkl10 <- pnorm(10, mean=mittelwert, sd=std) PXgr10 <- 1 - pnorm(10, mean=mittelwert, sd=std)
PXgr10kl20 <- pnorm(20, mean=mittelwert, sd=std)-pnorm(10, mean=mittelwert, sd=std)
print(cbind(PXkl10, PXgr10, PXgr10kl20))
#
# Berechnung des 95%-Quantils
x0950 <- qnorm(0.95, mean=mittelwert, sd=std) cat("95%-Quantil= ", x0950, "\n")
Ergebnisse:
Console:
PXkl10 PXgr10 PXgr10kl20 [1,] 0.1056 0.8944 0.7887 95%-Quantil= 21.58
2.5 Monte Carlo-Simulationen
Ein Zufallsexperiment mit den Ausgang E und dem dazu komplemen- tären Ausgang E
cwird n-mal ausgeführt. Die Wahrscheinlichkeit dafür, dass E eintritt, sei bei jeder Durchführung des Experimentes gleich p.
Die Anzahl der Durchführungen des Zufallsexperimentes mit dem Ausgang E sei X.
−
=
→ 2
) (
2 - 1 2 exp
) 1 (
: σ µ
π
σ
x x
f
x
f
Dann gilt das sogenannte Gesetz der großen Zahlen von Bernoulli, nach dem zu einer beliebigen positiven Zahl ε >0 die Wahrscheinlichkeit, dafür, dass X/n von p um weniger als ε abweicht, mit wachsendem n gegen den Wert 1 strebt.
Dieses Ergebnis legt nahe, die Wahrscheinlichkeit p eines Ereignisses E in Verbindung mit einem Zufallsexperiment durch die relative Häufigkeit X/n zu schätzen, mit der E bei n Wiederholungen des
Zufallsexperimentes auftritt.
Auf das Gesetz der großen Zahlen wird in Simulationsexperimenten (Monte Carlo-Simulationen) zurückgegriffen. Für Simulationsexperi- mente werden Zufallszahlen benötigt; eine besondere Bedeutung kommt dabei den Zufallszahlen zu, die Realisierungen einer im Intervall von 0 bis 1 gleichverteilen Zufallsvariablen sind.
Die stetige Zufallsvariable X heißt im Intervall [0, 1] gleichverteilt, wenn die Dichtefunktion von X durch
>
≤
≤
<
=
1 für 0
1 0
für 1
0 für 0 ) (
x x x x
f
gegeben ist. Da die Dichtekurve die Form eines Rechtecks hat, spricht man auch von einer Rechteckverteilung.
Beispiel 2.9
Wir bestimmen die Zahl π durch ein Simulationsexperiment und betrachten dazu einen Viertelkreis V mit dem Radius 1 und das den Viertelkreis beinhaltende Quadrat Q mit der Seite 1.
Offensichtlich ist das Verhältnis der Flächeninhalte A
V/A
Q= π /4; dieses Flächenverhältnis stimmt mit der Wahrscheinlichkeit p überein, dass ein zufällig aus dem Quadrat ausgewählter Punkt P(x, y) im Kreis liegt, d.h., dass x
2+y
2<1 ist. Die zufällige Auswahl eines Punktes wird so
vorgenommen, dass sowohl seine x-Koordinate als auch die y-
Koordinate als Realisation einer im Intervall von 0 bis 1 gleichverteilten Zufallsvariablen generiert werden.
Indem wir auf diese Weise eine große Anzahl n von Punkten generieren
und die Anzahl x jener Punkte miterfassen, die im Viertelkreis liegen,
kann die Wahrscheinlichkeit p durch x/n geschätzt werden. Gleichsetzen
mit π /4 führt auf den Näherungswert 4x/n für π . Eine Simulation mit
R-Script:
# Beispiel 2.9a
# Monte Carlo-Simulation zur Berechnung von pi punkt <- function(n_sim){
H <- 0
x <- runif(n_sim); y <- runif(n_sim); r <- x*x + y*y for (i in (1:n_sim)){
if (r[i] <= 1) {H <- H+1}}
h <- H/n_sim return(h)}
n_sim <- 10000
pi_est <- 4*punkt(n_sim) print(cbind(n_sim, pi_est)) Ergebnis:
Console:
n_sim pi_est [1,] 10000 3.1468
Anmerkung:
Mit Hilfe von im Intervall von 0 bis 1 gleichverteilten Zufallzahlen können in einfacher Weise z.B. standardnormalverteilte Zufallszahlen gewonnen werden. Es sei X eine im Intervall [0, 1) gleichverteilte Zufallsvariable mit der Realisierung x. Dann ist z = Φ
-1(x) die Realisierung einer
standardnormalverteilten Zufallsvariablen Z.
2.6 Übungsbeispiele
1. Bei einem Test werden 5 Aufgaben derart gestellt, dass es bei jeder Aufgabe 4 Antwortmöglichkeiten gibt, von denen genau eine die richtige ist. Wie groß ist die Wahrscheinlichkeit, dass man mehr als die Hälfte der Aufgaben richtig löst, wenn die Lösungsauswahl aufs Geratewohl erfolgt, d.h., jeder Lösungsvorschlag mit der Wahrscheinlichkeit 1/4 gewählt wird? (10.35%)
2. Für bestimmte Blumenzwiebeln wird eine Wahrscheinlichkeit von mindestens 80% garantiert, dass eine Zwiebel nach dem Einsetzen austreibt. Jemand kauft 5 Zwiebeln und stellt fest, dass nur 3 austreiben. Unter der Voraussetzung, dass die garantierte Mindestwahrscheinlichkeit von 80% zutrifft, gebe man die
Wahrscheinlichkeit dafür an, dass höchstens 3 der 5 Zwiebeln austreiben.
(26.27%)
3. Es sei angenommen, dass linksseitige und rechtsseitige Migräne gleich wahrscheinlich sind. Wie groß ist die Wahrscheinlichkeit, dass von 10 zufällig ausgewählten Migränepatienten gleich viele an links- wie rechtsseitiger Migräne leiden? (24.61%)
4. Bei einem Herstellungsverfahren ist die Wahrscheinlichkeit, dass die Länge eines Produktes die obere Toleranzgrenze überschreitet bzw. die untere
Toleranzgrenze unterschreitet jeweils gleich 2,5%. Man gebe die
Wahrscheinlichkeit an, dass von 10 Produkten höchstens 2 außerhalb des Toleranzbereiches liegen! (98.85%)