4.3.2 Zusammengesetzte Zufallsvariablen
Beispiel 47
Ein W¨ urfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gew¨ urfelten Augenzahlen.
F¨ ur Z gilt z.B.:
Pr[Z = 1] = Pr[∅] = 0,
Pr[Z = 4] = Pr[{(1, 3), (2, 2), (3, 1)}] = 36 3 .
F¨ ur die Verteilung der Summe zweier unabh¨ angiger Zufallsvariablen gilt der folgende Satz:
Satz 48
F¨ ur zwei unabh¨ angige Zufallsvariablen X und Y sei Z := X + Y . Es gilt
f Z (z) = X
x∈W
Xf X (x) · f Y (z − x) .
DS II 4.3 Mehrere Zufallsvariablen 106/119
c
Ernst W. Mayr
Beweis:
Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = X
x∈W
XPr[X + Y = z | X = x] · Pr[X = x]
= X
x∈W
XPr[Y = z − x] · Pr[X = x]
= X
x∈W
Xf X (x) · f Y (z − x) .
Den Ausdruck P
x∈W
Xf X (x) · f Y (z − x) aus Satz 48 nennt man
in Analogie zu den entsprechenden Begriffen bei Potenzreihen auch
Faltung oder Konvolution der Dichten f X und f Y .
Beispiel (Forts.)
Berechne die Dichte von Z = X + Y : Pr[Z = z] = X
x∈W
XPr[X = x] · Pr[Y = z − x]
=
6
X
x=1
1
6 · Pr[Y = z − x] =
min{6,z−1}
X
x=max{1,z−6}
1 36 . F¨ ur 2 ≤ z ≤ 7 erhalten wir
Pr[Z = z] =
z−1
X
i=1
1
36 = z − 1 36 . Und f¨ ur 7 < z ≤ 12:
Pr[Z = z] = 13 − z 36 .
DS II 4.3 Mehrere Zufallsvariablen 108/119
c
Ernst W. Mayr
4.3.3 Momente zusammengesetzter Zufallsvariablen
Satz 49 (Linearit¨ at des Erwartungswerts)
F¨ ur Zufallsvariablen X 1 , . . . , X n und X := a 1 X 1 + · · · + a n X n mit a 1 , . . . , a n ∈ R gilt
E [X] = a 1 E [X 1 ] + · · · + a n E [X n ] . Beweis:
E [X ] = X
ω∈Ω
(a
1· X
1(ω) + . . . + a
n· X
n(ω)) · Pr[ω]
= a
1· X
ω∈Ω
X
1(ω) · Pr[ω]
!
+ · · · + a
n· X
ω∈Ω
X
n(ω) · Pr[ω]
!
= a
1· E [X
1] + . . . + a
n· E [X
n] .
Beispiel 50
n betrunkene Seeleute torkeln nach dem Landgang in ihre Kojen.
Sie haben v¨ ollig die Orientierung verloren, weshalb wir annehmen, dass jede Zuordnung der Seeleute zu den n Betten gleich
wahrscheinlich ist (genau ein Seemann pro Bett). Wie viele Seeleute liegen im Mittel im richtigen Bett?
Die Anzahl der Seeleute im richtigen Bett z¨ ahlen wir mit der Zufallsvariablen X, die als Summe der Zufallsvariablen X 1 , . . . , X n
dargestellt wird, wobei
X i :=
( 1 falls Seemann i in seinem Bett liegt, 0 sonst.
Offenbar gilt X := X 1 + · · · + X n .
DS II 110/119
c
Ernst W. Mayr
Beispiel 50
F¨ ur die Variablen X i erhalten wir Pr[X i = 1] = n 1 , da jedes Bett von Seemann i mit gleicher Wahrscheinlichkeit aufgesucht wird.
Daraus folgt
E [X i ] = 0 · Pr[X i = 0] + 1 · Pr[X i = 1] = 1 n , und somit
E[X] =
n
X
i=1
E[X i ] =
n
X
i=1
1 n = 1 .
Im Mittel hat also nur ein Seemann sein eigenes Bett aufgesucht.
Satz 51 (Multiplikativit¨ at des Erwartungswerts) F¨ ur unabh¨ angige Zufallsvariablen X 1 , . . . , X n gilt
E[X 1 · · · · · X n ] = E[X 1 ] · · · · · E[X n ] . Beweis:
Wir beweisen den Fall n = 2. Der allgemeine Fall ist analog.
E [X · Y ] = X
x∈W
XX
y∈W
Yxy · Pr[X = x, Y = y]
Unabh.
= X
x∈W
XX
y∈W
Yxy · Pr[X = x] · Pr[Y = y]
= X
x∈W
Xx · Pr[X = x] X
y∈W
Yy · Pr[Y = y]
= E [X] · E [Y ] .
DS II 4.3 Mehrere Zufallsvariablen 111/119
c
Ernst W. Mayr
Dass f¨ ur die G¨ ultigkeit von Satz 51 die Unabh¨ angigkeit der
Zufallsvariablen wirklich notwendig ist, sieht man beispielsweise am Fall Y = −X f¨ ur eine Zufallsvariable mit einer von Null
verschiedenen Varianz. Dann gilt
E[X · Y ] = − E[X 2 ] 6= −(E[X]) 2 = E[X] · E[Y ] .
Definition 52
Zu einem Ereignis A heißt die Zufallsvariable
I A :=
( 1 falls A eintritt, 0 sonst
Indikatorvariable des Ereignisses A.
Beobachtung:
F¨ ur die Indikatorvariable I A gilt nach Definition E [I A ] = 1 · Pr[A] + 0 · Pr[ ¯ A] = Pr[A] . Ebenso gilt
E [I A1 · . . . · I An] = Pr[A 1 ∩ . . . ∩ A n ],
] = Pr[A 1 ∩ . . . ∩ A n ],
da das Produkt von Indikatorvariablen genau dann gleich 1 ist, wenn alle entsprechenden Ereignisse eintreten.
DS II 4.3 Mehrere Zufallsvariablen 113/119
c
Ernst W. Mayr
Beispiel (Forts.)
Wir betrachten wieder das Beispiel der total betrunkenen Matrosen.
Sei A i das Ereignis, dass der i-te Seemann im richtigen Bett liegt.
Mit der Notation der Indikatorvariablen sei X i = I Ai. Dann gilt f¨ ur beliebige i, j ∈ {1, . . . , n}, i 6= j:
E [X i X j ] = E [I AiI Aj] = Pr[A i ∩ A j ] = 1 n(n − 1) , sowie
] = Pr[A i ∩ A j ] = 1 n(n − 1) , sowie
E [X i 2 ] = 0 2 · Pr[ ¯ A i ] + 1 2 · Pr[A i ] = Pr[A i ] = 1/n.
Beispiel (Forts.)
Daraus folgt wegen der Linearit¨ at des Erwartungswerts f¨ ur X = X 1 + · · · + X n :
E [X 2 ] = E
n
X
i=1
X i 2 +
n
X
i=1
X
j6=i
X i X j
= n · 1
n + n(n − 1) · 1
n(n − 1) = 2 . F¨ ur die Varianz erhalten wir somit den Wert
Var[X] = E[X 2 ] − E[X] 2 = 2 − 1 = 1.
DS II 4.3 Mehrere Zufallsvariablen 115/119
c
Ernst W. Mayr
Einfacher Beweis f¨ ur Satz 9 mit Hilfe von Indikatorvariablen:
Zur Erinnerung:
Satz 9 (Siebformel, Prinzip der Inklusion/Exklusion) F¨ ur Ereignisse A 1 , . . . , A n (n ≥ 2) gilt:
Pr
" n [
i=1
A i
#
=
n
X
i=1
Pr[A i ] − X
1≤i
1<i
2≤n
Pr[A i1∩ A i2] + − . . . + (−1) l−1 X
] + − . . . + (−1) l−1 X
1≤i
1<...<i
l≤n
Pr[A i1∩ . . . ∩ A il] + − . . .
+ (−1) n−1 · Pr[A 1 ∩ . . . ∩ A n ] .
] + − . . .
+ (−1) n−1 · Pr[A 1 ∩ . . . ∩ A n ] .
Beweis:
Zur Erinnerung: Zu Ereignissen A 1 , . . . , A n wollen wir die Wahrscheinlichkeit Pr[B] des Ereignisses B := A 1 ∪ . . . ∪ A n
ermitteln.
Wir betrachten die Indikatorvariablen I i := I Ai der Ereignisse A 1 , . . . , A n und die Indikatorvariable I B ¯ des Ereignisses B ¯ . Das Produkt Q n
i=1 (1 − I i ) ist genau dann gleich 1, wenn I 1 = . . . = I n = 0, d.h. wenn B nicht eintritt. Somit gilt I B ¯ = Q n
i=1 (1 − I i ) und wir erhalten:
I B ¯ = 1 − X
1≤i≤n
I i + X
1≤i
1<i
2≤n
I i1I i2 − + . . . + (−1) n I 1 · . . . · I n .
− + . . . + (−1) n I 1 · . . . · I n .
DS II 117/119
c
Ernst W. Mayr
Beweis:
Wegen der Eigenschaften von Indikatorvariablen gilt Pr[B] = 1 − Pr[ ¯ B] = 1 − E [I B ¯ ].
Mit Hilfe von Satz 49 und Satz 51
” verteilen“ wir den
Erwartungswert auf die einzelnen Produkte von Indikatorvariablen.
Wenn wir nun E[I i ] durch Pr[A i ] und allgemein E[I i1 · . . . · I ik]
durch Pr[A i1∩ . . . ∩ A ik] ersetzen, haben wir Satz 9 (noch einmal)
bewiesen.
]
durch Pr[A i1∩ . . . ∩ A ik] ersetzen, haben wir Satz 9 (noch einmal)
bewiesen.
] ersetzen, haben wir Satz 9 (noch einmal)
bewiesen.
Satz 53
F¨ ur unabh¨ angige Zufallsvariablen X 1 , . . . , X n und X := X 1 + . . . + X n gilt
Var[X] = Var[X 1 ] + . . . + Var[X n ] . Beweis:
Wir betrachten nur den Fall n = 2 mit den Zufallsvariablen X und Y .
E [(X + Y )
2] = E [X
2+ 2XY + Y
2] = E [X
2] + 2 E [X ] E [Y ] + E [Y
2] E [X + Y ]
2= ( E [X ] + E [Y ])
2= E [X]
2+ 2 E [X ] E [Y ] + E [Y ]
2Wir ziehen die zweite Gleichung von der ersten ab und erhalten
E [(X + Y ) 2 ] − E [X + Y ] 2 = E [X 2 ] − E [X] 2 + E [Y 2 ] − E [Y ] 2 . Mit Hilfe von Satz 38 folgt die Behauptung.
DS II 4.3 Mehrere Zufallsvariablen 118/119
c
Ernst W. Mayr