Stochastik, Sommersemester 2014 Prof. Dr. I. Veselić Dr. M. Tautenhahn, Dr. C. Schumacher Hausaufgabe 8
Abgabe am 2.6. oder am 4.6. in der Übung
Aufgabe 1. Eine Münze mit Wahrscheinlichkeit p ≥ 1/2 für „Zahl“ wird wiederholt geworfen. Sei A
k, k ∈ N , das Ereignis, dass bei den Würfen 2
k, 2
k+ 1, . . . , 2
k+1− 1 mindestens k Mal in Folge „Zahl“
fällt. Zeigen Sie, dass
P (A
ktritt für unendlich viele k ein) = 1.
Hinweis: Definieren Sie das Ereignis E
i,k= {X
j= 1 für alle j = 2
k+ ik, 2
k+ ik + 1, . . . , 2
k+ ik + k − 1}, k ∈ N und i = 0, . . . b2
k/k − 1c. Benutzen Sie einen Satz von Borel-Cantelli.
Lösung zu Aufgabe 1: (Borel–Cantelli) borelcantelliII.tex Die Ereignisse E
i,ksind unabhängig, und es gilt P (E
i,k) = p
kund
X
i,k
P (E
i,k) =
∞
X
k=1
b2k/kc−1
X
i=0
p
k≥
∞
X
k=1
2
kk − 1
p
k≥
∞
X
k=1
1
k − p
k= ∞.
Nach BorelCantelli II ist P (lim sup
i,kE
i,k) = 1. Weiter gilt lim sup
(i,k)E
i,k⊆ lim sup
kA
k, also 1 ≥ P (lim sup
kA
k) ≥ P (lim sup
(i,k)E
i,k) = 1.
Kommentar zu Borel–Cantelli:
Alternativlösung I: Die Ereignisse A
k, k ∈ N sind unabhängig. Nach dem zweiten Borel-Cantelli- Lemma müssen wir nur
P∞k=1P (A
k) = ∞ zeigen. Da
Sb2i=0k/kc−1E
i,k⊆ A
kfür k ∈ N , ist
P∞k=1P (A
k) ≥
P∞k=1
P (
Sb2i=0k/kc−1E
i,k). Wegen der Unabhängigkeit der E
i,k’s ist P
b2k/kc−1
[
i=0
E
i,k
= 1 − P
b2k/kc−1
\
i=0
(Ω \ E
i,k)
= 1 −
b2k/kc−1
Y
i=0
(1 − P (E
i,k)) = 1 − (1 − p
k)
b2k/kc. Wir verwenden 1 − x ≤ e
−xfür x ∈ R mit x := p
kund danach p ≥ 1/2 für die untere Schranke
P
[b2k/kc−1 i=0
E
i,k≥ 1 − e
−pkb2k/kc≥ 1 − e
−(2p)k/k+pk≥ 1 − e
pk−k−1.
Der Term 1 − e
pk−k−1= 1 − (1 + p
k− 1/k + O(k
−2)) = 1/k + O(k
−2) verhält sich wie 1/k. Ein rigoroser Weg, das auszunutzen, geht über asymptotische Äquivalenz. Zwei Folgen (a
n)
n, (b
n)
nheißen asymptotisch äquivalent, wenn lim
n→∞
an
bn
= 1. Asymptotische Äquivalenz von Folgen entscheidet über die Konvergenz der zugehörigen Reihen:
Lemma. Asymptotisch äquivalente, positive Folgen (a
n)
n, (b
n)
nerfüllen
Xn∈N
a
n= ∞ ⇐⇒
Xn∈N
b
n= ∞.
Beweis. Seien zwei positive, asymptotisch äquivalente Folgen (a
n)
n, (b
n)
ngegeben und
Pnb
n= ∞. Es gibt ein n
0∈ N , so dass
abnn
≥
12für alle n ≥ n
0gilt. Also ist
Xn∈N
a
n=
Xn∈N
a
nb
nb
n≥ 1 2
X
n≥n0
b
n= ∞.
Wir untersuchen, ob (1 − e
pk−1/k)
kund (1/k)
kasymptotisch äquivalent sind. Die Regel von l’Hospital hilft:
k→∞
lim
1 − e
pk−k−1k
−1= lim
k→∞
−e
pk−k−1(p
kln p + k
−2)
−k
−2= lim
k→∞
k
2p
kln p + 1 = 1.
Da die harmonische Reihe
P∞k=11/k = ∞ divergiert und die Folge P (
SiE
i,k)
kasymptotisch äquivalent zu (1/k)
kist, divergiert auch
PkP (
SiE
i,k), und damit ist
PkP (A
k) = ∞ und alles gezeigt.
Alternativlösung II: Wir schlagen den Hinweis in den Wind und überlegen uns eine Abschätzung der P (A
k) nach unten mittels einer Rekursionsformel. Anschließend werden wir zeigen, dass die Reihe
Pk∈N
P (A
k) mindestens so schnell divergiert wie die harmonische Reihe.
Ohne Beschränkung der Allgemeinheit genügt es, den Fall p = 1/2 zu betrachten. Ist p > 1/2, so erhöht sich die Wahrscheinlichkeit, dass ein Ereignis A
keintritt, noch. Wenn die Reihe
Pk∈N
P (A
k) für p = 1/2 divergiert, so sicher auch für jedes größere p.
Es ist egal, wie wir die Münzwürfe nummerieren, deshalb ist die Wahrscheinlichkeit dafür, dass das Ereignis A
keintritt gleich der Wahrscheinlichkeit, dass es bei einem 2
k-fachen Münzwurf eine Serie von k aufeinanderfolgenden Zahlausgängen gibt. Analog ist P (A
k+1) gleich der Wahrscheinlichkeit, dass bei einem 2
k+1-fachen Münzwurf eine Serie von k + 1 aufeinanderfolgenden Zahlausgängen gibt.
Wir zerlegen den 2
k+1-fachen Münzwurf in zwei 2
k-fache Münzwürfe. Das Ereignis A
k+1tritt ein, wenn in einem der beiden 2
k-Blöcke k + 1 aufeinanderfolgende Zahl-Ausgänge eintreten. Dies tritt ein, wenn in einem 2
k-Block k aufeinanderfolgende Zahlereignisse auftreten und das auf den k-Block folgende Ereignis wiederum Zahl ist. Abziehen müssen wir davon noch die Wahrscheinlichkeit, dass die k aufeinanderfolgenden Zahl-Ereignisse ganz am Schluss stattfinden. Wir haben deshalb
P (A
k+1) ≥ 1
2 · P (A
k)
| {z }
tritt im ersten Block auf
+ 1
2 · P (A
k)
| {z }
tritt im zweiten Block auf
− 1
2 · P (A
k)
2| {z }
tritt in beiden Blöcken auf
− 1
2
k|{z}
am Schluss
,
weil die Münzwürfe voneinander unabhängig sind. Setzen wir q
n:= P (A
n), so haben wir folgende rekursive Abschätzung gefunden:
q
k+1≥ q
k− 1 4 q
k2− 1
2
k. Wir definieren s
k: [0, 1] → R, q
k7→ q
k−
14q
k2−
21k. Wir haben
s
0k(x) = 1 − 1
2 · x ≥ 0,
d. h. s
kist monoton wachsend. Nehmen wir an, wir hätten k, n ∈ N gefunden, so dass q
k≥
1n. Ein solches n existiert für jedes k, da k > 0. Dann gilt
q
k+1= s
k(q
k) ≥ s
k1
n
= 1 n − 1
4 · 1 n
2− 1
2
k= 4n (n + 1) − n − 1 4n
2(n + 1) − 1
2
k= 4n
2+ 3n − 1 4n
2(n + 1) − 1
2
k= 1
n + 1 + 3n − 1
4n
2(n + 1) − 1 2
k.
Wählen wir nun das k groß genug, so wird dieser Ausdruck größer als 1/(n + 1), und da 1/2
kmit wachsendem k schneller fällt als
4n3n−12(n+1)für konstantes n − k, wird q
k+`≥
n+`1für alle ` ∈ N gelten.
Damit divergiert die Reihe
Pk∈N
q
kmindestens so schnell wie die harmonische Reihe, insbesondere divergiert sie. Die Ereignisse A
ksind alle unabhängig, denn sie hängen paarweise von unterschiedlichen Münzwürfen ab, und die Münzwürfe sind voneinander unabhängig. Nach Teil (ii) des Borel-Cantelli- Lemmas folgt somit
P
lim sup
n→∞
A
n= 1,
was zu zeigen war.
Aufgabe 2. Es seien X und Y unabhängige Zufallvariablen und Z = X + Y . Bestimmen Sie die Verteilung von Z falls
(a) X und Y mit den Parametern λ und µ Poisson-verteilt sind.
(b) X und Y mit den Parametern (µ
1, σ
21) und (µ
2, σ
22) normalverteilt sind.
(c) X und Y mit den Parametern (n
1, p) und (n
2, p) binomialverteilt sind.
Lösung zu Aufgabe 2: (Faltung Poisson, Normal und Binomial) faltungkonkret.tex (a) Für n ∈ N ∪ {0} haben wir
P ({Z = n}) = P ({X + Y = n}) = P
n
[
k=0
{X = k, Y = n − k}
!
=
n
X
k=0
P ({X = k, Y = n − k}) =
n
X
k=0
P ({X = k}) · P ({Y = n − k})
=
n
X
k=0
λ
kk! · e
−λ· µ
n−k(n − k)! · e
−µ= e
−(λ+µ)n!
n
X
k=0
n!
k! (n − k)! µ
n−kλ
k= e
−(λ+µ)n!
n
X
k=0
n k
!
µ
n−kλ
k= (λ + µ)
nn! e
−(λ+µ). Folglich ist Z poissonverteilt mit Parameter λ + µ.
(b) Die Normalverteilung zum Parameter µ, σ
2besitzt die Dichtefunktion f (x) = 1
σ √
2π e
−12(
x−µσ)
2Seien f
Xbzw. f
Ydie Dichten von µ
Xbzw. µ
Y. In der Vorlesung haben wir bewiesen, dass die Verteilung µ
Z= µ
X∗ µ
Yauch eine Dichte f
Zbesitzt, nämlich f
X∗ f
Y. Wir setzen u = t − µ
1, µ ˜ = µ
1+ µ
2sowie v = u −
(x−˜µ)σ12σ12+σ22
und erhalten f
Z(x) = (f
X∗ f
Y) (x) =
Z
R
f
X(t) f
Y(x − t) dt
= 1
2πσ
1σ
2Z
R
e
−1 2
t−µ
1 σ1
2
· e
−1 2
x−µ
2−t σ2
2
dt
= 1
2πσ
1σ
2Z
R
e
−1 2
u σ1
2
· e
−1 2
x−u−(µ1+µ2) σ2
2
du
= 1
2πσ
1σ
2Z
R
e
−1
2 u2 σ2
1
· e
−1
2
(x−˜µ)2+u2−2u(x−˜µ) σ2
2
du
= 1
2πσ
1σ
2 ZR
e
−u2σ2
2+(x−˜µ)2σ2 1+u2σ2
1−2u(x−˜µ)σ2 1 2σ2
1σ2
2
du
= 1
2πσ
1σ
2 ZR
e
−(x−˜µ)2σ2
1+u2
(
σ12+σ22
)
−2u(x−˜µ)σ21 2σ21σ2
2
du
= 1
2πσ
1σ
2Z
R
e
−(x−˜µ)2σ2
1
(
σ21+σ22)
−u2(
σ12+σ22)
2+2u(x−˜µ)σ21(
σ12+σ22)
2σ2 1σ2
2
(
σ12+σ22) du
= 1
2πσ
1σ
2Z
R
e
−(x−˜µ)2σ4
1−(x−˜µ)2σ2 1σ2
2−u2
(
σ12+σ22)
2+2u(x−˜µ)σ21(
σ12+σ22)
2σ2 1σ2
2
(
σ12+σ22) du
= 1 2πσ
1σ
2Z
R
e
− (x−˜µ)2σ
4 1 2σ2
1σ2
2
(
σ21+σ22)
−(x−˜µ)2 2
(
σ21+σ22)
−u2
(
σ12+σ2 2)
2σ2 1σ2
2
+2u(x−˜µ)σ
2 1 2σ2
1σ2
2
du
= 1
2πσ
1σ
2 ZR
e
− (x−˜µ)2
2
(
σ21+σ22)
−σ2 1+σ2
2 2σ2
1σ2 2
u2−2u(x−˜µ)σ
2 1 σ2
1+σ2 2
+(x−˜µ)2σ
4 1
(
σ21+σ22)
2du
= 1
2πσ
1σ
2 ZR
e
− (x−˜µ)2
2
(
σ21+σ22)
−σ2 1+σ2
2 2σ2
1σ2 2
u−(x−˜µ)σ
2 1 σ2
1+σ2 2
2
du
= 1
2πσ
1σ
2e
− (x−˜µ)2
2
(
σ21+σ22)
ZR
e
−σ2 1+σ2
2 2σ2
1σ2 2
·v2
dv
= 1
2πσ
1σ
2e
− (x−˜µ)2
2
(
σ21+σ22)
s
σ
21σ
22σ
21+ σ
22Z
R
e
−v2 2
dv
= 1
2πσ
1σ
2e
− (x−˜µ)2
2
(
σ21+σ22) σ
1σ
2q
σ
21+ σ
22√
2π = 1
q
2π σ
21+ σ
22e
− (x−˜µ)2
2
(
σ12+σ22) .
Diese Funktion stimmt mit der Dichte für die Normalverteilung mit dem Parameter µ
1+ µ
2, σ
12+ σ
22überein. Daher ist Z normalverteilt mit Parameter µ
1+ µ
2, σ
21+ σ
22.
(c) Die Zufallsvariable X nimmt Werte aus {0, . . . , n
1}, die Zufallsvariable Y Werte aus {0, . . . , n
2} an, darum nimmt Z = X + Y Werte aus {0, . . . , n
1+ n
2} an. Sei also n ∈ {0, . . . , n
1+ n
2}. Dann ist
P ({Z = n}) = P ({X + Y = n}) = P
n1+n2
[
k=0
{X = k, Y = n − k}
!
=
n1+n2
X
k=0
P ({X = k, Y = n − k}) =
n1+n2
X
k=0
P ({X = k, Y = n − k})
=
n1+n2
X
k=0
P ({X = k}) · P ({Y = n − k})
=
n1+n2
X
k=0
n
1k
!
p
k(1 − p)
n1−kn
2n − k
!
p
n−k(1 − p)
n2−n+k= p
n(1 − p)
n1+n2−nn1+n2
X
k=0
n
1k
!
n
2n − k
!
= p
n(1 − p)
n1+n2−nn
1+ n
2n
!
.
Folglich ist Z binomialverteilt mit Parameter (n
1+ n
2, µ). Wir haben dabei die Vandermonde- Identität
n1+n2
X
k=0
n
1k
!
n
2n − k
!
= n
1+ n
2n
!
benutzt, die kombinatorisch bewiesen wird: Gegeben seien zwei Urnen mit n
1bzw. n
2Kugeln. Es
gibt offenbar
n1+nn 2Möglichkeiten, n Kugeln aus den beiden Urnen auszuwählen. Andererseits
kann man sich auch zuerst ein k vorgeben und k Kugeln aus der ersten und n − k Kugeln aus der
zweiten Urne ziehen und kommt zum selben Ergebnis. Die Anzahl der Möglichkeiten, die man dazu
hat, werden durch die linke Seite angegeben. Damit ist die Gleichheit bewiesen.
Aufgabe 3. Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum und X
1, X
2, . . . unabhängig identisch verteilte Zufallsvariablen, deren Verteilung eine Dichte bezüglich des Lebesgue-Maßes besitzen. Seien E
1= Ω und für n ≥ 2
E
n:= {X
m< X
nfür alle m < n} = „ein Rekord wird zur Zeit n erreicht“.
Zeigen Sie, dass die Ereignisse E
1, E
2, . . . unabhängig sind und P (E
n) = 1/n gilt.
Lösung zu Aufgabe 3: (Unabhängigkeit, Rekord zur Zeit n) rekord.tex Sei π ∈ S
neine beliebige Permutation. Wir setzen
B
n,π:=
nX
π(1)< X
π(2)< . . . < X
π(n)o. Dann gilt
P (B
n,idn) = P (B
n,π) , (1) denn die Zufallsvariablen X
i(i ∈ N ) sind unabhüngig und identisch verteilt. Wir zerlegen den Wahr- scheinlichkeitsraum disjunkt:
1 = P (Ω) =
Xπ∈Sn
P (B
n,π) .
Das Ereignis, dass zwei Zufallsvariablen denselben Wert annehmen, ist eine Nullmenge, denn für i 6= j gilt
P ({X
i= X
j}) =
ZR
Z
{x}
f (t) dtf (x) dx = 0, wobei f : R → R die Dichte von X
1bezeichnet.
Wegen (1) folgt
P (B
n,π) = 1 n!
für eine beliebige Permutation π ∈ S
n. Dann gilt P (E
n) = P
·
[
π∈Sn
π(n)=n
B
n,π!
= (n − 1)! · 1 n! = 1
n .
Es sei der relative Rang R
ngegeben durch R
n=
n
X
k=1
1
{Xk≥Xn}.
Damit gilt E
n= {R
n= 1}, und um die Unabhängigkeit der Ereignisse E
nzu zeigen, ist es hinreichend, die Unabhängigkeit der Zufallsvariablen R
nnachzuweisen. Die Menge
M := {1} × {1, 2} × . . . × {1, . . . , n}
ist der Wertebereich des Zufallsvektors (R
1, . . . , R
n) =: R. Jede Realisierung des Zufallsvektors R entspricht genau einer Rangfolge der X
i: FALSCH: Die Abbildung
φ : S
n→ M, π 7→ (r
1, . . . , r
n) mit r
j=
j
X
i=1
1
{π(j)}ist injektiv und wegen #S
n= #M auch surjektiv, also bijektiv. Damit gilt für alle n ∈ N und r ∈ M P ({R = r}) = P
n
X
φ−1(r)(1)< X
φ−1(r)(2)< . . . < X
φ−1(r)(n)o= P
B
n,φ−1(r)= 1 n! . Für beliebiges r
n∈ {1, . . . , n} folgt damit
P ({R
n= r
n}) =
1
X
r1=1 2
X
r2=1
· · ·
n−1
X
rn−1=1
1
n! = (n − 1)!
n! = 1 n .
Insgesamt gilt
P ({R = r}) = P ({R
1= r
1, . . . , R
n= r
n}) = 1
n! = P (R
1= r
1) · . . . · P ({R
n= r
n}) , also für B
j∈ P ({1, . . . , j}) (1 ≤ j ≤ n):
P ({R
1∈ B
1, . . . , R
n∈ B
n}) = P
·
[
r1∈B1
···
rn∈Bn
{R
1= r
1, . . . , R
n= r
n}
!
=
Xr1∈B1
···
rn∈Bn
P ({R
1= r
1, . . . , R
n= r
n})
=
Xr1∈B1 rn···∈Bn
P ({R
1= r
1}) · . . . · P ({R
n= r
n})
= P ({R
1∈ B
1}) · . . . · P ({R
n∈ B
n}) .
Damit ist alles gezeigt, was verlangt war.
Aufgabe 4. Eine Münze wird wiederholt geworfen. Die einzelnen Würfe sind unabhängig mit Wahr- scheinlichkeit p ∈ (0, 1) für Kopf. Sei E das Ereignis, dass r > 1 mal hintereinander Kopf fällt, ohne dass irgendwann zuvor s > 1 mal in Folge Zahl geworfen wurde. Weiter sei X
1der Ausgang des ersten Wurfs. Zeigen Sie
P (E | X
1= Kopf) = p
r−1+ (1 − p
r−1) P (E | X
1= Zahl).
Finden Sie eine ähnliche Formel für P (E | X
1= Zahl) und berechnen Sie P (E).
Zusatzaufgabe: Prüfen Sie Ihr Ergebnis für P (E) auf Herz und Nieren.
Lösung zu Aufgabe 4: (Münzwurf: mehr Kopf als Zahl) muenze.tex Wir kodieren Kopf als 1 und Zahl als 0. Das Ergebnis des nten Wurfes sei mit X
nbezeichnet. Es folgt
P (E | X
1= 1)
=
1P (E ∩ {X
2= · · · = X
r= 1} | X
1= 1) + P (E ∩ {X
2= 0} | X
1= 1) +
r
X
t=3
P (E ∩ {X
2= · · · = X
t−1= 1, X
t= 0} | X
1= 1)
= P (E ∩ {X
1= · · · = X
r= 1}) P (X
1= 1) +
r
X
t=2
P (E ∩ {X
1= · · · = X
t−1= 1, X
t= 0}) P (X
1= 1)
= p
r−1+
r
X
t=2
P (E | X
1= · · · = X
t−1= 1, X
t= 0) P (X
1= · · · = X
t−1= 1, X
t= 0) P (X
1= 1)
=
2p
r−1+ (1 − p)
r
X
t=2
p
t−2P (E | X
1= 0) = p
r−1+ (1 − p
r−1) P (E | X
1= 0).
Details: 1: disjunkte Vereinigung, 2: Markov-Eigenschaft. Ähnlich rechnen wir P (E | X
1= 0)
= P (E ∩ {X
2= · · · = X
s= 0} | X
1= 0) + P (E ∩ {X
2= 1} | X
1= 0) +
s
X
t=3
P (E ∩ {X
2= · · · = X
t−1= 0, X
t= 1} | X
1= 0)
= P (E ∩ {X
1= · · · = X
s= 0}) P (X
1= 0) +
s
X
t=2
P (E ∩ {X
1= · · · = X
t−1= 0, X
t= 1}) P (X
1= 0)
= 0 +
s
X
t=2
P (E | X
1= · · · = X
t−1= 0, X
t= 1) P (X
1= · · · = X
t−1= 0, X
t= 1) P (X
1= 0)
= p
s
X
t=2
(1 − p)
t−2P (E | X
1= 1) = (1 − (1 − p)
s−1) P (E | X
1= 1).
Damit erhalten wir
P (E | X
1= 1) = p
r−1+ (1 − p
r−1) P (E | X
1= 0)
= p
r−1+ (1 − p
r−1)(1 − (1 − p)
s−1) P (E | X
1= 1)
= ⇒ P (E | X
1= 1) = p
r−11 − (1 − p
r−1)(1 − (1 − p)
s−1) und
P (E | X
1= 0) = p
r−1(1 − (1 − p)
s−1)
1 − (1 − p
r−1)(1 − (1 − p)
s−1) .
Mit totaler Wahrscheinlichkeit folgt:
P (E) = P (E | X
1= 1) P (X
1= 1) + P (E | X
1= 0) P (X
1= 0)
= p
r+ p
r−1(1 − (1 − p)
s−1)(1 − p) 1 − (1 − p
r−1)(1 − (1 − p)
s−1)
= p
r−1(1 − (1 − p)
s)
1 − (1 − p
r−1)(1 − (1 − p)
s−1) =
1
(1−p)s−1
− (1 − p)
1
pr−1
+
(1−p)1s−1− 1 Das ist so kompliziert, da müssen wir mal eine Testserie starten. An den Grenzen gilt
p→0
lim P (E) = 0, lim
p→1
P (E) = 1, lim
s→∞
P (E) = 1, lim
r→∞
P (E) = 0.
Der Fall r = s = 1 reiht sich mit P (E) =
1+p−11+1−1= p ein. Für r = s ∈ N und p =
12ist P (E) = 2
s−1−
122
r−1+ 2
s−1− 1 = 2
r−1−
122 · (2
r−1−
12) = 1 2 . Vertauscht man Kopf und Zahl bzw. (p, r) und (1 − p, s), so erhält man
P (Ω \ E) =
1 pr−1
− p
1
pr−1
+
(1−p)1s−1− 1 . Damit folgt dann
P (E) + P (Ω \ E) =
1
(1−p)s−1
+ p − 1 +
pr−11− p
1
pr−1
+
(1−p)1s−1− 1 = 1.
Das ist doch vertrauenserweckend. Obendrein erhalten wir für p <
12, d.h.
1−pp< 1,
r=s→∞
lim P (E) = lim
r→∞
(
1−pp)
r−1− p
r−1(1 − p)
1 + (
1−pp)
r−1− p
r−1= 0 − 0 1 + 0 − 0 = 0 und für p >
12, also
1−pp< 1,
r=s→∞
lim P (E) = lim
r→∞