• Keine Ergebnisse gefunden

Ein W¨ urfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gew¨ urfelten Augenzahlen.

N/A
N/A
Protected

Academic year: 2021

Aktie "Ein W¨ urfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gew¨ urfelten Augenzahlen."

Copied!
17
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 47

Ein W¨ urfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gew¨ urfelten Augenzahlen.

F¨ ur Z gilt z.B.:

Pr[Z = 1] = Pr[∅] = 0,

Pr[Z = 4] = Pr[{(1, 3), (2, 2), (3, 1)}] = 36 3 .

(2)

F¨ ur die Verteilung der Summe zweier unabh¨ angiger Zufallsvariablen gilt der folgende Satz:

Satz 48

F¨ ur zwei unabh¨ angige Zufallsvariablen X und Y sei Z := X + Y . Es gilt

f Z (z) = X

x∈W

X

f X (x) · f Y (z − x) .

DS II 4.3 Mehrere Zufallsvariablen 106/119

c

Ernst W. Mayr

(3)

Beweis:

Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = X

x∈W

X

Pr[X + Y = z | X = x] · Pr[X = x]

= X

x∈W

X

Pr[Y = z − x] · Pr[X = x]

= X

x∈W

X

f X (x) · f Y (z − x) .

Den Ausdruck P

x∈W

X

f X (x) · f Y (z − x) aus Satz 48 nennt man

in Analogie zu den entsprechenden Begriffen bei Potenzreihen auch

Faltung oder Konvolution der Dichten f X und f Y .

(4)

Beispiel (Forts.)

Berechne die Dichte von Z = X + Y : Pr[Z = z] = X

x∈W

X

Pr[X = x] · Pr[Y = z − x]

=

6

X

x=1

1

6 · Pr[Y = z − x] =

min{6,z−1}

X

x=max{1,z−6}

1 36 . F¨ ur 2 ≤ z ≤ 7 erhalten wir

Pr[Z = z] =

z−1

X

i=1

1

36 = z − 1 36 . Und f¨ ur 7 < z ≤ 12:

Pr[Z = z] = 13 − z 36 .

DS II 4.3 Mehrere Zufallsvariablen 108/119

c

Ernst W. Mayr

(5)

4.3.3 Momente zusammengesetzter Zufallsvariablen

Satz 49 (Linearit¨ at des Erwartungswerts)

F¨ ur Zufallsvariablen X 1 , . . . , X n und X := a 1 X 1 + · · · + a n X n mit a 1 , . . . , a n ∈ R gilt

E [X] = a 1 E [X 1 ] + · · · + a n E [X n ] . Beweis:

E [X ] = X

ω∈Ω

(a

1

· X

1

(ω) + . . . + a

n

· X

n

(ω)) · Pr[ω]

= a

1

· X

ω∈Ω

X

1

(ω) · Pr[ω]

!

+ · · · + a

n

· X

ω∈Ω

X

n

(ω) · Pr[ω]

!

= a

1

· E [X

1

] + . . . + a

n

· E [X

n

] .

(6)

Beispiel 50

n betrunkene Seeleute torkeln nach dem Landgang in ihre Kojen.

Sie haben v¨ ollig die Orientierung verloren, weshalb wir annehmen, dass jede Zuordnung der Seeleute zu den n Betten gleich

wahrscheinlich ist (genau ein Seemann pro Bett). Wie viele Seeleute liegen im Mittel im richtigen Bett?

Die Anzahl der Seeleute im richtigen Bett z¨ ahlen wir mit der Zufallsvariablen X, die als Summe der Zufallsvariablen X 1 , . . . , X n

dargestellt wird, wobei

X i :=

( 1 falls Seemann i in seinem Bett liegt, 0 sonst.

Offenbar gilt X := X 1 + · · · + X n .

DS II 110/119

c

Ernst W. Mayr

(7)

Beispiel 50

F¨ ur die Variablen X i erhalten wir Pr[X i = 1] = n 1 , da jedes Bett von Seemann i mit gleicher Wahrscheinlichkeit aufgesucht wird.

Daraus folgt

E [X i ] = 0 · Pr[X i = 0] + 1 · Pr[X i = 1] = 1 n , und somit

E[X] =

n

X

i=1

E[X i ] =

n

X

i=1

1 n = 1 .

Im Mittel hat also nur ein Seemann sein eigenes Bett aufgesucht.

(8)

Satz 51 (Multiplikativit¨ at des Erwartungswerts) F¨ ur unabh¨ angige Zufallsvariablen X 1 , . . . , X n gilt

E[X 1 · · · · · X n ] = E[X 1 ] · · · · · E[X n ] . Beweis:

Wir beweisen den Fall n = 2. Der allgemeine Fall ist analog.

E [X · Y ] = X

x∈W

X

X

y∈W

Y

xy · Pr[X = x, Y = y]

Unabh.

= X

x∈W

X

X

y∈W

Y

xy · Pr[X = x] · Pr[Y = y]

= X

x∈W

X

x · Pr[X = x] X

y∈W

Y

y · Pr[Y = y]

= E [X] · E [Y ] .

DS II 4.3 Mehrere Zufallsvariablen 111/119

c

Ernst W. Mayr

(9)

Dass f¨ ur die G¨ ultigkeit von Satz 51 die Unabh¨ angigkeit der

Zufallsvariablen wirklich notwendig ist, sieht man beispielsweise am Fall Y = −X f¨ ur eine Zufallsvariable mit einer von Null

verschiedenen Varianz. Dann gilt

E[X · Y ] = − E[X 2 ] 6= −(E[X]) 2 = E[X] · E[Y ] .

(10)

Definition 52

Zu einem Ereignis A heißt die Zufallsvariable

I A :=

( 1 falls A eintritt, 0 sonst

Indikatorvariable des Ereignisses A.

Beobachtung:

F¨ ur die Indikatorvariable I A gilt nach Definition E [I A ] = 1 · Pr[A] + 0 · Pr[ ¯ A] = Pr[A] . Ebenso gilt

E [I A

1

· . . . · I A

n

] = Pr[A 1 ∩ . . . ∩ A n ],

da das Produkt von Indikatorvariablen genau dann gleich 1 ist, wenn alle entsprechenden Ereignisse eintreten.

DS II 4.3 Mehrere Zufallsvariablen 113/119

c

Ernst W. Mayr

(11)

Beispiel (Forts.)

Wir betrachten wieder das Beispiel der total betrunkenen Matrosen.

Sei A i das Ereignis, dass der i-te Seemann im richtigen Bett liegt.

Mit der Notation der Indikatorvariablen sei X i = I A

i

. Dann gilt f¨ ur beliebige i, j ∈ {1, . . . , n}, i 6= j:

E [X i X j ] = E [I A

i

I A

j

] = Pr[A i ∩ A j ] = 1 n(n − 1) , sowie

E [X i 2 ] = 0 2 · Pr[ ¯ A i ] + 1 2 · Pr[A i ] = Pr[A i ] = 1/n.

(12)

Beispiel (Forts.)

Daraus folgt wegen der Linearit¨ at des Erwartungswerts f¨ ur X = X 1 + · · · + X n :

E [X 2 ] = E

n

X

i=1

X i 2 +

n

X

i=1

X

j6=i

X i X j

= n · 1

n + n(n − 1) · 1

n(n − 1) = 2 . F¨ ur die Varianz erhalten wir somit den Wert

Var[X] = E[X 2 ] − E[X] 2 = 2 − 1 = 1.

DS II 4.3 Mehrere Zufallsvariablen 115/119

c

Ernst W. Mayr

(13)

Einfacher Beweis f¨ ur Satz 9 mit Hilfe von Indikatorvariablen:

Zur Erinnerung:

Satz 9 (Siebformel, Prinzip der Inklusion/Exklusion) F¨ ur Ereignisse A 1 , . . . , A n (n ≥ 2) gilt:

Pr

" n [

i=1

A i

#

=

n

X

i=1

Pr[A i ] − X

1≤i

1

<i

2

≤n

Pr[A i

1

∩ A i

2

] + − . . . + (−1) l−1 X

1≤i

1

<...<i

l

≤n

Pr[A i

1

∩ . . . ∩ A i

l

] + − . . .

+ (−1) n−1 · Pr[A 1 ∩ . . . ∩ A n ] .

(14)

Beweis:

Zur Erinnerung: Zu Ereignissen A 1 , . . . , A n wollen wir die Wahrscheinlichkeit Pr[B] des Ereignisses B := A 1 ∪ . . . ∪ A n

ermitteln.

Wir betrachten die Indikatorvariablen I i := I A

i

der Ereignisse A 1 , . . . , A n und die Indikatorvariable I B ¯ des Ereignisses B ¯ . Das Produkt Q n

i=1 (1 − I i ) ist genau dann gleich 1, wenn I 1 = . . . = I n = 0, d.h. wenn B nicht eintritt. Somit gilt I B ¯ = Q n

i=1 (1 − I i ) und wir erhalten:

I B ¯ = 1 − X

1≤i≤n

I i + X

1≤i

1

<i

2

≤n

I i

1

I i

2

− + . . . + (−1) n I 1 · . . . · I n .

DS II 117/119

c

Ernst W. Mayr

(15)

Beweis:

Wegen der Eigenschaften von Indikatorvariablen gilt Pr[B] = 1 − Pr[ ¯ B] = 1 − E [I B ¯ ].

Mit Hilfe von Satz 49 und Satz 51

” verteilen“ wir den

Erwartungswert auf die einzelnen Produkte von Indikatorvariablen.

Wenn wir nun E[I i ] durch Pr[A i ] und allgemein E[I i

1

· . . . · I i

k

]

durch Pr[A i

1

∩ . . . ∩ A i

k

] ersetzen, haben wir Satz 9 (noch einmal)

bewiesen.

(16)

Satz 53

F¨ ur unabh¨ angige Zufallsvariablen X 1 , . . . , X n und X := X 1 + . . . + X n gilt

Var[X] = Var[X 1 ] + . . . + Var[X n ] . Beweis:

Wir betrachten nur den Fall n = 2 mit den Zufallsvariablen X und Y .

E [(X + Y )

2

] = E [X

2

+ 2XY + Y

2

] = E [X

2

] + 2 E [X ] E [Y ] + E [Y

2

] E [X + Y ]

2

= ( E [X ] + E [Y ])

2

= E [X]

2

+ 2 E [X ] E [Y ] + E [Y ]

2

Wir ziehen die zweite Gleichung von der ersten ab und erhalten

E [(X + Y ) 2 ] − E [X + Y ] 2 = E [X 2 ] − E [X] 2 + E [Y 2 ] − E [Y ] 2 . Mit Hilfe von Satz 38 folgt die Behauptung.

DS II 4.3 Mehrere Zufallsvariablen 118/119

c

Ernst W. Mayr

(17)

F¨ ur abh¨ angige Zufallsvariablen X 1 , . . . , X n gilt Satz 53 im Allgemeinen nicht. Als Beispiel funktioniert wiederum der Fall X = −Y :

Var[X + Y ] = 0 6= 2 · Var[X] = Var[X] + Var[Y ] .

Referenzen

ÄHNLICHE DOKUMENTE

[r]

Mathematische Grundlagen der Informatik RWTH

[r]

Konstruieren Sie für jedes Paar n, k von natürlichen Zahlen mit k &lt; n eine Formel ϕ n,k , die ausdrückt, dass im Graph ein Pfad der Länge

Sei G eine Gruppe mit einer Topologie, bez¨ uglich derer die Abbildungen (x, y) 7→ xy und x 7→ x −1 stetig sind. (Hinweis: Betrachten

Betrachte Beispiel 3.12 von Folie 169, die Arithmetik der

Betrachte Beispiel 3.12 von Folie 169, die Arithmetik der

Ubungen zur Vorlesung Mathematische Logik II ¨ SS