• Keine Ergebnisse gefunden

Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = X

N/A
N/A
Protected

Academic year: 2021

Aktie "Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = X"

Copied!
24
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Beweis:

Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = X

x∈W

X

Pr[X + Y = z | X = x] · Pr[X = x]

= X

x∈W

X

Pr[Y = z − x] · Pr[X = x]

= X

x∈W

X

f X (x) · f Y (z − x) .

Den Ausdruck P

x∈W

X

f X (x) · f Y (z − x) aus Satz 49 nennt man in Analogie zu den entsprechenden Begriffen bei Potenzreihen auch Faltung oder Konvolution der Dichten f X und f Y .

DWT 4.3 Mehrere Zufallsvariablen 109/476

c

Ernst W. Mayr

(2)

Beispiel (Forts.)

Berechne die Dichte von Z = X + Y : Pr[Z = z] = X

x∈W

X

Pr[X = x] · Pr[Y = z − x]

=

6

X

x=1

1

6 · Pr[Y = z − x] =

min{6,z−1}

X

x=max{1,z−6}

1 36 . F¨ ur 2 ≤ z ≤ 7 erhalten wir

Pr[Z = z] =

z−1

X

i=1

1

36 = z − 1 36 . Und f¨ ur 7 < z ≤ 12:

Pr[Z = z] = 13 − z

36 .

(3)

4.3.3 Momente zusammengesetzter Zufallsvariablen

Satz 50 (Linearit¨ at des Erwartungswerts)

F¨ ur Zufallsvariablen X 1 , . . . , X n und X := a 1 X 1 + · · · + a n X n mit a 1 , . . . , a n ∈ R gilt E [X] = a 1 E [X 1 ] + · · · + a n E [X n ] .

Beweis:

E[X ] = X

ω∈Ω

(a

1

· X

1

(ω) + . . . + a

n

· X

n

(ω)) · Pr[ω]

= a

1

· X

ω∈Ω

X

1

(ω) · Pr[ω]

!

+ · · · + a

n

· X

ω∈Ω

X

n

(ω) · Pr[ω]

!

= a

1

· E[X

1

] + . . . + a

n

· E[X

n

] .

DWT 4.3 Mehrere Zufallsvariablen 111/476

c

Ernst W. Mayr

(4)

Beispiel 51

n betrunkene Seeleute torkeln nach dem Landgang in ihre Kojen. Sie haben v¨ ollig die Orientierung verloren, weshalb wir annehmen, dass jede Zuordnung der Seeleute zu den n Betten gleich wahrscheinlich ist (genau ein Seemann pro Bett). Wie viele Seeleute liegen im Mittel im richtigen Bett?

Die Anzahl der Seeleute im richtigen Bett z¨ ahlen wir mit der Zufallsvariablen X, die als Summe der Zufallsvariablen X 1 , . . . , X n dargestellt wird, wobei

X i :=

( 1 falls Seemann i in seinem Bett liegt, 0 sonst.

Offenbar gilt X := X 1 + · · · + X n .

(5)

Beispiel 51

F¨ ur die Variablen X i erhalten wir Pr[X i = 1] = n 1 , da jedes Bett von Seemann i mit gleicher Wahrscheinlichkeit aufgesucht wird.

Daraus folgt

E [X i ] = 0 · Pr[X i = 0] + 1 · Pr[X i = 1] = 1 n , und somit

E [X] =

n

X

i=1

E [X i ] =

n

X

i=1

1 n = 1 . Im Mittel hat also nur ein Seemann sein eigenes Bett aufgesucht.

DWT 4.3 Mehrere Zufallsvariablen 112/476

c

Ernst W. Mayr

(6)

Satz 52 (Multiplikativit¨ at des Erwartungswerts) F¨ ur unabh¨ angige Zufallsvariablen X 1 , . . . , X n gilt

E[X 1 · · · · · X n ] = E[X 1 ] · · · · · E[X n ] . Beweis:

Wir beweisen den Fall n = 2. Der allgemeine Fall ist analog.

E [X · Y ] = X

x∈W

X

X

y∈W

Y

xy · Pr[X = x, Y = y]

Unabh.

= X

x∈W

X

X

y∈W

Y

xy · Pr[X = x] · Pr[Y = y]

= X

x∈W

X

x · Pr[X = x] X

y∈W

Y

y · Pr[Y = y]

= E [X] · E [Y ] .

(7)

Dass f¨ ur die G¨ ultigkeit von Satz 52 die Unabh¨ angigkeit der Zufallsvariablen wirklich notwendig ist, sieht man beispielsweise am Fall Y = −X f¨ ur eine Zufallsvariable mit einer von Null verschiedenen Varianz. Dann gilt

E [X · Y ] = − E [X 2 ] 6= −( E [X]) 2 = E [X] · E [Y ] .

DWT 4.3 Mehrere Zufallsvariablen 114/476

c

Ernst W. Mayr

(8)

Definition 53

Zu einem Ereignis A heißt die Zufallsvariable

I A :=

( 1 falls A eintritt, 0 sonst

Indikatorvariable des Ereignisses A.

Beobachtung:

F¨ ur die Indikatorvariable I A gilt nach Definition

E [I A ] = 1 · Pr[A] + 0 · Pr[ ¯ A] = Pr[A] . Ebenso gilt

E [I A

1

· . . . · I A

n

] = Pr[A 1 ∩ . . . ∩ A n ],

da das Produkt von Indikatorvariablen genau dann gleich 1 ist, wenn alle

entsprechenden Ereignisse eintreten.

(9)

Beispiel (Forts.)

Wir betrachten wieder das Beispiel der total betrunkenen Matrosen.

Sei A i das Ereignis, dass der i-te Seemann im richtigen Bett liegt. Mit der Notation der Indikatorvariablen sei X i = I A

i

. Dann gilt f¨ ur beliebige i, j ∈ {1, . . . , n}, i 6= j:

E[X i X j ] = E[I A

i

I A

j

] = Pr[A i ∩ A j ] = 1 n(n − 1) , sowie

E [X i 2 ] = 0 2 · Pr[ ¯ A i ] + 1 2 · Pr[A i ] = Pr[A i ] = 1/n.

DWT 4.3 Mehrere Zufallsvariablen 116/476

c

Ernst W. Mayr

(10)

Beispiel (Forts.)

Daraus folgt wegen der Linearit¨ at des Erwartungswerts f¨ ur X = X 1 + · · · + X n : E[X 2 ] = E

n

X

i=1

X i 2 +

n

X

i=1

X

j6=i

X i X j

= n · 1

n + n(n − 1) · 1

n(n − 1) = 2 . F¨ ur die Varianz erhalten wir somit den Wert

Var[X] = E [X 2 ] − E [X] 2 = 2 − 1 = 1.

(11)

Einfacher Beweis f¨ ur Satz 9 mit Hilfe von Indikatorvariablen:

Zur Erinnerung:

Satz 9 (Siebformel, Prinzip der Inklusion/Exklusion) F¨ ur Ereignisse A 1 , . . . , A n (n ≥ 2) gilt:

Pr

" n [

i=1

A i

#

=

n

X

i=1

Pr[A i ] − X

1≤i

1

<i

2

≤n

Pr[A i

1

∩ A i

2

] + − . . . + (−1) l−1 X

1≤i

1

<...<i

l

≤n

Pr[A i

1

∩ . . . ∩ A i

l

] + − . . . + (−1) n−1 · Pr[A 1 ∩ . . . ∩ A n ] .

DWT 4.3 Mehrere Zufallsvariablen 118/476

c

Ernst W. Mayr

(12)

Beweis:

Zur Erinnerung: Zu Ereignissen A 1 , . . . , A n wollen wir die Wahrscheinlichkeit Pr[B]

des Ereignisses B := A 1 ∪ . . . ∪ A n ermitteln.

Wir betrachten die Indikatorvariablen I i := I A

i

der Ereignisse A 1 , . . . , A n und die Indikatorvariable I B ¯ des Ereignisses B. ¯

Das Produkt Q n

i=1 (1 − I i ) ist genau dann gleich 1, wenn I 1 = . . . = I n = 0, d.h.

wenn B nicht eintritt. Somit gilt I B ¯ = Q n

i=1 (1 − I i ) und wir erhalten:

I B ¯ = 1 − X

1≤i≤n

I i + X

1≤i

1

<i

2

≤n

I i

1

I i

2

− + . . . + (−1) n I 1 · . . . · I n ,

also

I B = 1 − I B ¯

= X

1≤i≤n

I i − X

1≤i

1

<i

2

≤n

I i

1

I i

2

+ − . . . + (−1) n−1 I 1 · . . . · I n .

(13)

Beweis:

Wegen der Eigenschaften von Indikatorvariablen gilt

Pr[B] = 1 − Pr[ ¯ B] = 1 − E [I B ¯ ].

Mit Hilfe von Satz 50

” verteilen“ wir den Erwartungswert auf die einzelnen Produkte von Indikatorvariablen. Wenn wir nun E [I i ] durch Pr[A i ] und allgemein E [I i

1

· . . . · I i

k

] durch Pr[A i

1

∩ . . . ∩ A i

k

] ersetzen, haben wir Satz 9 (dieses Mal vollst¨ andig) bewiesen.

DWT 4.3 Mehrere Zufallsvariablen 119/476

c

Ernst W. Mayr

(14)

Satz 54

F¨ ur unabh¨ angige Zufallsvariablen X 1 , . . . , X n und X := X 1 + . . . + X n gilt Var[X] = Var[X 1 ] + . . . + Var[X n ] .

Beweis:

Wir betrachten nur den Fall n = 2 mit den Zufallsvariablen X und Y .

E [(X + Y )

2

] = E [X

2

+ 2XY + Y

2

] = E [X

2

] + 2 E [X ] E [Y ] + E [Y

2

] E[X + Y ]

2

= (E[X ] + E[Y ])

2

= E[X]

2

+ 2E[X ]E[Y ] + E[Y ]

2

Wir ziehen die zweite Gleichung von der ersten ab und erhalten

E [(X + Y ) 2 ] − E [X + Y ] 2 = E [X 2 ] − E [X] 2 + E [Y 2 ] − E [Y ] 2 .

Mit Hilfe von Satz 39 folgt die Behauptung.

(15)

F¨ ur abh¨ angige Zufallsvariablen X 1 , . . . , X n gilt Satz 54 im Allgemeinen nicht. Als Beispiel funktioniert wiederum der Fall X = −Y :

Var[X + Y ] = 0 6= 2 · Var[X] = Var[X] + Var[Y ] .

DWT 4.3 Mehrere Zufallsvariablen 121/476

c

Ernst W. Mayr

(16)

5. Wichtige diskrete Verteilungen

Wir diskutieren nun einige wichtige diskrete Verteilungen. Bei diesen Verteilungen

handelt es sich um Funktionen, die von gewissen Parametern abh¨ angen. Eigentlich

betrachten wir also immer eine ganze Familie von ¨ ahnlichen Verteilungen.

(17)

5.1 Bernoulli-Verteilung

Eine Zufallsvariable X mit W X = {0, 1} und der Dichte f X (x) =

( p f¨ ur x = 1, 1 − p f¨ ur x = 0.

heißt Bernoulli-verteilt. Den Parameter p nennen wir Erfolgswahrscheinlichkeit.

Eine solche Verteilung erh¨ alt man z.B. bei einer einzelnen Indikatorvariablen. Es gilt mit q := 1 − p

E [X] = p und Var[X] = pq, wegen E [X 2 ] = p und Var[X] = E [X 2 ] − E [X] 2 = p − p 2 .

DWT 5.1 Bernoulli-Verteilung 123/476

c

Ernst W. Mayr

(18)

Der Name der Bernoulli-Verteilung geht zur¨ uck auf den Schweizer Mathematiker Jakob

Bernoulli (1654–1705). Wie viele andere Mathematiker seiner Zeit h¨ atte auch Bernoulli

nach dem Wunsch seines Vaters urspr¨ unglich Theologe werden sollen. Sein Werk ars

conjectandi stellt eine der ersten Arbeiten dar, die sich mit dem Teil der Mathematik

besch¨ aftigen, den wir heute als Wahrscheinlichkeitstheorie bezeichnen.

(19)

5.2 Binomialverteilung

Eine Bernoulli-verteilte Zufallsvariable entspricht der Verteilung einer

Indikatorvariablen. H¨ aufig betrachtet man jedoch Summen von Indikatorvariablen.

Definition 55

Sei X := X 1 + . . . + X n als Summe von n unabh¨ angigen, Bernoulli-verteilten Zufallsvariablen mit gleicher Erfolgswahrscheinlichkeit p definiert. Dann heißt X binomialverteilt mit den Parametern n und p. In Zeichen schreiben wir

X ∼ Bin(n, p) .

DWT 5.2 Binomialverteilung 125/476

c

Ernst W. Mayr

(20)

Es gilt W X = {0, . . . , n}. Die Binomialverteilung besitzt die Dichte f X (x) := b(x; n, p) =

n x

p x q n−x

mit q := 1 − p. Da die Binomialverteilung eine sehr wichtige Rolle spielt, f¨ uhren wir f¨ ur die Dichtefunktion die Abk¨ urzung b(x; n, p) ein.

Mit den S¨ atzen ¨ uber Erwartungswert und Varianz von Summen unabh¨ angiger Zufallsvariablen erhalten wir sofort

E [X] = np und Var[X] = npq .

(21)

0,0 0,1 0,2 0,3 0,4

0 1 2 3 4 5 6 7 8 9 10

b(x;10;0:1)

0,0 0,1 0,2 0,3 0,4

0 1 2 3 4 5 6 7 8 9 10

b(x;10;0:4)

0,0 0,1 0,2 0,3 0,4

0 1 2 3 4 5 6 7 8 9 10

b(x;10;0:7)

0,0 0,1 0,2 0,3 0,4

0 1 2 3 4 5 6 7 8 9 10

b(x;10;0:9)

Dichte der Binomialverteilung

DWT 5.2 Binomialverteilung 127/476

c

Ernst W. Mayr

(22)

Satz 56

Wenn X ∼ Bin(n x , p) und Y ∼ Bin(n y , p) unabh¨ angig sind, dann gilt f¨ ur Z := X + Y , dass Z ∼ Bin(n x + n y , p).

Beweis:

Die Aussage folgt sofort, wenn man gem¨ aß der Definition der Binomialverteilung X

und Y als Summen von Indikatorvariablen darstellt. Z ist dann offensichtlich wieder

eine Summe von unabh¨ angigen Indikatorvariablen.

(23)

5.3 Geometrische Verteilung

Definition 57

Die Dichte der geometrischen Verteilung mit Parameter/Erfolgswahrscheinlichkeit p ∈ [0, 1] und q := 1 − p ist gegeben durch

f X (i) = pq i−1 f¨ ur i ∈ N .

F¨ ur Erwartungswert und Varianz geometrisch verteilter Zufallsvariablen gilt

E [X] = 1

p und Var[X] = q p 2 , denn es gilt:

E [X] =

X

i=1

i · pq i−1 = p ·

X

i=1

i · q i−1 = p · 1

(1 − q) 2 = 1 p .

DWT 5.3 Geometrische Verteilung 129/476

c

Ernst W. Mayr

(24)

E[X 2 ] ergibt sich gem¨ aß der Formel (siehe DS I) X

n≥0

c + n − 1 n

z n = 1

(1 − z) c = (1 − z) −c zu

E [X 2 ] =

X

i=1

i 2 · pq i−1

= p · q

X

i=0

(i + 2)(i + 1) · q i +

X

i=0

(i + 1) · q i

!

= q · 2 p 2 + 1

p = 2 − p p 2 ,

und damit Var[X] = q

p 2 .

Referenzen

ÄHNLICHE DOKUMENTE

Abgabe bis Do, 26.11., 12 Uhr Aufgabe 1 zur Bearbeitung in der ¨ Ubung Aufgaben 2-5 zur selbst¨ andigen Bearbeitung..

Abgabe bis Do, 18.12., 13 Uhr Aufgabe 1 zur Bearbeitung in der ¨ Ubung Aufgaben 2-4 zur selbst¨ andigen Bearbeitung.

[r]

Wir werden in diesem Abschnitt einige wichtige Anwendungen der Taylorschen Formel behandeln: Das totale Differenzial als lineare N¨ aherung, die Fehlerrechnung, die Theorie der

F¨ ur welche Wahl der Schrittweite h geht die numerische L¨ osung des expliziten bzw.. impliziten Euler-Verfahrens

UBUNGEN ZUR VARIATIONSRECHNUNG IM SS 2011 ¨ BLATT 2 (BESPRECHUNG AM 17.. Hin- weis: Verwenden Sie die

Hinweis: Als Hilfsmittel sind hier nur solche Aussagen zugelassen, die bereits in der Vorlesung bewiesen

Teilen Sie das Integral in sinnvolle Abschnitte um die Nullstellen von