• Keine Ergebnisse gefunden

Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem bin¨ aren Experiment mit

N/A
N/A
Protected

Academic year: 2021

Aktie "Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem bin¨ aren Experiment mit"

Copied!
27
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

0,0 0,2 0,4 0,6 0,8

1 2 3 4 5 6 7 8 9 10

p=0;8

0,0 0,2 0,4 0,6 0,8

1 2 3 4 5 6 7 8 9 10

p=0;6

0,0 0,2 0,4 0,6 0,8

1 2 3 4 5 6 7 8 9 10

p=0;4

0,0 0,2 0,4 0,6 0,8

1 2 3 4 5 6 7 8 9 10

p=0;2

Dichte der geometrischen Verteilung

DWT 5.3 Geometrische Verteilung 131/476

c

Ernst W. Mayr

(2)

Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem bin¨ aren Experiment mit

Erfolgswahrscheinlichkeit p genau in der k-ten unabh¨ angigen Wiederholung das erste Mal erfolgreich sind.

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x | X > x]?

Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

” eigentliche“ Experiment erst ab dem (x + 1)-ten Versuch beginnt. Die Zeit bis zum ersten Erfolg bei diesem neuen Experiment nennen wir X 0 . Damit X > y + x gilt, muss X 0 > y gelten. Es ist intuitiv, dass X 0 wieder geometrisch verteilt ist mit Erfolgswahrscheinlichkeit p, dass also f¨ ur x, y ∈ N gilt:

Pr[X > y + x | X > x] = Pr[X 0 > y]. (6)

DWT 5.3 Geometrische Verteilung 132/476

c

Ernst W. Mayr

(3)

Formal gilt

Pr[X > x] =

X

i=x+1

(1 − p) i−1 p = (1 − p) x p ·

X

i=0

(1 − p) i

= (1 − p) x p · 1

1 − (1 − p) = (1 − p) x , sowie

Pr[X > y + x | X > x] = Pr[X > y + x, X > x]

Pr[X > x]

= Pr[X > y + x]

Pr[X > x]

= (1 − p) y+x · (1 − p) −x = (1 − p) y

= Pr[X > y] .

DWT 5.3 Geometrische Verteilung 133/476

c

Ernst W. Mayr

(4)

Diese Eigenschaft nennt man Ged¨ achtnislosigkeit, da eine geometrisch verteilte

Zufallsvariable gewissermaßen vergisst, dass sie schon x Misserfolge hinter sich hat und sich deshalb zum Zeitpunkt y + x genauso verh¨ alt wie urspr¨ unglich zur Zeit y.

DWT 5.3 Geometrische Verteilung 134/476

c

Ernst W. Mayr

(5)

Warten auf den n-ten Erfolg.

Wir betrachten n unabh¨ angige Zufallsvariablen X 1 , . . . , X n , die jeweils geometrisch verteilt sind mit Parameter p, und bestimmen die Dichte der Zufallsvariablen

Z := X 1 + · · · + X n . Damit bezeichnet Z also die Anzahl der Versuche bis zum n-ten erfolgreichen Experiment (einschließlich).

Falls Z = z ist, so werden also genau n erfolgreiche und z − n nicht erfolgreiche Experimente durchgef¨ uhrt. Daf¨ ur gibt es genau n−1 z−1

M¨ oglichkeiten, von denen jede mit Wahrscheinlichkeit p n (1 − p) z−n eintritt. Es gilt also

f Z (z) =

z − 1 n − 1

· p n (1 − p) z−n .

Die Zufallsvariable Z nennt man negativ binomialverteilt mit Ordnung n.

DWT 5.3 Geometrische Verteilung 135/476

c

Ernst W. Mayr

(6)

Das Coupon-Collector-Problem

In manchen Branchen legen Firmen den Verpackungen ihrer Produkte oft kleine Bilder oder andere Gegenst¨ ande bei, um den K¨ aufer zum Sammeln anzuregen. Wenn es insgesamt n verschiedene solche Beilagen gibt, wie viele Packungen muss man im Mittel erwerben, bis man eine vollst¨ andige Sammlung besitzt? Hierbei nehmen wir an, dass bei jedem Kauf jede Beilage mit gleicher Wahrscheinlichkeit auftritt.

Sei

X die Anzahl der zu t¨ atigenden K¨ aufe, und

bezeichne Phase i die Schritte vom Erwerb der (i − 1)-ten Beilage (ausschließlich) bis zum Erwerb der i-ten Beilage (einschließlich).

DWT 5.3 Geometrische Verteilung 136/476

c

Ernst W. Mayr

(7)

Sei etwa n = 4, und seien die Beilagen mit den Zahlen 1, 2, 3, 4 identifiziert. Ein Experiment ist z.B.:

2

|{z}

1

, 2, 1

|{z}

2

, 2, 2, 3

| {z }

3

, 1, 3, 2, 3, 1, 4

| {z }

4

.

Beobachtung:

Phase i endet genau dann, wenn wir eine der n − i + 1 Beilagen erhalten, die wir noch nicht besitzen.

Somit ist X i geometrisch verteilt mit Parameter p = n−i+1 n und es gilt E [X i ] = n−i+1 n .

DWT 5.3 Geometrische Verteilung 137/476

c

Ernst W. Mayr

(8)

Damit folgt aber sofort

E [X] =

n

X

i=1

E [X i ]

=

n

X

i=1

n n − i + 1

= n ·

n

X

i=1

1

i = n · H n , wobei H n := P n

i=1 1

i die n-te harmonische Zahl bezeichnet. Da H n = ln n + O(1), folgt E [X] = n ln n + O(n).

DWT 5.3 Geometrische Verteilung 138/476

c

Ernst W. Mayr

(9)

5.4 Poisson-Verteilung

Die Poisson-Verteilung mit dem Parameter λ ≥ 0 hat den Wertebereich W X = N 0 und besitzt die Dichte

f X (i) = e −λ λ i

i! f¨ ur i ∈ N 0 . f X ist eine zul¨ assige Dichte, da

X

i=0

f X (i) =

X

i=0

e −λ λ i i!

= e −λ · e λ = 1 .

DWT 5.4 Poisson-Verteilung 139/476

c

Ernst W. Mayr

(10)

F¨ ur den Erwartungswert erhalten wir

E[X] =

X

i=0

i · e −λ λ i i!

= λe −λ

X

i=1

λ i−1 (i − 1)!

= λe −λ

X

i=0

λ i i!

= λe −λ e λ = λ .

DWT 5.4 Poisson-Verteilung 140/476

c

Ernst W. Mayr

(11)

Da

E[X(X − 1)] =

X

i=0

i(i − 1) · e −λ λ i i!

= λ 2 e −λ

X

i=2

λ i−2 (i − 2)!

= λ 2 e −λ

X

i=0

λ i i!

= λ 2 e −λ e λ = λ 2 und

E[X(X − 1)] + E[X] − E[X] 2

= E [X 2 ] − E [X] + E [X] − E [X] 2 = Var[X] ,

DWT 5.4 Poisson-Verteilung 141/476

c

Ernst W. Mayr

(12)

folgt

Var[X] = E [X(X − 1)] + E [X] − E [X] 2 = λ 2 + λ − λ 2 = λ. (7) Daf¨ ur, dass eine Zufallsvariable X Poisson-verteilt mit Parameter λ ist, schreiben wir auch

X ∼ Po(λ).

DWT 5.4 Poisson-Verteilung 142/476

c

Ernst W. Mayr

(13)

0,0 0,1 0,2 0,3 0,4 0,5 0,6

0 1 2 3 4 5 6 7 8 9 10

Po(0;5)

0,0 0,1 0,2 0,3 0,4 0,5 0,6

0 1 2 3 4 5 6 7 8 9 10

Po(1)

0,0 0,1 0,2 0,3 0,4 0,5 0,6

0 2 4 6 8 10

Po(2)

0,0 0,1 0,2 0,3 0,4 0,5 0,6

0 1 2 3 4 5 6 7 8 9 10

Po(5)

Dichte der Poisson-Verteilung

DWT 5.4 Poisson-Verteilung 143/476

c

Ernst W. Mayr

(14)

5.4.1 Poisson-Verteilung als Grenzwert der Binomialverteilung Wir betrachten eine Folge von binomialverteilten Zufallsvariablen X n mit X n ∼ Bin(n, p n ), wobei p n = λ/n. F¨ ur ein beliebiges k mit 0 ≤ k ≤ n ist die Wahrscheinlichkeit, dass X n den Wert k annimmt, gleich

b(k; n, p n ) = n

k

· p k n · (1 − p n ) n−k

= (n · p n ) k k! · n k

n k · (1 − p n ) −k · (1 − p n ) n

= λ k k! · n k

n k ·

1 − λ n

−k

·

1 − λ n

n

.

DWT 5.4 Poisson-Verteilung 144/476

c

Ernst W. Mayr

(15)

Wir betrachten nun n → ∞ und erinnern uns, dass

n→∞ lim n k n k = 1,

n→∞ lim (1 − λ

n ) −k = 1, und

n→∞ lim (1 − λ

n ) n = e −λ . Damit folgt

n→∞ lim b(k; n, p n ) = lim

n→∞

n k

· p k n · (1 − p n ) n−k = e −λ · λ k k! .

DWT 5.4 Poisson-Verteilung 145/476

c

Ernst W. Mayr

(16)

Die Wahrscheinlichkeit b(k; n, p n ) konvergiert also f¨ ur n → ∞ gegen die

Wahrscheinlichkeit, dass eine Poisson-verteilte Zufallsvariable mit Parameter λ den Wert k annimmt. Insgesamt folgt somit, dass die Verteilung einer Zufallsvariablen X ∼ Bin(n, λ/n) sich f¨ ur n → ∞ der Poisson-Verteilung Po(λ) ann¨ ahert.

DWT 5.4 Poisson-Verteilung 146/476

c

Ernst W. Mayr

(17)

Vergleich von Binomial- und Poisson-Verteilung

DWT 5.4 Poisson-Verteilung 147/476

c

Ernst W. Mayr

(18)

Ist also n im Vergleich zu λ hinreichend groß, so kann man die Poisson-Verteilung als Approximation der Binomialverteilung verwenden.

Diese Tatsache wird manchmal auch als Gesetz seltener Ereignisse bezeichnet, da die Wahrscheinlichkeit eines einzelnen Treffers p n = λ/n relativ klein sein muss, wenn die Approximation gute Ergebnisse liefern soll.

DWT 5.4 Poisson-Verteilung 148/476

c

Ernst W. Mayr

(19)

Die folgenden Voraussetzungen m¨ ussen erf¨ ullt sein, damit die Annahme der Poisson-Verteilung gerechtfertigt ist:

Die Ereignisse treten nie zur gleichen Zeit auf.

Die Wahrscheinlichkeit, dass ein Ereignis in einem (kleinen) Zeitintervall δt auftritt, ist proportional zur L¨ ange von δt.

Die Anzahl der Ereignisse in einem festen Zeitintervall h¨ angt nur von dessen L¨ ange ab, nicht aber von der Lage auf der Zeitachse.

Wenn man zwei disjunkte Zeitintervalle betrachtet, so sind die Anzahlen der Ereignisse in diesen Zeitr¨ aumen voneinander unabh¨ angig.

DWT 5.4 Poisson-Verteilung 149/476

c

Ernst W. Mayr

(20)

Beispiel 58

Wir wollen wissen, wie oft eine bestimmte Gegend im Durchschnitt von einer Naturkatastrophe (z.B. Vulkanausbruch) getroffen wird. Aus Statistiken entnehmen wir, dass so ein Ereignis im Mittel 10 −4 -mal pro Jahr auftritt. Wir interessieren uns nun f¨ ur die Wahrscheinlichkeit, dass die Region in einem Jahr mehr als einmal von einem solchen Ungl¨ uck heimgesucht wird.

Die Voraussetzungen scheinen erf¨ ullt zu sein, die Anzahl X der Katastrophen durch eine Poisson-Verteilung mit Parameter λ = 10 −4 zu modellieren.

Damit gilt

Pr[X ≥ 2] = 1 − Pr[X = 0] − Pr[X = 1] = 1 − e −λ − λe −λ

≈ 1 − 0,999900005 − 0,000099990 = 5 · 10 −9 .

DWT 5.4 Poisson-Verteilung 150/476

c

Ernst W. Mayr

(21)

Summe von Poisson-verteilten Zufallsvariablen

Satz 59

Sind X und Y unabh¨ angige Zufallsvariablen mit X ∼ Po(λ) und Y ∼ Po(µ), dann gilt Z := X + Y ∼ Po(λ + µ) .

DWT 5.4 Poisson-Verteilung 151/476

c

Ernst W. Mayr

(22)

Beweis:

f

Z

(z) =

X

x=0

f

X

(x) · f

Y

(z − x) =

z

X

x=0

e

−λ

λ

x

x! · e

−µ

µ

z−x

(z − x)!

= e

−(λ+µ)

· (λ + µ)

z

z! ·

z

X

x=0

z!

x!(z − x)!

λ λ + µ

x

µ λ + µ

z−x

= e

−(λ+µ)

· (λ + µ)

z

1 z! ·

z

X

x=0

z x

p

x

(1 − p)

z−x

,

wobei p := λ+µ λ .

Da die Summe gleich 1 ist, folgt

f Z (z) = e −(λ+µ) · (λ + µ) z 1 z! .

DWT 5.4 Poisson-Verteilung 152/476

c

Ernst W. Mayr

(23)

Erl¨ auterungen und Beispiele zur Poisson-Verteilung

In der Wikipedia finden sich ein paar weitere Details und Beispiele hier.

Eine Anwendung der Poisson-Verteilung auf die Fußball-Bundesliga (erschienen im Juni-Heft 2010 von Spektrum der Wissenschaft) ist hier.

DWT 5.4 Poisson-Verteilung 153/476

c

Ernst W. Mayr

(24)

6. Absch¨ atzen von Wahrscheinlichkeiten

6.1 Die Ungleichungen von Markov und Chebyshev

Satz 60 (Markov-Ungleichung)

Sei X eine Zufallsvariable, die nur nicht-negative Werte annimmt. Dann gilt f¨ ur alle t ∈ R mit t > 0, dass

Pr[X ≥ t] ≤ E [X]

t . Aquivalent dazu: ¨

Pr[X ≥ t · E[X]] ≤ 1/t .

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 154/476

c

Ernst W. Mayr

(25)

Beweis:

t · Pr[X ≥ t] = t · X

x∈W

X

, x≥t

Pr[X = x]

≤ X

x∈W

X

, x≥t

x · Pr[X = x]

≤ X

x∈W

X

x · Pr[X = x]

= E[X] .

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 155/476

c

Ernst W. Mayr

(26)

Alternativer Beweis:

Es gilt

E[X] = E[X|X < t]P r[X < t] + E[X|X ≥ t]P r[X ≥ t] . Wegen E[X|X < t]P r[X < t] ≥ 0 und E[X|X ≥ t] ≥ t folgt sofort

E[X] ≥ t ∗ P r[X ≥ t] .

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 156/476

c

Ernst W. Mayr

(27)

Die Markov-Ungleichung ist nach Andrey Andreyevich Markov (1856–1922) benannt, der an der Universit¨ at von St. Petersburg bei Chebyshev studierte und sp¨ ater dort arbeitete. Neben seiner mathematischen T¨ atigkeit fiel Markov durch heftige Proteste gegen das Zaren-Regime auf, und nur sein Status als vermeintlich harmloser

Akademiker sch¨ utzte ihn vor Repressalien durch die Beh¨ orden. Im Jahr 1913

organisierte er parallel zum dreihundertj¨ ahrigen Geburtstag der Zarenfamilie Romanov eine Feier zum zweihundertj¨ ahrigen Geburtstag des Gesetzes der großen Zahlen (s.u.).

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 157/476

c

Ernst W. Mayr

Referenzen

ÄHNLICHE DOKUMENTE

[r]

1. Aufgabe: 10 Bauteile gleicher Bauart werden vor der Weiterverarbeitung einer Materialpr¨ufung unterzogen. 7 bestanden diese Pr¨ufung, sind damit fehlerfrei und 3 nicht. F¨ur

Lars Diening Roland Tomasi. Giovanni

Lars Diening Roland Tomasi. Giovanni

Peter Junghanns Technische Universit¨ at Chemnitz Dr. Ralf Hielscher Fakult¨ at f¨ ur Mathematik.. PD Dr.. Die Menge aller Randpunkte von A bezeichnen wir mit ∂A. abgeschlossen)

Zeigen Sie, dass jeder endlichdimensionale normierte Raum reflexiv

Wir betrachten wei- terhin die Klasse C m ( T ) aller 2π-periodischen Funktionen, die m-fach stetig differenzier- bar auf ganz

Ich bin daran interessiert, mein (altes) Haus in Gainesville zu verkaufen, welches auf einer Grundst¨ ucksfl¨ ache von 2300 square feet steht, sowie 3 Schlafzimmer und 2 B¨ ader