• Keine Ergebnisse gefunden

Sei X eine Zufallsvariable, und sei t ∈ R mit t > 0. Dann gilt

N/A
N/A
Protected

Academic year: 2021

Aktie "Sei X eine Zufallsvariable, und sei t ∈ R mit t > 0. Dann gilt"

Copied!
26
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Die folgende Absch¨ atzung ist nach Pavnuty Lvovich Chebyshev (1821–1894) benannt, der ebenfalls an der Staatl. Universit¨ at in St. Petersburg wirkte.

Satz 61 (Chebyshev-Ungleichung)

Sei X eine Zufallsvariable, und sei t ∈ R mit t > 0. Dann gilt

Pr[|X − E [X]| ≥ t] ≤ Var[X]

t 2 . Aquivalent dazu: ¨

Pr[|X − E[X]| ≥ t p

Var[X]] ≤ 1/t 2 .

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 158/476

c

Ernst W. Mayr

(2)

Beweis:

Wir stellen fest, dass

Pr[|X − E [X]| ≥ t] = Pr[(X − E [X]) 2 ≥ t 2 ] . Setze

Y := (X − E [X]) 2 .

Dann gilt E [Y ] = Var[X], und damit mit der Markov-Ungleichung:

Pr[|X − E[X]| ≥ t] = Pr[Y ≥ t 2 ] ≤ E[Y ]

t 2 = Var[X]

t 2 .

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 159/476

c

Ernst W. Mayr

(3)

Beispiel 62

Wir werfen 1000-mal eine ideale M¨ unze und ermitteln die Anzahl X der W¨ urfe, in denen

” Kopf“ f¨ allt.

X ist binomialverteilt mit X ∼ Bin(1000, p = 1 2 ),also gilt E[X] = 1

2 n = 500 und Var[X] = 1

4 n = 250.

Wie groß ist die Wahrscheinlichkeit, dass mehr als 550-mal

” Kopf“ f¨ allt?

DWT 160/476

c

Ernst W. Mayr

(4)

Beispiel 62

Chebyshev-Ungleichung:

Pr[X ≥ 550] ≤ Pr[|X − 500| ≥ 50] ≤ 250

50 2 = 0,1 .

Setze nun n = 10000 und betrachte wieder eine maximal 10%-ige Abweichung vom Erwartungswert:

E [X] = 5000 und Var[X] = 2500, und damit Pr[X ≥ 5500] ≤ Pr[|X − 5000| ≥ 500] ≤ 2500

500 2 = 0,01 .

DWT 6.1 Die Ungleichungen von Markov und Chebyshev 160/476

c

Ernst W. Mayr

(5)

6.2 Gesetz der großen Zahlen

Wir haben diskutiert, wie Wahrscheinlichkeiten als Grenzwerte von relativen H¨ aufigkeiten aufgefasst werden k¨ onnen.

Satz 63 (Gesetz der großen Zahlen)

Gegeben sei eine Zufallsvariable X. Ferner seien ε, δ > 0 beliebig aber fest. Dann gilt f¨ ur alle n ≥ Var[X εδ

2

] :

Sind X 1 , . . . , X n unabh¨ angige Zufallsvariablen mit derselben Verteilung wie X und setzt man

Z := X 1 + . . . + X n

n ,

so gilt

Pr[|Z − E[X]| ≥ δ] ≤ ε.

DWT 6.2 Gesetz der großen Zahlen 161/476

c

Ernst W. Mayr

(6)

Beweis:

F¨ ur Z gilt

E [Z ] = 1

n · ( E [X 1 ] + . . . + E [X n ]) = 1

n · n · E [X] = E [X], sowie

Var[Z] = 1

n 2 · (Var[X 1 ] + . . . + Var[X n ]) = 1

n 2 · n · Var[X] = Var[X]

n . Mit der Chebyshev-Ungleichung erhalten wir

Pr[|Z − E[X]| ≥ δ] = Pr[|Z − E[Z ]| ≥ δ] ≤ Var[Z]

δ 2 = Var[X]

2 ≤ ε, nach Wahl von n.

DWT 6.2 Gesetz der großen Zahlen 162/476

c

Ernst W. Mayr

(7)

Wahrscheinlichkeit und relative H¨ aufigkeit.

Sei X eine Indikatorvariable f¨ ur ein Ereignis A, Pr[A] = p. Somit ist X Bernoulli-verteilt mit E [X] = p.

Z = n 1 (X 1 + . . . + X n ) gibt die relative H¨ aufigkeit an, mit der A bei n Wiederholungen des Versuchs eintritt, denn

Z = Anzahl der Versuche, bei denen A eingetreten ist Anzahl aller Versuche . Mit Hilfe des obigen Gesetzes der großen Zahlen folgt

Pr[|Z − p| ≥ δ] ≤ ε,

f¨ ur gen¨ ugend großes n. Also n¨ ahert sich die relative H¨ aufigkeit von A bei hinreichend vielen Wiederholungen des Experiments mit beliebiger Sicherheit beliebig nahe an die

” wahre“ Wahrscheinlichkeit p an.

DWT 6.2 Gesetz der großen Zahlen 163/476

c

Ernst W. Mayr

(8)

Die obige Variante eines Gesetzes der großen Zahlen geht auf Jakob Bernoulli zur¨ uck, der den Satz in seinem Werk ars conjectandi zeigte.

Es soll betont werden, dass das Gesetz der großen Zahlen die relative Abweichung | n 1 P

i X i − p|

und nicht die

absolute Abweichung | P

i X i − np|

absch¨ atzt!

DWT 6.2 Gesetz der großen Zahlen 164/476

c

Ernst W. Mayr

(9)

6.3 Chernoff-Schranken

6.3.1 Chernoff-Schranken f¨ ur Summen von 0–1–Zufallsvariablen

Die hier betrachtete Art von Schranken ist nach Herman Chernoff ( 1923) benannt.

Sie finden in der komplexit¨ atstheoretischen Analyse von Algorithmen eine sehr h¨ aufige Verwendung.

Satz 64

Seien X 1 , . . . , X n unabh¨ angige Bernoulli-verteilte Zufallsvariablen mit Pr[X i = 1] = p i

und Pr[X i = 0] = 1 − p i . Dann gilt f¨ ur X := P n

i=1 X i und µ := E [X] = P n i=1 p i , sowie jedes δ > 0, dass

Pr[X ≥ (1 + δ)µ] ≤

e δ (1 + δ) 1+δ

µ

.

DWT 6.3 Chernoff-Schranken 165/476

c

Ernst W. Mayr

(10)

Beweis:

F¨ ur t > 0 gilt

Pr[X ≥ (1 + δ)µ] = Pr[e tX ≥ e t(1+δ)µ ] . Mit der Markov-Ungleichung folgt

Pr[X ≥ (1 + δ)µ] = Pr[e tX ≥ e t(1+δ)µ ] ≤ E [e tX ] e t(1+δ)µ . Wegen der Unabh¨ angigkeit der Zufallsvariablen X 1 , . . . , X n gilt

E [e tX ] = E

"

exp

n

X

i=1

tX i

!#

= E

" n Y

i=1

e tX

i

#

=

n

Y

i=1

E [e tX

i

].

Weiter ist f¨ ur i ∈ {1, . . . , n}:

E [e tX

i

] = e t·1 p i + e t·0 (1 − p i ) = e t p i + 1 − p i = 1 + p i (e t − 1) ,

DWT 166/476

c

Ernst W. Mayr

(11)

Beweis (Forts.):

und damit

Pr[X ≥ (1 + δ)µ] ≤ Q n

i=1 (1 + p i (e t − 1)) e t(1+δ)µ

≤ Q n

i=1 exp(p i (e t − 1)) e t(1+δ)µ

= exp( P n

i=1 p i (e t − 1))

e t(1+δ)µ = e (e

t

−1)µ

e t(1+δ)µ =: f (t) . Wir w¨ ahlen nun t so, dass f (t) minimiert wird, n¨ amlich

t = ln(1 + δ) . Damit wird

f(t) = e (e

t

−1)µ

e t(1+δ)µ = e δµ (1 + δ) (1+δ)µ .

DWT 6.3 Chernoff-Schranken 166/476

c

Ernst W. Mayr

(12)

Beispiel 65

Wir betrachten wieder das Beispiel, dass wir eine faire M¨ unze n-mal werfen und absch¨ atzen wollen, mit welcher Wahrscheinlichkeit

” Kopf“

n

2 (1 + 10%) oder ¨ ofter f¨ allt.

n Chebyshev Chernoff

1000 0,1 0,0889

10000 0,01 0,308 · 10 −10 n

1 4

n (0,1·

12

n)

2

e

0,1

(1+0,1)

1+0,1

1

2

n

DWT 6.3 Chernoff-Schranken 167/476

c

Ernst W. Mayr

(13)

Satz 66

Seien X 1 , . . . , X n unabh¨ angige Bernoulli-verteilte Zufallsvariablen mit Pr[X i = 1] = p i

und Pr[X i = 0] = 1 − p i . Dann gilt f¨ ur X := P n

i=1 X i und µ := E [X] = P n i=1 p i , sowie jedes 0 < δ < 1, dass

Pr[X ≤ (1 − δ)µ] ≤

e −δ (1 − δ) 1−δ

µ .

Beweis:

Analog zum Beweis von Satz 64.

Bemerkung: Absch¨ atzungen, wie sie in Satz 64 und Satz 66 angegeben sind, nennt man auch tail bounds, da sie Schranken f¨ ur die tails, also die vom Erwartungswert weit entfernten Bereiche angeben. Man spricht hierbei vom upper tail (vergleiche Satz 64) und vom lower tail (vergleiche Satz 66).

Die Chernoff-Schranken h¨ angen exponentiell von µ ab!

DWT 6.3 Chernoff-Schranken 168/476

c

Ernst W. Mayr

(14)

Lemma 67 F¨ ur 0 ≤ δ < 1 gilt

(1 − δ) 1−δ ≥ e −δ+δ

2

/2 und (1 + δ) 1+δ ≥ e δ+δ

2

/3 .

Beweis:

Wir betrachten

f (x) = (1 − x) ln(1 − x) und g(x) = −x + 1 2 x 2 . Es gilt f¨ ur 0 ≤ x < 1:

g 0 (x) = x − 1 ≤ − ln(1 − x) − 1 = f 0 (x) sowie

f(0) = 0 = g(0) , also im angegebenen Intervall f (x) ≥ g(x).

Die Ableitung der zweiten Ungleichung erfolgt analog.

DWT 6.3 Chernoff-Schranken 169/476

c

Ernst W. Mayr

(15)

Korollar 68

Seien X 1 , . . . , X n unabh¨ angige Bernoulli-verteilte Zufallsvariablen mit Pr[X i = 1] = p i

und Pr[X i = 0] = 1 − p i . Dann gelten folgende Ungleichungen f¨ ur X := P n

i=1 X i und µ := E [X] = P n

i=1 p i :

1

Pr[X ≥ (1 + δ)µ] ≤ e −µδ

2

/3 f¨ ur alle 0 < δ ≤ 1, 81,

2

Pr[X ≤ (1 − δ)µ] ≤ e −µδ

2

/2 f¨ ur alle 0 < δ ≤ 1,

3

Pr[|X − µ| ≥ δµ] ≤ 2e −µδ

2

/3 f¨ ur alle 0 < δ ≤ 1,

4

Pr[X ≥ (1 + δ)µ] ≤

e 1+δ

(1+δ)µ

und

5

Pr[X ≥ t] ≤ 2 −t f¨ ur t ≥ 2eµ.

DWT 6.3 Chernoff-Schranken 170/476

c

Ernst W. Mayr

(16)

Beweis:

1 und 2 folgen direkt aus Satz 64 bzw. 66 und Lemma 67.

Aus 1 und 2 zusammen folgt 3.

Die Absch¨ atzung 4 erhalten wir direkt aus Satz 64, da f¨ ur den Z¨ ahler gilt e δ ≤ e (1+δ) .

5 folgt aus 4, indem man t = (1 + δ)µ setzt, t ≥ 2eµ:

e 1 + δ

(1+δ)µ

≤ e

t/µ t

≤ 1

2 t

.

DWT 6.3 Chernoff-Schranken 171/476

c

Ernst W. Mayr

(17)

Beispiel 69

Wir betrachten wieder balls into bins und werfen n B¨ alle unabh¨ angig und gleichverteilt in n K¨ orbe. Sei

X i := Anzahl der B¨ alle im i-ten Korb f¨ ur i = 1, . . . , n, sowie X := max 1≤i≤n X i .

F¨ ur die Analyse von X i (i ∈ {1, . . . , n} beliebig) verwenden wir Aussage 5 von Korollar 68, mit p 1 = . . . = p n = 1 n , µ = 1 und t = 2 log n. Es folgt

Pr[X i ≥ 2 log n] ≤ 1/n 2 .

Daraus ergibt sich

Pr[X ≥ 2 log n] = Pr[X

1

≥ 2 log n ∨ . . . ∨ X

n

≥ 2 log n] ≤ n · 1 n

2

= 1

n . Es gilt also mit Wahrscheinlichkeit ≥ 1 − 1/n, dass X < 2 log n ist.

DWT 6.3 Chernoff-Schranken 172/476

c

Ernst W. Mayr

(18)

Literatur:

Torben Hagerup, Christine R¨ ub:

A guided tour of Chernoff bounds

Inf. Process. Lett. 33, pp. 305–308 (1990)

DWT 6.3 Chernoff-Schranken 173/476

c

Ernst W. Mayr

(19)

7. Erzeugende Funktionen

7.1 Einf¨ uhrung Definition 70

F¨ ur eine Zufallsvariable X mit W X ⊆ N 0 ist die (wahrscheinlichkeits-)erzeugende Funktion definiert durch

G X (s) :=

X

k=0

Pr[X = k] · s k = E [s X ] .

Eine wahrscheinlichkeitserzeugende Funktion ist also die (gew¨ ohnliche) erzeugende Funktion der Folge (f i ) i∈ N

0

mit f i := Pr[X = i].

DWT 7.1 Einf¨uhrung 174/476

c

Ernst W. Mayr

(20)

Bei wahrscheinlichkeitserzeugenden Funktionen haben wir kein Problem mit der Konvergenz, da f¨ ur |s| < 1 gilt

|G X (s)| =

X

k=0

Pr[X = k] · s k

X

k=0

Pr[X = k] · |s k | ≤

X

k=0

Pr[X = k] = 1 .

DWT 7.1 Einf¨uhrung 175/476

c

Ernst W. Mayr

(21)

Beobachtung:

Sei Y := X + t mit t ∈ N 0 . Dann gilt

G Y (s) = E[s Y ] = E[s X +t ] = E[s t · s X ] = s t · E[s X ] = s t · G X (s) .

Ebenso l¨ asst sich leicht nachrechnen, dass G 0 X (s) =

X

k=1

k · Pr[X = k] · s k−1 , also G 0 X (0) = Pr[X = 1], sowie

G (i) X (0) = Pr[X = i] · i!, also G (i) X (0)/i! = Pr[X = i] .

DWT 7.1 Einf¨uhrung 176/476

c

Ernst W. Mayr

(22)

Satz 71 (Eindeutigkeit der w.e. Funktion)

Die Dichte und die Verteilung einer Zufallsvariablen X mit W X ⊆ N sind durch ihre wahrscheinlichkeitserzeugende Funktion eindeutig bestimmt.

Beweis:

Folgt aus der Eindeutigkeit der Potenzreihendarstellung.

DWT 7.1 Einf¨uhrung 177/476

c

Ernst W. Mayr

(23)

Bernoulli-Verteilung

Sei X eine Bernoulli-verteilte Zufallsvariable mit Pr[X = 0] = 1 − p und Pr[X = 1] = p. Dann gilt

G X (s) = E [s X ] = (1 − p) · s 0 + p · s 1 = 1 − p + ps . Gleichverteilung auf {0, . . . , n}

Sei X auf {0, . . . , n} gleichverteilt, d.h. f¨ ur 0 ≤ k ≤ n ist Pr[X = k] = 1/(n + 1).

Dann gilt

G X (s) = E [s X ] =

n

X

k=0

1

n + 1 · s k = s n+1 − 1 (n + 1)(s − 1) .

DWT 7.1 Einf¨uhrung 178/476

c

Ernst W. Mayr

(24)

Binomialverteilung

F¨ ur X ∼ Bin(n, p) gilt nach der binomischen Formel G X (s) = E [s X ] =

n

X

k=0

n k

p k (1 − p) n−k · s k = (1 − p + ps) n .

Geometrische Verteilung

Sei X eine geometrisch verteilte Zufallsvariable mit Erfolgswahrscheinlichkeit p. Dann gilt

G X (s) = E [s X ] =

X

k=1

p(1 − p) k−1 · s k

= ps ·

X

k=1

((1 − p)s) k−1 = ps 1 − (1 − p)s .

DWT 7.1 Einf¨uhrung 179/476

c

Ernst W. Mayr

(25)

Poisson-Verteilung F¨ ur X ∼ Po(λ) gilt

G X (s) = E[s X ] =

X

k=0

e −λ λ k

k! · s k = e −λ+λs = e λ(s−1) .

DWT 7.1 Einf¨uhrung 180/476

c

Ernst W. Mayr

(26)

Beispiel 72

Sei X binomialverteilt mit X ∼ Bin(n, λ/n), F¨ ur n → ∞ folgt G X (s) =

1 − λ

n + λs n

n

=

1 + λ(s − 1) n

n

→ e λ(s−1) .

Man kann beweisen, dass aus der Konvergenz der wahrscheinlichkeitserzeugenden Funktion die Konvergenz der Verteilung folgt.

DWT 7.1 Einf¨uhrung 181/476

c

Ernst W. Mayr

Referenzen

ÄHNLICHE DOKUMENTE

Uwe K¨ uchler Sommersemester 2007 Dr..

[r]

Geben Sie eine geometrische Interpretation

Alfred und Bianca spielen folgendes Spiel: Alfred würfelt mit einem fairen Würfel so lange, bis er zweimal hintereinander eine 1 würfelt.. Bianca hingegen würfelt mit einem

Der kleine Fritz (Name aus Datenschutzgr¨ unden ge¨ andert) will wissen, wie viele Lose sich in der Trommel befinden und entnimmt in einem unbe- obachteten Augenblick ein Los,

Technische Universität Chemnitz Stochastik Fakultät für

(c) W¨ are es f¨ ur Fabian besser, wenn derjenige das Duell gewinnt, der das erste Spiel gewinnt. (d) Wie groß ist die Wahrscheinlichkeit, dass das Duell

(c) W¨ are es f¨ ur Fabian besser, wenn derjenige das Duell gewinnt, der das erste Spiel gewinnt?. (d) Wie groß ist die Wahrscheinlichkeit, dass das Duell