4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre f¨ ur p = 1/2
Wir betrachten die Wahrscheinlichkeit Pr[a ≤ H
2n∗≤ b] f¨ ur
p = 1/2 und a, b ∈ R mit a ≤ b. Wenn die Verteilung von H
2n∗, wie in Korollar 117 angegeben, gegen N (0, 1) konvergiert, so sollte Pr[a ≤ H
2n∗≤ b] ≈ R
ba
ϕ(t) d t f¨ ur gen¨ ugend große n gelten.
Wir schreiben f (n) ∼
∞g(n) f¨ ur lim
n→∞f(n)/g(n) = 1, wollen also zeigen:
Pr[a ≤ H
2n∗≤ b] ∼
∞Z
ba
ϕ(t) d t.
Da f¨ ur H
2n∼ Bin(2n, 1/2) gilt, dass E [H
2n] = n und Var[H
2n] = n/2 ist, erhalten wir
H
2n∗= H
2n− n p n/2 ,
DWT 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre f¨urp= 1/2 302/467
©Ernst W. Mayr
und es folgt
Pr[a ≤ H
2n∗≤ b] = Pr[n + a p
n/2 ≤ H
2n≤ n + b p n/2]
= X
i∈In
Pr[H
2n= n + i]
f¨ ur I
n:= {z ∈ Z | a p
n/2 ≤ z ≤ b p
n/2}. Damit ist Pr[a ≤ H
2n∗≤ b] = X
i∈In
2n n + i
· 1
2
2n| {z }
=:pn,i
.
DWT 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre f¨urp= 1/2 303/467
©Ernst W. Mayr
Es gilt
max
ip
n,i≤ p
∗n:=
2n n
· 1
2
2n= (2n)!
(n!)
2· 1
2
2n,
und mit der Stirling’schen Approximation f¨ ur n!
p
∗n∼
∞(2n)
2n· e
−2n· √ 2π · 2n (n
n· e
−n· √
2πn)
2· 1
2
2n= 1
√ πn .
Ersetzen wir nun die p
n,idurch p
∗nso entsteht dabei ein Fehler, den wir mit q
n,i:=
ppn,i∗n
bezeichnen.
DWT 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre f¨urp= 1/2 304/467
©Ernst W. Mayr
F¨ ur i > 0 gilt q
n,i=
2n n+i
·
122n 2nn
·
122n= (2n)! · n! · n!
(n + i)! · (n − i)! · (2n)!
= Q
i−1j=0
(n − j) Q
ij=1
(n + j) =
i
Y
j=1
n − j + 1 n + j =
i
Y
j=1
1 − 2j − 1 n + j
.
Wegen der Symmetrie der Binomialkoeffizienten gilt q
n,−i= q
n,i, womit auch der Fall i < 0 abgehandelt ist.
DWT 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre f¨urp= 1/2 305/467
©Ernst W. Mayr
Man macht sich leicht klar, dass 1 − 1/x ≤ ln x ≤ x − 1 f¨ ur x > 0 gilt. Damit schließen wir, dass
ln
i
Y
j=1
1 − 2j − 1 n + j
=
i
X
j=1
ln
1 − 2j − 1 n + j
≤ −
i
X
j=1
2j − 1 n + j ≤ −
i
X
j=1
2j − 1 n + i
= − i(i + 1) − i
n + i = − i
2n + i
3n(n + i)
= − i
2n + O
1
√ n
, da i = O( √
n) f¨ ur i ∈ I
n.
DWT 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre f¨urp= 1/2 306/467
©Ernst W. Mayr
Ebenso erhalten wir
ln
i
Y
j=1
1 − 2j − 1 n + j
≥
i
X
j=1
1 −
1 − 2j − 1 n + j
−1!
=
i
X
j=1
−2j + 1 n − j + 1 ≥ −
i
X
j=1
2j − 1 n − i
= − i
2n − i = − i
2n − O
1
√ n
.
Zusammen haben wir e
− i2 n−i =−i2
n−O
√1 n
≤ q
n,i≤ e
−i2 n+O
√1 n
Wegen e
±O(1/√n)= 1 ± o(1) folgt daraus q
n,i∼
∞e
−i2/n.
DWT 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre f¨urp= 1/2 307/467
©Ernst W. Mayr
Damit sch¨ atzen wir nun Pr[a ≤ H
2n∗≤ b] weiter ab:
Pr[a ≤ H
2n∗≤ b] = X
i∈In
p
∗n· q
n,i∼
∞1
√ πn · X
i∈In
e
−i2/n| {z }
=:Sn
.
Mit δ := p
2/n k¨ onnen wir die Summe S
numschreiben zu S
n= 1
√ 2π · X
i∈In
δe
−(iδ)2·12. Diese Summe entspricht einer N¨ aherung f¨ ur R
ba
ϕ(t) d t =
√12π
R
ba
e
−t2/2d t durch Aufteilung der integrierten Fl¨ ache in Balken der Breite δ. F¨ ur n → ∞ konvergiert die Fl¨ ache der Balken gegen das Integral, d. h. S
n∼
∞R
ba
ϕ(t) d t.
q. e. d.
DWT 4.2 Elementarer Beweis des Grenzwertsatzes von de Moivre f¨urp= 1/2 308/467
©Ernst W. Mayr
4.3 Verschiedene Approximationen der Binomialverteilung Sei H
n∼ Bin(n, p) eine binomialverteilte Zufallsvariable mit der Verteilungsfunktion F
n. F¨ ur n → ∞ gilt
F
n(t) = Pr[H
n/n ≤ t/n]
→ Φ t/n − p p p(1 − p)/n
!
= Φ t − np p p(1 − p)n
! . Wir k¨ onnen F
nsomit f¨ ur große n durch Φ approximieren. Diese Approximation ist in der Praxis deshalb von Bedeutung, da die Auswertung der Verteilungsfunktion der Binomialverteilung f¨ ur große n sehr aufwendig ist, w¨ ahrend f¨ ur die Berechnung der Normalverteilung effiziente numerische Methoden vorliegen.
DWT 4.3 Verschiedene Approximationen der Binomialverteilung 309/467
©Ernst W. Mayr
Beispiel 119
Wenn man die Wahrscheinlichkeit berechnen m¨ ochte, mit der bei 10
6W¨ urfen mit einem idealen W¨ urfel mehr als 500500-mal eine gerade Augenzahl f¨ allt, so muss man eigentlich folgenden Term auswerten:
T :=
106
X
i=5,005·105
10
6i
1 2
106.
Dies ist numerisch kaum effizient m¨ oglich.
Die numerische Integration der Dichte ϕ der Normalverteilung ist hingegen relativ einfach. Auch andere Approximationen der Verteilung Φ, beispielsweise durch Polynome, sind bekannt.
Entsprechende Funktionen werden in zahlreichen Softwarebibliotheken als
” black box“ angeboten.
DWT 4.3 Verschiedene Approximationen der Binomialverteilung 310/467
©Ernst W. Mayr
Beispiel
Mit der Approximation durch die Normalverteilung erhalten wir
T ≈ 1 − Φ 5,005 · 10
5− 5 · 10
5p 2,5 · 10
5!
= 1 − Φ
5 · 10
25 · 10
2= 1 − Φ(1) ≈ 0,1573 .
DWT 4.3 Verschiedene Approximationen der Binomialverteilung 311/467
©Ernst W. Mayr
Bei der Approximation der Binomialverteilung mit Hilfe von Korollar 117 f¨ uhrt man oft noch eine so genannte
Stetigkeitskorrektur durch. Zur Berechnung von Pr[X ≤ x] f¨ ur X ∼ Bin(n, p) setzt man
Pr[X ≤ x] ≈ Φ x + 0,5 − np p np(1 − p)
!
statt
Pr[X ≤ x] ≈ Φ x − np p np(1 − p)
!
an.
DWT 4.3 Verschiedene Approximationen der Binomialverteilung 312/467
©Ernst W. Mayr
Der Korrekturterm l¨ aßt sich in der Histogramm-Darstellung der Binomialverteilung veranschaulichen. Die Binomialverteilung wird dort durch Balken angegeben, deren Fl¨ ache in etwa der Fl¨ ache unterhalb der Dichte ϕ von N (0, 1) entspricht. Wenn man die Fl¨ ache der Balken mit
” X ≤ x“ durch das Integral von ϕ
approximieren m¨ ochte, so sollte man bis zum Ende des Balkens f¨ ur
” X = x“ integrieren und nicht nur bis zur Mitte. Daf¨ ur sorgt der Korrekturterm 0,5.
DWT 4.3 Verschiedene Approximationen der Binomialverteilung 313/467
©Ernst W. Mayr
Approximationen f¨ ur die Binomialverteilung
Approximation durch die Poisson-Verteilung: Bin(n, p) wird approximiert durch Po(np). Diese Approximation funktioniert sehr gut f¨ ur seltene Ereignisse, d. h. wenn np sehr klein gegen¨ uber n ist. Als Faustregel fordert man n ≥ 30 und p ≤ 0,05.
Approximation durch die Chernoff-Schranken: Bei der Berechnung der tails der Binomialverteilung liefern diese Ungleichungen meist sehr gute Ergebnisse. Ihre St¨ arke liegt darin, dass es sich bei den Schranken nicht um
Approximationen, sondern um echte Absch¨ atzungen handelt.
Dies ist vor allem dann wichtig, wenn man nicht nur
numerische N¨ aherungen erhalten m¨ ochte, sondern allgemeine Aussagen ¨ uber die Wahrscheinlichkeit von Ereignissen
beweisen m¨ ochte.
DWT 4.3 Verschiedene Approximationen der Binomialverteilung 314/467
©Ernst W. Mayr
Approximation durch die Normalverteilung: Als Faustregel sagt man, dass die Verteilungsfunktion F
n(t) von Bin(n, p) durch
F
n(t) ≈ Φ((t − np)/ p
p(1 − p)n)
approximiert werden kann, wenn np ≥ 5 und n(1 − p) ≥ 5 gilt.
DWT 4.3 Verschiedene Approximationen der Binomialverteilung 315/467
©Ernst W. Mayr
Kapitel III Induktive Statistik
1. Einf¨ uhrung
Das Ziel der induktiven Statistik besteht darin, aus gemessenen Zufallsgr¨ oßen auf die zugrunde liegenden Gesetzm¨ aßigkeiten zu schließen. Im Gegensatz dazu spricht man von deskriptiver Statistik, wenn man sich damit besch¨ aftigt, große Datenmengen verst¨ andlich aufzubereiten, beispielsweise durch Berechnung des Mittelwertes oder anderer abgeleiteter Gr¨ oßen.
DWT 1 Einf¨uhrung 316/467
©Ernst W. Mayr
2. Sch¨ atzvariablen
Wir betrachten die Anzahl X von Lesezugriffen auf eine Festplatte bis zum ersten Lesefehler und nehmen an, dass
Pr[X = i] = (1 − p)
i−1p, setzen also f¨ ur X eine geometrische Verteilung an. Dahinter verbirgt sich die Annahme, dass bei jedem Zugriff unabh¨ angig und mit jeweils derselben Wahrscheinlichkeit p ein Lesefehler auftreten kann.
Unter diesen Annahmen ist die Verteilung der Zufallsvariablen X eindeutig festgelegt. Allerdings entzieht sich der numerische Wert des Parameters p noch unserer Kenntnis. Dieser soll daher nun empirisch gesch¨ atzt werden. Statt p k¨ onnen wir ebensogut E[X]
bestimmen, da wir daraus nach den Eigenschaften der geometrischen Verteilung p mittels p =
1E[X]
berechnen k¨ onnen.
DWT 2 Sch¨atzvariablen 317/467
©Ernst W. Mayr
Dazu betrachten wir n baugleiche Platten und die zugeh¨ origen Zufallsvariablen X
i(f¨ ur 1 ≤ i ≤ n), d. h. wir z¨ ahlen f¨ ur jede Platte die Anzahl von Zugriffen bis zum ersten Lesefehler. Die
Zufallsvariablen X
isind dann unabh¨ angig und besitzen jeweils dieselbe Verteilung wie X. Wir f¨ uhren also viele Kopien eines bestimmten Zufallsexperiments aus, um Schl¨ usse auf die
Gesetzm¨ aßigkeiten des einzelnen Experiments ziehen zu k¨ onnen.
Dies ist das Grundprinzip der induktiven Statistik. Die n
Messungen heißen Stichproben, und die Variablen X
inennt man Stichprobenvariablen.
DWT 2 Sch¨atzvariablen 318/467
©Ernst W. Mayr
Grundprinzip statistischer Verfahren
Wir erinnern an das Gesetz der großen Zahlen (Satz 63) bzw. den Zentralen Grenzwertsatz (Satz 116). Wenn man ein Experiment gen¨ ugend oft wiederholt, so n¨ ahert sich der Durchschnitt der Versuchsergebnisse immer mehr dem Verhalten an, das man
” im Mittel“ erwarten w¨ urde. Je mehr Experimente wir also
durchf¨ uhren, umso genauere und zuverl¨ assigere Aussagen k¨ onnen wir ¨ uber den zugrunde liegenden Wahrscheinlichkeitsraum ableiten.
Auf diesem Grundprinzip beruhen alle statistischen Verfahren.
DWT 2 Sch¨atzvariablen 319/467
©Ernst W. Mayr