Einführung in die Stochastik, Blatt 13
Andreas Fackler 19. Januar 2008
Aufgabe 1
Das hier betrachtete statistische Modell ist(Rn,B(Rn),(N(µ, σ2)n)µ∈R,σ∈R+). Dasn-dimensionale Lebesguemaß ist also ein dominierendes Maß und wir erhalten die Log-Likelihood-Funktion
logf :Rn×R×R+→R,logf(x, µ, σ2) =
n
X
k=1
log 1
√2πσexp
−(xk−µ)2 2σ2
= −n
2 log(2π)−nlogσ− 1 2σ2
n
X
k=1
(xk−µ)2. Differentiation ergibt:
d
dµlogf(x, µ, σ2) = 1 2σ2
n
X
k=1
2(xk−µ) = 1 σ2
n
X
k=1
xk−nµ
!
d
dσlogf(x, µ, σ2) = −n σ+ 1
σ3
n
X
k=1
(xk−µ)2= 1 σ3
n
X
k=1
(xk−µ)2−nσ2
!
Da der Wert fürσ→0,σ→ ∞,µ→ −∞undµ→ ∞gegen−∞strebt, ist der Wert
bµ(x),σc2(x)
=
1 n
n
X
k=1
xk, 1 n
n
X
k=1
xk− 1 n
n
X
k=1
xk
!2
,
für den der Gradient verschwindet, also der Durchschnitt derXkund die mittlere quadratis- che Abweichung vom Durchschnitt, genau das Maximum der Log-Likelihood-Funktion, also der Maximum-Likelihood-Schätzer.
Aufgabe 2
(a)
SetzeΩk =Nk,Ak =P(Nk);Pn,k ist dann dask-fache Produktmaß der Gleichverteilung auf {1, . . . , n}, das heißt,Pn,k({ω})ist n1k, fallsω1, . . . , ωk ≤n, und sonst0.
(b)
Da das Modell diskret ist, ist das Zählmaß ein dominierendes Maß und f : Ωk×N→R, f(ω, n) = 1{1,...,n}k(ω)· 1
nk
die Likelihood-Funktion. Bei festemωwird diese maximal, wennn= maxkωk, es ist also nck(ω) = max
k ωk.
(c)
EPn,k[cnk] = X
ω∈{1,...,n}k
1 nkmax
k ωk=n−k
n
X
m=1
X
maxkωk=m
m
= n−k
n
X
m=1
(mk−(m−1)k)m=n−k
n
X
m=1
(mk+1−(m−1)k−(m−1)k+1)
= n−k nk+1−
n
X
m=1
(m−1)k
!
=n−
n−1
X
m=1
m n
k 6=n
Der Schätzer ist also nicht erwartungstreu.
(d)
Seiε >0. Dann gilt, da immernck< nist:
Pn,k[|nck−n|> ε] = Pn,k[nck < n−ε] =Pn,k[∀i∈ {1, . . . , k}ωi< n−ε]
=
k
Y
i=1
Pn,k[ωi< n−ε] = (Pn,k[ω1< n−ε])k.
DaPn,k[ω1< n−ε]≤1−Pn,k[ω1 =n] = 1−n1 <1, konvergiert dies fürk→ ∞gegen0, wie zu zeigen war.
Aufgabe 3
Angenommen,bσwäre ein erwartungstreuer Schätzer, das heißt, für jedesp∈[0,1]gelte:
pnp(1−p) =EPp[σ] =b X
ω∈{0,1}n
bσ(ω)Pp[{ω}] = X
ω∈{0,1}n
bσ(ω)pS(ω)(1−p)n−S(ω) Rechts steht ein Polynom inp, also istp
np(1−p)ein Polynom inp. Da sein Quadrat,np−np2, Grad 2 hat, mussp
np(1−p)Grad 1 haben, also linear sein. Das ist aber nicht der Fall.
Aufgabe 4
(a)
Das statistische Modell ist hier(Ωk,Ak,(Pp,k)p∈]0,1[)mit
Ak = P(Ωk) und der Zähldichtepp,k(ω) =QL(ω)
k=1 pωk(1−p)1−ωk = pk(1−p)L(ω)−k vonPp,k. (Wir ingnorieren hier das Ereignis, dass niemalskEinsen fallen, da es Wahrscheinlichkeit0 hat.) Die Likelihood-Funktion ist also:
f : Ωk×]0,1[→R, f(ω, p) =pk(1−p)L(ω)−k Differentiation nachpergibt
kpk−1(1−p)L(ω)−k−(L(ω)−k)pk(1−p)L(ω)−k−1= (k−pL(ω))pk−1(1−p)L(ω)−k−1 Die Nullstelle hiervon ist das eindeutige Maximum, daf(ω,0) =f(ω,1) = 0ist. Der Maximum- Likelihood-Schätzer ist alsop(ω) =b L(ω)k .
(b)
Seien ε > 0 undp gegeben. Sei jeweilsXi die Wartezeit zwischen der (i−1)-ten und der i-ten Eins. Dann sind dieXiiid geometrisch verteilt, haben also Erwartungswert1p, undL= Pk
i=1Xi. Nach dem schwachen Gesetz der großen Zahlen konvergiert also Lk in Wahrschein- lichkeit gegen 1p und damit:
Pp,k[|pb−p| ≤ε] = Pp,k 1
p+ε ≤L k ≤ 1
p−ε
−→1
Aufgabe 5
(a)
Wir berechnen zunächst für eine Borel-MengeA:
P[λ∈A∧N =n] = Z
A
as
Γ(s)xs−1e−axe−xxn n! dx
= asΓ(s+n) (a+ 1)s+nΓ(s)
Z
A
(a+ 1)s+n
Γ(s+n) xn+s−1e−(a+1)xdx Es ist also
P[λ∈A|N=n] = P[λ∈A∧N =n]
P[N =n] =
asΓ(s+n) (a+1)s+nΓ(s)
R
A
(a+1)s+n
Γ(s+n) xn+s−1e−(a+1)xdx
asΓ(s+n) (a+1)s+nΓ(s)
R (a+1)s+n
Γ(s+n) xn+s−1e−(a+1)xdx
= Z
A
(a+ 1)s+n
Γ(s+n) xn+s−1e−(a+1)xdx, das heißt,λist, bedingt aufN =n,Gamma(a+ 1, s+n)-verteilt.
(b)
Damit hatλbedingt aufN =nden Erwartungswerts+na+1, das heißt,λ(n) =b s+na+1
Aufgabe 6
(a)
Pm[K=k|L=l] = Pm[L=l|K=k]P[K=k]
Pn
k0=0Pm[L=l|K=k0]P[K=k0] =
m l
k n
l
1−knm−l pk
Pn k0=0
m l
k0 n
l
1−kn0m−l pk0
= kl(n−k)m−lpk
Pn
k0=0k0l(1−k0)m−lpk0, wobei wir00= 1setzen, da:
Pm[K=n|L=m] = nlpn Pn
k0=0k0lpk0
(b)
Zunächst beweisen wir die Bemerkung im Hinweis:
Pm[K=k|L=l]
Pm[K=k+ 1|L=l] = kl(n−k)m−lpk (k+ 1)l(n−k−1)m−lpk+1
= pk pk+1
k k+ 1
ml n−k n−k−1
1−ml!m
= pk
pk+1
f k
n,k+ 1 n , l
m m
Im Fallk+ 1 =n,l=merhalten wir nach obiger Konvention (k+1)klplkpk+1 = ppk
k+1f nk,1,1 . Für0< p < p0 ≤π≤1(wegen der Voraussetzung ml ≥ k+1n wird dies in unserem Fall erfüllt sein) ist pp0 <1und 1−p1−p0 >1, also wegenp0≤π:
p p0
π
≤ p
p0 p0
und
1−p 1−p0
1−π
≤
1−p 1−p0
1−p0
Dies beweistf(p, p0, π)≤ f(p, p0, p0). Fürf(p, p0, p0) <1 genügt es zu zeigen, dass der Loga- rithmus negativ ist. Da dieser strikt konkav ist, gilt:
logf(p, p0, p0) = p0log p
p0 + (1−p0) log 1−p 1−p0
< log
p0p
p0 + (1−p0)1−p 1−p0
= log 1 = 0 Nun können wir die Abschätzung fürP[K=k|L=l]beweisen:
Pm[K=k|L=l] ≤ Pm[K=k+ 1|L=l] pk
pk+1f k
n,k+ 1 n , l
m m
≤ pk
pk+1
f k
n,k+ 1 n ,k+ 1
n m
= pk pk+1
elogf(nk,k+1n ,k+1n )·m
Wegenf kn,k+1n ,k+1n
<1ist dieser Logarithmus negativ. Wir setzen α = −logf
k ,k+ 1
,k+ 1 und
Dann ist Pm
L m −K
n ≥ 1 n|L=l
= X
k∈{0,...,n},ml−kn≥n1
Pm[K=k|L=l]
≤ X
k∈{0,...,n},ml−kn≥n1
Cke−αkm
≤ (n+ 1) max
k Ck·e−minkαkm=C·e−αm mitC= (n+ 1) maxkCkundα= minkαk.
(c)
Die gleiche Argumentation liefert für die Anzahln−Kgrüner Kugeln und die Anzahlm−L gezogener grüner Kugeln:
C0e−α0m≥Pm
m−L
m −n−K n ≥ 1
n|L=l
=Pm
− L
m−K n
≥ 1 n|L=l
MitC00=C+C0undα00= min{α, α0}gilt also:
Pm
L m−K
n
≥ 1 n|L=l
≤C00e−α00m