• Keine Ergebnisse gefunden

Stochastik I - Formelsammlung von Julian Merkert, Wintersemester 2005/06, Prof. Bäuerle

N/A
N/A
Protected

Academic year: 2022

Aktie "Stochastik I - Formelsammlung von Julian Merkert, Wintersemester 2005/06, Prof. Bäuerle"

Copied!
11
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Stochastik I - Formelsammlung

von Julian Merkert, Wintersemester 2005/06, Prof. Bäuerle

Ereignisse und Wahrscheinlichkeiten

Ereignis

• Ergebnisraum:Ω

• Ereignis:A⊂Ω

• Elementarereignis:{ω}, ω∈Ω

• A∩B:=AB:={ω∈Ω|ω∈Aundω∈B}

• A∪B:={ω∈Ω|ω∈Aoderω∈B}(Für disjunkte Mengen:A+B)

• A\B={ω∈Ω|ω∈A, ω /∈B}

• AC= Ω\B

Kartesisches Produkt:Ω1×Ω2×...×Ωn ={(a1, ..., an)|ai∈Ωi, i= 1...n}

Potenzmenge:P(Ω) (Menge aller Teilmengen vonΩ) DeMorgansche Regeln:

• (A∪B)C=AC∩BC

• (A∩B)C=AC∪BC

σ-Algebra überΩ:A ⊂ P(Ω)mit...

1. Ω∈ A

2. A∈ A ⇒AC∈ A 3. A1, A2, ...∈A⇒S

i=1Ai∈ A Messraum:(Ω,A)

Folge von Ereignissen:{An}

• Limes superior:limn→∞An = lim supAn=T k=1

S

n=kAn (unendlich viele derAns treten ein)

• Limes inferior:limn→∞An = lim infAn=S k=1

T

n=kAn (alle bis auf endlich viele derAns treten ein)

• Falls{An}wachsend (A1⊂A2⊂...=An↑)⇒limn→∞An= limn→∞An=S n=1An

• Falls{An}fallend (A1⊃A2⊃...=An↓)⇒limn→∞An= limn→∞An=T n=1An Wahrscheinlichkeitsmaÿ aufA: P:A →[0,1]im Messraum(Ω,A)mit...

1. Normiertheit:P(Ω) = 1 2. σ-Additivität:P(P

n=1An) =P

n=1P(An)für alle paarweise disjunktenA1, A2, ...∈ A Wahrscheinlichkeitsraum:(Ω,A, P)

• P(AC) = 1−P(A)

• P(∅) = 0

(2)

• Endliche Additivität:P(Pn

i=1Ai) =Pn

i=1P(Ai)für alle paarweise disjunktenA1, ..., An

• Boolsche Ungleichung:P(Sn

i=1Ai)≤Pn

i=1P(Ai)

• Siebformel:P(Sn

k=2Ak) =Pn

k=1(−1)k−1P

1≤i1<i2<...<ik≤nP(Ai1∩...∩Aik) P(A∪B) =P(A) +P(B)−P(A∩B)

P(A1∪A2∪A3) =P(A1) +P(A2) +P(A3)−P(A1∩A2)−P(A1∩A3)−P(A2∩A3) +P(A1∩A2∩A3)

Laplace'scher Wahrscheinlichkeitsraum:(Ω,A, P)mitA=P(Ω)undP(A) =|A||Ω| ∀ A∈Ω

• jedes Elementarereignis hat die gleiche WahrscheinlichkeitP(ω) =|Ω|1 Permutationen

• Die Anzahl der Permutationen vonnverschiedenen Objekten istn! = 1·2·3·...·n

• Die Anzahl der Permutationen vonnObjekten mit jeweilsn1, n2, ..., nk gleichen Elementen ist n1!·n2n!!·...·nk! Kombinatorik

# der Möglichkeiten bei Ziehung vom Umfangk aus{1...n}

mit Zurücklegen ohne Zurücklegen

mit Reihenfolge nk (n−k)!n!

ohne Reihenfolge n+k−1k n

k

=k!(n−k)!n!

n+k−1k

kann auch als die Anzahl der Möglichkeiten,k(nicht unterscheidbare) Objekte aufn(unterscheidbare) Fächer aufzuteilen, angesehen werden (mit Mehrfachbelegungen).

Bedingte Wahrscheinlichkeit:P(A|B) =P(AB)P(B)

Multiplikationssatz:P(A1∩...∩An) = Πnk=1P(Ak|A1∩...∩Ak−1)mit A0:= Ω

• P(AB) =P(A|B)·P(B)

Ereignispartition vonΩ:B1, B2, ...∈ Amit...

1. Bi∩Bj =∅ füri6=j 2. P

i=1Bi= Ω 3. P(Bi)>0∀i∈N

Satz von der totalen Wahrscheinlichkeit: ∀A∈ A:P(A) =P

j=1P(Bj)·P(A|Bj) Formel von Bayes:P(Bk|A) =PP(Bk)·P(A|Bk)

j=1P(Bj)·P(A|Bj)

Unabhängigkeit zweier Ereignisse:P(AB) =P(A)·P(B)

Unabhängigkeit der EreignisseA1, ..., An ∈ A: für allek= 1...nund für alle k-Tupel1≤i1< i2< ... < ik≤n:

P(

k

\

j=1

Aij) = Πkj=1P(Aij)

(3)

Zufallsvariablen und Verteilungen

VonE erzeugte σ-Algebra:σ(E) :=T

A⊃E,Aistσ-AlgebraA

• E ⊂ P(Ω)heiÿt Erzeugendensystem

Borelscheσ-Algebra:B:=σ(E)mitE={(a, b],−∞< a < b <∞}

Dynkin-System:D ⊂ P(Ω) mit..

1. Ω∈ D

2. A∈ D ⇒AC∈ D

3. A1, A2, ...∈ D, Ai∩Aj =∅füri6=j⇒P

i=1Ai∈ D

Durchschnittsstabiles (∩-stabiles) MengensystemE:A, B∈ E ⇒A∩B∈ E Zufallsvariable:X: Ω→R

• :⇔X ist(A,B)-messbar

• :⇔X−1(B) ={ω|X(ω)∈B} ∈ A ∀B∈ B

• :⇔X−1((−∞, a]) ={ω|X(ω)≤a} ∈ A ∀a∈R

• :⇔X stetig oder (schwach) monoton wachsend oder fallend für(R,B)

Verkettung zweier ZufallsvariablenX : Ω→RundY :R→R⇒Y ◦X: Ω→Rist wieder ZV Verteilung:PX:B →[0,1]mitPX(B) =P({ω∈Ω|X(ω)∈B}) ∀B∈ B

• Die Verteilung ist ein Wahrscheinlichkeitsmaÿ auf dem Messraum(R,B)

Verteilungsfunktion:FX :R→[0,1]mit FX(x) =P(X ≤x) =P({ω∈Ω|X(ω)≤x}) =PX((−∞, x])

• limx→−∞FX(x) = 0,limx→+∞FX(x) = 1

• FX ist (schwach) monoton wachsend

• FX ist rechtsseitig stetig

Quantilfunktion:F−1: [0,1]→RmitF−1(y) := inf{x∈R|F(x)≥y} für eine VerteilungsfunktionF :R→[0,1]

• F stetig und streng monoton wachsend⇒F−1 übliche Umkehrfunktion

Diskrete Verteilung Stetige Verteilung

X: Ω→Rheiÿt diskret, falls es eine endliche oder abzähl- bare MengeC ⊆Rgibt, so dass P(X ∈C) =pX(C) = 1 ist.

OBdA: SeiC={x1, x2, ...}

X : Ω→Rheiÿt absolutstetig, falls die Verteilungsfunk- tionFX vonxfolgende Darstellung besitzt:

FX(x) =Rx

−∞fX(y)dy∀ x∈R Zähldichte von X:pX(k) =P(X=xk)

• pX(k)≥0∀k∈N

• P

k=1pX(k) = 1

Dichte von X:fX:R→[0,∞)

• R

−∞fX(y)dy= 1

(4)

Diskrete Verteilungen:

• Binomialverteilung:

pX(k) =P(X =k) = nk

·pk·(1−p)n−k (n∈N, p∈[0,1])

• Hypergeometrische Verteilung:

P(X =k) = (rk)(m−kn−r) (mn)

• Geometrische Verteilung:

P(X =k) = (1−p)·pk−1 (p∈[0,1])

• Poisson-Verteilung:

P(X =k) =e−λ λk!k (λ >0)

• Diskrete Gleichverteilung auf{x1, ..., xm} ⊂R:

P(X =xi) = m1 füri= 1...m

Stetige Verteilungen:

• Gleichverteilung:

Schreibweise: X∼U(a, b) f(x) =

1

b−a a < x < b 0 sonst FX(x) =Rx

a 1

b−ady=x−ab−a füra < x < b

• Exponentialverteilung:

Schreibweise: X∼exp(λ) f(x) =

λe−λx x≥0

0 sonst

FX(x) =Rx

0 λe−λydy= 1−e−λx fürx≥0

• Normalverteilung:

Schreibweise: X∼N(µ, σ2) f(x) =ϕµ,σ2(x) = 1

2πσexp

12(x−µ)σ2 2

• Standardnormalverteilung (µ= 0, σ2= 1):

FX(x) = Φ(x) =Rx

−∞

1

exp −12y2 dy Elementare Zufallsvariable:X(ω) =Pm

i=1αi1Ai(ω)

• Ai∈ A, αi∈R+, m∈N

• Menge aller elementaren Zufallsvariablen im Messraum:ME Erwartungswert von X:EX =R

XdP=Pm

i=1αiP(Ai)

• Erwartungswert existiert⇔EX <∞

• Linearität:E(aX+bY) =aEX+bEY

• Monotonie:X ≤Y (d.h. X(ω)≤Y(ω)∀ω∈Ω)⇒EX ≤EY

• Mitg:R→Rmessbar gilt für diskreten und absolutstetigen Fall:

Eg(x)existiert⇔P

k=0|g(xk)| ·pX(k)<∞ Eg(x) =P

k=0g(xk)·pX(k) EX =P

x∈R:P(X=x)>0x·P(X =x)

Eg(x)existiert⇔R

−∞|g(x)| ·fX(x)dx<∞ Eg(x) =R

−∞g(x)·fX(x)dx EX=R

−∞x·fX(x)dx k-tes Moment von X:EXk

k-tes zentriertes Moment von X:E(X−EX)k

Varianz (2-tes zentriertes Moment): Var(X) =E(X−EX)2

• Var(X) =EX2−(EX)2

• Var(aX+b) =a2Var(X)∀a, b∈R

• Var(X)≥0und Var(X) = 0⇔P(X =c) = 1für einc∈R Tschebysche-Ungleichung:P(|X−EX| ≥ε)≤ε12Var(X)

(5)

Erwartungswert und Varianz diskreter Verteilungen

Verteilung ZähldichteP(X=k) Erwartungsw. Varianz Anschauliche Interpretation Binomialverteilung

X∼B(n, p)

n k

·pk·(1−p)n−k n·p n·p·(1−p) Münze wird n-mal geworfen, P(i-ter Wurf=Kopf)=p. Die Anzahl X der Kopf- würfe ist binomialverteilt.

Hypergeometrische Verteilung

X∼H(r, n, m)

(rk)(m−kn−r)

(mn) rmn rmn 1−mn

· n−r

n−1

Urne mit r roten und s schwarzen Kugeln, r+s=n. Zieht man m Kugeln ohne Zu- rücklegen, ist die Anzahl X der gezogenen roten Kugeln hypergeometrisch verteilt.

Geometrische Verteilung

p·(1−p)k−1 1p 1−pp2 Die Wahrscheinlichkeit, dass ein Ereignis zum Erfolg führt, sei p. Die Anzahl X der Versuche, die notwendig sind um einen ers- ten Erfolg zu haben, ist geometrisch ver- teilt.

Poisson-Verteilung e−λ·λk!k λ λ Die Poisson-Verteilung ist eine Approxi- mation der Binomialverteilung für groÿe n und kleinem p.

Diskrete

Gleichverteilung auf{x1, ..., xm}

1 m

1 m

Pm

i=1xi berechnen! Ein Würfel wird einmal geworfen. Der ge- worfene Wert X ist gleichverteilt und hat die möglichen Ausprägungenx1= 1, x2 = 2, ..., x6= 6.

Erwartungswert und Varianz stetiger Verteilungen

Verteilung Dichtef(x) Erwartungsw. Varianz VerteilungsfunktionFX(x) Gleichverteilung

X∼U(a, b)

1

b−a a < x < b 0 sonst

b+a 2

(b−a)2 12

Rx a

1

b−ady=x−ab−a füra < x < b

Exponential- verteilung X∼exp(λ)

λe−λx x≥0

0 sonst

1 λ

1 λ2

Rx

0 λe−λydy= 1−e−λx fürx≥0

Normalverteilung X∼N(µ, σ2)

ϕµ,σ2(x) =

1

2πσexp

12(x−µ)σ2 2

µ σ2 Integral nicht lösbar

Standard- Normalverteilung

µ= 0, σ2= 1 0 1 Rx

−∞

1

exp −12y2 dy= Φ(x)[Tabelle]

(6)

Zufallsvektoren

Produkt-σ-Algebra:A=A1⊗...⊗ An=σ({A1×...×An|Ai∈ A, i=i...n}) Randverteilung:Qi(Ai) =P(Ω1×...×Ωi−1×Ai×Ωi+1×...×Ωn)

Zufallsvektor:X= (X1, ..., Xn) : Ω→Rn

Verteilung:PX:B(Rn)→[0,1]mitPX(B) =P({ω∈Ω|X(ω)∈B}), B∈ B(Rn) Verteilungsfunkton:FX(x1, ..., xn) =P(X1≤x1, ..., Xn≤xn)

X heiÿt diskret, falls es eine endliche oder abzählbar un- endliche MengeC={x1, x2, ...} ⊂Rn gibt, so dass P(X ∈C) = 1

X heiÿt absolutstetig, falls es eine integrierbare Funktion fX:Rn→[0,∞)gibt mit

FX(x1, ..., xn) =Rx1

−∞...Rxn

−∞fX(y1, ..., yn)dy1...dyn

Zähldichte:pX(k) =P(X =xk) Dichte:fX :Rn→[0,∞) Randzähldichte:P(Xi=yi)

• =P({ω|X(ω)∈C, Xi(ω) =yi})

• =P

x∈C,xi=yiP(X=x)

Randdichte:fXi(x)

• = Z

−∞

...

Z

−∞

| {z }

n−1mal

fX(y1, ..., yi−1, xi, yi+1, ..., yn)

dy1...dyi−1dyi+1dyn

Verteilung:PX(B) =R

BfX(y)dy∀B∈ B(Rn) Multinomialverteilung:

• Experiment mitrmöglichen AusgängenE1, ..., Ermit jeweiligen Wahrscheinlichkeitenp1, ..., pr(p1+...+pr= 1)

• Der Versuch wird n-mal unabhängig wiederholt

• Xi(ω)sei die Anzahl derEi-Ausgänge

• ⇒P(X1=k1, ..., Xr=kr) =pk11·...·pkrr· k n!

1!·...·kr!

Unabhängigkeit der ZufallsvariablenX1, ..., Xn: Ω→R:FX1,...,Xn(x1, ..., xn) = Πni=1FXi(xi)

• ⇔P(X1≤x1, ..., Xn≤xn) = Πni=1P(Xi≤xi)∀(x1, ..., xn)∈Rn

• ⇔P(X1∈B1, ..., Xn∈Bn) = Πni=1P(Xi∈Bi)∀B1, ..., Bn∈ B

• ⇔P(B1×...×Bn) = Πni=1PXi(Bi)∀B1, ..., Bn ∈ B Produkt-Maÿ:P(A1×...×An) =P1(A1)·...·Pn(An) i-te Projektion:Xi(ω) =Xi((ω1, ..., ωn) =ωi, i= 1...n

X1, ..., Xn unabhängig

• ⇔P(X1=x1, ..., Xn=xn) = Πni=1P(Xi=xi)

∀(x1, ..., xn)∈Rn

X1, ..., Xn unabhängig

• ⇔fX(x1, ..., xn) = Πni=1fXi(xi)

∀(x1, ..., xn)∈Rn\B

• (B vom Lebesguemaÿ 0)

Addition zweier absolutstetiger Zufallsvariablen (X = (X1, X2) : Ω→R2) mit gemeinsamer DichtefX:

• X1+X2absolutstetig mit DichtefX1+X2(x) =R

−∞fX(y, x−y)dy∀x∈R

(7)

Faltungsformel (Addition zweier unabhängiger absolutstetiger ZV):

• fX1+X2(x) =R

−∞fX1(y)fX2(x−y)dy∀x∈R Faltung:PX∗PY =PX+Y für X,Y unabhängig

Erwartungswert zweier unabhängiger Zufallsvariablen:EX·Y =EX·EY

• sonst:EX·Y =R

−∞

R

−∞x·y·fX,Y(x, y)d(x, y) Cauchy-Schwarzsche Ungleichung:(EXY)2≤EX2·EY2 Kovarianz: Cov(X, Y) :=E[(X−EX)(Y −EY)]

• Cov(X, Y) =EXY −EX·EY

• Cov(X, X) =Var(X)

• Cov(X, Y) =Cov(Y, X)

X und Y unkorreliert⇔Cov(X, Y) = 0

• X,Y unabhängig⇒X,Y unkorreliert Korrelationskoezient:%(X, Y) =√ Cov(X,Y)

Var(X)·Var(Y)

• Ist%(X, Y)deniert, so gilt:−1≤%(X, Y)≤1

• Der Korrelationskoezient ist ein Maÿ für die lineare Abhängigkeit der Zufallsvariable Berechnung der Varianz: Var(X1+...+Xn) =Pn

i=1Var(Xi) + 2P

1≤i<j≤nCov(Xi, Xj)

• Für unkorrellierteXi:Var(X1+...+Xn) =Pn

i=1Var(Xi) Erwartungsvektor:EX= (EX1, ..., EXn)

Kovarianzmatrix: Cov(X) = (Cov(Xi, Xj))1≤i,j≤n Erzeugende Funktion:gX(s) =P

k=0pX(k)·sk=Esk

• Nur für X diskret

• gX : [−1,1]→Rist wohldeniert für|s| ≤1

• Zähldichte:pX(k) = g

(k) X (0)

k!

• Erwartungswert:EX =g0X(1−) = lims↑1g0X(s)

• Varianz: Var(X) =g00X(1−) +gX0 (1−)−(g0X(1−))2

• Eindeutigkeit:pX(k) =pY(k)∀k∈N⇔gX(s) =gY(s)∀s∈[−1,1]

• Addition von X, Y unabhängig:gX+Y(s) =gX(s)·gY(s)∀ s∈[−1,1]

• X1, ..., Xn unabhängig⇔gPn

i=1Xi = Πni=1gXi

(8)

Konvergenz von Zufallsvariablen

p-fast-sichere Konvergenz:P({ω∈Ω|limn→∞Xn(ω)−X(ω)}) = 1

• Xn

f.s.→ X ⇔P(limn→∞Xn=X) = 1

Konvergenz in Wahrscheinlichkeit:limn→∞P({ω∈Ω| |Xn(ω)−X(ω)| ≥ε}) = 0∀ ε >0

• Xn

p X⇔limn→∞P(|Xn−X| ≥ε) = 0∀ε >0

Konvergenz in Verteilung:limn→∞FXn(x) =FX(x)∀x∈Ran denenFX(x)stetig ist

• Xn

d X⇔limn→∞FXn(x) =FX(x)∀ StetigkeitsstellenxvonX Zusammenhang der Konvergenzen:

• Xn

f.s.→ X ⇒Xn

p X

• Xnp X⇒Xnd X

• Xn

d c, c∈R⇒Xn

p c

Charakteristische Funktion:ϕX(t) :=EeitX=Ecos(tX) +iEsin(tX)

• ϕX:R→Cexistiert immer ∀t∈R

• X diskret⇒ϕX(t) =gX(eit)

• X absolutstetig⇒ϕX(t) =R

−∞eitx·fX(x)dx=R

−∞cos(tx)·fX(x)dx+iR

−∞sin(tx)·fX(x)dx

• Eigenschaften:

ϕX(0) = 1

X(t)| ≤1 ∀t∈R ϕaX+b(t) =eibt·ϕX(at)

• Eindeutigkeit:PX =PY ⇔ϕXY

• X1, ..., Xn unabhängig⇔ϕPn

i=1Xi(t) = Πni=1ϕXi(t)

• n-tes Moment:ϕ(n)X (0) =inEXn

• Stetigkeitssatz:Xnd X ⇔ϕXn(t)n→∞→ ϕ(t)∀t∈Rundϕist stetig in 0 Schwaches Gesetz der groÿen Zahlen: X1+...+Xn np µ

• nur fürX1, X2, ...u.i.v. (unabhängig und identisch verteilt)

• µ=EXi

Starkes Gesetz der groÿen Zahlen: X1+...+Xn n f.s.→ µ

• nur fürX1, X2, ...u.i.v. (unabhängig und identisch verteilt)

• µ=EXi

Zentraler Grenzwertsatz: fürX1, X2, ...u.i.v. mitEXi =µund0<Var(Xi) =σ2<∞gilt:

X1+...+Xn−nµd X∼N(0,1)

• PX

1+...+X n−nµ

≤xn→∞

→ Φ(x)∀ x∈R

• P

α≤X1+...+Xn−nµ≤βn→∞

→ Φ(β)−Φ(α)

(9)

Parameterschätzung

Familie von Verteilungen:{Pθ|θ∈Θ} mitΘ⊂Rm Stichprobenraum:X

Zufallsstichprobe von u.i.v. ZufallsvariablenX1, ..., Xn mit Verteilung P:(X1, ..., Xn) Stichprobe: Realisierung(x1, ..., xn)einer Zufallsstichprobe

Schätzer vonθ: messbare AbbildungT :Xn→Θ,˜ Θ˜ ⊃Θ Stichprobenmittel:T :Rn →Rmit T(x) =x= n1Pn

i=1xi

Stichprobenvarianz:S2:Rn →RmitS2(x) = n−11 Pn

i=1(xi−x)2 Maximum-Likelihood-Methode

• Likelihood-Funktion der Stichprobex= (x1, ..., xn)⊂ Xn: Lx(θ) =p(x1, θ)·...·p(xn, θ)

=Pθ(X1=x1)·...·Pθ(Xn=xn) =Pθ(X=x)

Lx(θ) =f(x1, θ)·...·f(xn, θ)

• Maximum-Likelihood-Schätzer (MLS):θˆM L(x)mit Lx(ˆθM L(x)) = supθ∈ΘLx(θ)

• Ggf. kann der MLS durch Nullsetzen der Ableitung der Log-Likelihoodfunktion bestimmt werden:

∂θlog (Lx(θ)) = 0 Momentenmethode

• k-tes theoretisches Moment vonX ∼Pθkk(θ) =EθXk, k= 1,2, ...

• k-tes empirisches Moment einer Stichprobex= (x1, ..., xn):xk= 1nPn i=1xki

• Vorgehensweise:

Setze theoretische und empirische Momente gleich⇒µk(θ) =xk, k= 1, ..., m Aufgelöst nachθergibt sich dann der MomentenschätzerθˆM M(x)∈Θ Erwartungstreuheit eines Schätzers T: ∀θ∈Θ :EθT(X1, ..., Xn) =θ

Verzerrung eines Schätzers T:bT(θ) =EθT(X1, ..., Xn)−θ

• Erwartungstreue Schätzer sind unverzerrt Mittlerer quadratischer Fehler:M SE(T) =Eθ

h

(T(X1, ..., Xn)−θ)2i

=Varθ(T) +bT(θ)2

• Für erwartungstreue Schätzer gilt:M SE(T) =Varθ(T(X)) Ungleichung von Cramér-Rao: Varθ(T(X))≥ (1+∂θbT(θ))2

Eθh

(∂θ logLx(θ))2i

• Fisher-Information:I(θ) =Eθ

h

∂θlogLx(θ)2i

• Für erwartungstreue Schätzer gilt: Varθ(T(X))≥ I(θ)1 (1−α)-Kondenzintervall:[L(x), U(X)]mit...

1. L, U :Xn→Θ⊂Rmessbare Funktionen 2. L(x)≤U(x)∀ x∈ Xn

3. Pθ(L(X)≤θ≤U(X)) = 1−α Eigenschaften:

(10)

Testtheorie

Seiθ0∈Θ

Einseitiges Testproblem:H0:θ≤θ0vs.H1:θ > θ0 Zweiseitiges Testproblem:H0:θ=θ0 vs.H1:θ6=θ0

Kritischer Bereich:R⊂Rn =Xn, so dassH0 verworfen wird fürx∈R

• 0 =H0 wird nicht verworfen

• 1 =H0 wird verworfen

Test / Testverfahren:ϕ:Xn→ {0,1}

• R={x∈ Xn|ϕ(x) = 1}

Gütefunktion:β(θ) =Pθ(X∈R) =Pθ(ϕ(x) = 1)

• β: Θ→[0,1]

• Fürθ∈Θ1 heiÿtβ(θ)die Macht des Tests Niveau / Signikanzniveauαeines Tests:β(θ)≤α

• ⇔Wahrscheinlichkeit für einen Fehler 1. Art ist gleichα

wahr Entscheidung H0 H1

H0 ok Fehler 1. Art

H1 Fehler 2. Art ok

Gleichmäÿig bester Testϕ∈Dα: β(θ) =Pθ(x) = 1) = maxϕ∈DαPθ(ϕ(x) = 1)

• Dα Menge von Test zum Niveauα

Wahl der Nullhypothese: Möchte man sich fürθ < θ0entscheiden, sollte man H0:θ≥θ0wählen X0, X1, ..., Xru.i.v. mitXi∼N(0,1), r∈N:

• χ2-Verteilung mitrFreiheitsgraden:Pr i=1Xi2

• t-Verteilung mitrFreiheitsgraden: √ X0

1 r

Pr

i=1X2i

• Für ZufallsstichprobeX = (X1, ..., Xn)zurN(µ, σ2)-Verteilung gilt:

X =n1Pn

i=1Xi, X∼N(µ,σn2) S2(X) = n−11 Pn

i=1(Xi−X)2, (n−1)·Sσ22(X)∼χ2n−1

nX−µS(X) ∼tn−1

Randomisierter Test:ϕ:Xn→[0,1]

• Gibt an, mit welcher Wahrscheinlichkeitϕ(x)H0 abgelehnt wird

• Gütefunktion:β(θ) =Eθϕ(X)

(11)

Neyman-Pearson-Test: randomisierter Testϕ:Xn→[0,1]mitϕ(x) =

0 f alls Lx1)< c·Lx0) γ(x) f alls Lx1) =c·Lx0) 1 f alls Lx1)> c·Lx0)

• c∈[0,∞)konstant

• γ:Xn→[0,1]eine Funktion Lemma von Neyman-Pearson:

• Istϕ ein NPT mitα=βϕ0), dann istϕgleichmässig bester Test unter allen Tests zum selben Niveau α

• Für jedesα∈(0,1)existiert ein NPTϕ zum Niveauα. Dabei kannγ(x)≡γ gewählt werden.

Familie von (Zähl-)Dichten mit monotonem Dichtequotienten:{f(x, θ)|θ∈Θ} bzw.{p(x, θ)|θ∈Θ} mit...

1. ∃ messbare FunktionT :Xn→Rso dassq(x) =LLx1)

x0) =q(T(x1, ..., xn)) 2. q monoton inT(x1, ..., xn) =T(x)für alleθ0< θ1

• Bei exp-Verteilungen:T(x) =xerfüllt die Bedingung

• X ∈ Xn Stichprobe zu einer Verteilung mit nicht monoton fallenden Dichtequotienten inT(x). Jeder Test der Form

0 f alls T(x)> t0 γ f alls T(x) =t0 1 f alls T(x)< t0

ist gleichmässig bester Test für das Testproblem

H0:θ≤θ0 vs.H1:θ > θ0 zum Niveauα=Eθ0ϕ(X) = supθ≤θ

0Eθϕ(X) Likelihood-Quotient:q(x) =supsupθ∈Θ0Lx(θ)

θ∈Θ1Lx(θ)

Likelihood-Quotiententest:

0 f alls q(x)> c0

γ f alls q(x) =c0 (nur im diskreten Fall) 1 f alls q(x)< c0

Referenzen

ÄHNLICHE DOKUMENTE

von Julian Merkert, Sommersemester

Theoretische Physik C für das Lehramt - Formelsammlung. von Julian Merkert, Wintersemester

Das Prinzip der offenen Abbildung ist eine Folgerung aus dem Satz von Baire und erlaubt recht schnell wichtige Aussagen ¨ uber das Spektrum unbeschr¨ ankter Operato- ren. Hier

(b) Wieviele Sequenzen f¨ ur funktionale und nicht-funktionale 5.8 S rRNA haben wir im Mittel in unserer clone library. (c) Wie groß m¨ ussen wir N w¨ahlen, um mit Wahrscheinlichkeit

Welchen Zusammenhang gibt zwischen den Histo- grammen und den Sch¨atzern, wenn wir diese als Zufallsvariable betrachten.. (d) Wiederholen

Ubungen Algorithmen der Bioinformatik II ¨ Wintersemester

Birgit M¨oller Institut f¨ ur Informatik Universit¨at Halle.

Das Spiel endet, sobald einer von Ihnen keinen Euro mehr hat (und konsequenterweise der andere sich im Besitz von S Euro befindet). (a) Modellieren Sie dieses Spiel durch ein