• Keine Ergebnisse gefunden

Statistische Signifikanz in hochdimensionalen linearen Modellen

N/A
N/A
Protected

Academic year: 2022

Aktie "Statistische Signifikanz in hochdimensionalen linearen Modellen"

Copied!
34
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Statistische Signifikanz in hochdimensionalen linearen Modellen

Hauptseminar Erweiterungen des linearen Regressionsmodells und genomische Anwendungen in der Biomedizin WS 2014/2015

Stella Preußler

12. Januar 2015

(2)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Inhaltsverzeichnis

1 Grundlegendes

2 Ein angemessener Sch¨atzer...

3 p-Werte

4 Numerische Ergebnisse...

(3)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

Hochdimensionales lineares Modell

Wir betrachten ein hochdimensionales lineares Modell von der Form

Y=Xβ0+, (1) mit ErgebnisvektorY ∈Rn×1,

fest vorgegebener DesignmatrixX∈Rn×p, wahrem Paramtervektorβ0 ∈Rp×1 und

stochastischem Fehlervektor∈Rn×1 mit ∼ N(0, σ2I) im Fallp n.

(4)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

Hypothesen

Das Paper besch¨aftigt sich mit einer oder vielen Nullhypothesen der Form

H0,Gj0 = 0 ∀j ∈G,

woG ⊂ {1, ...,p} eine Teilmenge aller Indizes der Kovariablen ist.

Wir interessieren uns heute allerdings nur f¨ur dieIndividuellen Nullhypothesender Form

G ={j}: f¨ur den j-ten Regressionsparameter f¨ur j = 1, ...,p,d.h.:

H0,jj0= 0 j = 1, ...,p. (2)

(5)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

Hypothesen

Das Paper besch¨aftigt sich mit einer oder vielen Nullhypothesen der Form

H0,Gj0 = 0 ∀j ∈G,

woG ⊂ {1, ...,p} eine Teilmenge aller Indizes der Kovariablen ist.

Wir interessieren uns heute allerdings nur f¨ur dieIndividuellen Nullhypothesender Form

G ={j}: f¨ur den j-ten Regressionsparameter f¨ur j = 1, ...,p,d.h.:

(6)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

” Statistische Signifikanz in hochdimensionalen linearen Modellen“...

... durch p-Werte, also besch¨aftigen wir uns heute mit der Konstruktion von p-Werten f¨ur Hypothesen in hochdimensionalen linearen Modellen.

Vorgehensweise:

einen angemessenen Sch¨atzer f¨urβ0 finden

⇒asymptotische Verteilung f¨ur diesen Sch¨atzer

⇒p-Wert =P[|T| ≥t] unterH0, T Teststatistik, t Experimentausgang.

⇒Aussagen wie

”H0,330= 0 kann zum Signifikanzniveauα abgelehnt werden⇒ der Effekt der 3. Kovariate von Xist statistisch signifikant“ m¨oglich.

(7)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

” Statistische Signifikanz in hochdimensionalen linearen Modellen“...

... durch p-Werte, also besch¨aftigen wir uns heute mit der Konstruktion von p-Werten f¨ur Hypothesen in hochdimensionalen linearen Modellen.

Vorgehensweise:

einen angemessenen Sch¨atzer f¨urβ0 finden

⇒asymptotische Verteilung f¨ur diesen Sch¨atzer

⇒p-Wert =P[|T| ≥t] unterH0, T Teststatistik, t Experimentausgang.

⇒Aussagen wie

”H0,330= 0 kann zum Signifikanzniveauα abgelehnt werden⇒ der Effekt der 3. Kovariate von Xist statistisch signifikant“ m¨oglich.

(8)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

” Statistische Signifikanz in hochdimensionalen linearen Modellen“...

... durch p-Werte, also besch¨aftigen wir uns heute mit der Konstruktion von p-Werten f¨ur Hypothesen in hochdimensionalen linearen Modellen.

Vorgehensweise:

einen angemessenen Sch¨atzer f¨urβ0 finden

⇒asymptotische Verteilung f¨ur diesen Sch¨atzer

⇒p-Wert =P[|T| ≥t] unterH0, T Teststatistik, t Experimentausgang.

⇒Aussagen wie

”H0,330= 0 kann zum Signifikanzniveauα abgelehnt werden⇒ der Effekt der 3. Kovariate von Xist statistisch signifikant“ m¨oglich.

(9)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

” Statistische Signifikanz in hochdimensionalen linearen Modellen“...

... durch p-Werte, also besch¨aftigen wir uns heute mit der Konstruktion von p-Werten f¨ur Hypothesen in hochdimensionalen linearen Modellen.

Vorgehensweise:

einen angemessenen Sch¨atzer f¨urβ0 finden

⇒asymptotische Verteilung f¨ur diesen Sch¨atzer

⇒p-Wert =P[|T| ≥t] unterH0, T Teststatistik, t Experimentausgang.

⇒Aussagen wie

”H0,330= 0 kann zum Signifikanzniveauα abgelehnt werden⇒ der Effekt der 3. Kovariate von Xist statistisch signifikant“ m¨oglich.

(10)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

” Statistische Signifikanz in hochdimensionalen linearen Modellen“...

... durch p-Werte, also besch¨aftigen wir uns heute mit der Konstruktion von p-Werten f¨ur Hypothesen in hochdimensionalen linearen Modellen.

Vorgehensweise:

einen angemessenen Sch¨atzer f¨urβ0 finden

⇒asymptotische Verteilung f¨ur diesen Sch¨atzer

⇒p-Wert

=P[|T| ≥t] unterH0, T Teststatistik, t Experimentausgang.

⇒Aussagen wie

”H0,330= 0 kann zum Signifikanzniveauα abgelehnt werden⇒ der Effekt der 3. Kovariate von Xist statistisch signifikant“ m¨oglich.

(11)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

” Statistische Signifikanz in hochdimensionalen linearen Modellen“...

... durch p-Werte, also besch¨aftigen wir uns heute mit der Konstruktion von p-Werten f¨ur Hypothesen in hochdimensionalen linearen Modellen.

Vorgehensweise:

einen angemessenen Sch¨atzer f¨urβ0 finden

⇒asymptotische Verteilung f¨ur diesen Sch¨atzer

⇒p-Wert =P[|T| ≥t] unterH0, T Teststatistik, t Experimentausgang.

⇒Aussagen wie

”H0,330= 0 kann zum Signifikanzniveauα abgelehnt werden⇒ der Effekt der 3. Kovariate von Xist statistisch signifikant“ m¨oglich.

(12)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Modell Ziel

” Statistische Signifikanz in hochdimensionalen linearen Modellen“...

... durch p-Werte, also besch¨aftigen wir uns heute mit der Konstruktion von p-Werten f¨ur Hypothesen in hochdimensionalen linearen Modellen.

Vorgehensweise:

einen angemessenen Sch¨atzer f¨urβ0 finden

⇒asymptotische Verteilung f¨ur diesen Sch¨atzer

⇒p-Wert =P[|T| ≥t] unterH0, T Teststatistik, t Experimentausgang.

⇒Aussagen wie

”H0,330= 0 kann zum Signifikanzniveauα abgelehnt werden⇒ der Effekt der 3. Kovariate von Xist statistisch signifikant“ m¨oglich.

(13)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Ridge Regression

Sei

βˆ=argminβ

kY−Xβk22/n+λkβk22 (3) dieRidge Regression, wobei

λ=λn der Regularisierungsparameter, Ω die Kovarianzenmatrix und wir annehmen, dass

j∈{1,...,p}min Ωjj(λ) = min

j∈{1,...,p}Varh βˆji

(λ)>0 (4).

(14)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Ridge Regression

Sei

βˆ=argminβkY−Xβk22/n+λkβk22 (3) dieRidge Regression, wobei

λ=λn der Regularisierungsparameter, Ω die Kovarianzenmatrix und wir annehmen, dass

min

j∈{1,...,p}jj(λ) = min

j∈{1,...,p}Varh βˆji

(λ)>0 (4).

Eigentlich sch¨atzt die Ridge Regression jedochθ0 =PXβ0 ∈ R(X), wobeiR(X)⊂Rp der lineare Raum, der durch die n Zeilen von X aufgespannt wird undPX dieProjektion von Rp auf R(X) ist.

(15)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Angemessenheit

Es gilt

0<LC ≤ lim inf

λ∈(0,C] min

j∈{1,...,p}Var[ ˆβj]≤MC (5) f¨ur ein 0<C <∞ und Konstanten mit 0<LC <MC <∞ abh¨angig von C und der Designmatrix X,

und max

j∈{1,...,p}

IE[ ˆβj]−θ0j2

≤ min

j∈{1,...,p}Var[ ˆβj] (6), f¨ur einen Regularisierungsparameterλ >0 der folgende Eigenschaft* hat:

λ

j∈{1,...,p}min Var[ ˆβj] −1/2

≤n−1/2σ θ0

−1

2 λmin6=0( ˆΣ) (7) woλmin6=0( ˆΣ) kleinster Eigenwert6= 0 der Kovarianzmatrix Σ =ˆ n−1XTX.

(16)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Angemessenheit

Es gilt

0<LC ≤ lim inf

λ∈(0,C] min

j∈{1,...,p}Var[ ˆβj]≤MC (5) f¨ur ein 0<C <∞ und Konstanten mit 0<LC <MC <∞ abh¨angig von C und der Designmatrix X, und

max

j∈{1,...,p}

IE[ ˆβj]−θ0j2

≤ min

j∈{1,...,p}Var[ ˆβj] (6), f¨ur einen Regularisierungsparameterλ >0 der folgende Eigenschaft* hat:

λ

j∈{1,...,p}min Var[ ˆβj] −1/2

≤n−1/2σ θ0

−1

2 λmin6=0( ˆΣ) (7) woλmin6=0( ˆΣ) kleinster Eigenwert6= 0 der Kovarianzmatrix

ˆ −1 T

(17)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Projektionsverzerrung

Ridge Regression sch¨atzt den Parameterθ0 =PXβ0, d. h. es tritt neben der Sch¨atzungsverzerrung noch eine zus¨atzliche

ProjektionsverzerrungBj (j=1, ..., p) auf

: Bj0j −β0j = PXβ0

j−βj0 = (PX)jjβj0−βj0+X

k6=j

(PX)jkβk0.

Da wir p-Werte konstruieren wollen, m¨ussen wir die Verzerrung nur unterH0 ber¨ucksichtigen:

BH0;j =X

k6=j

(PX)jkβ0k...

(18)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Projektionsverzerrung

Ridge Regression sch¨atzt den Parameterθ0 =PXβ0, d. h. es tritt neben der Sch¨atzungsverzerrung noch eine zus¨atzliche

ProjektionsverzerrungBj (j=1, ..., p) auf : Bj0j −β0j

= PXβ0

j−βj0 = (PX)jjβj0−βj0+X

k6=j

(PX)jkβk0.

Da wir p-Werte konstruieren wollen, m¨ussen wir die Verzerrung nur unterH0 ber¨ucksichtigen:

BH0;j =X

k6=j

(PX)jkβ0k...

(19)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Projektionsverzerrung

Ridge Regression sch¨atzt den Parameterθ0 =PXβ0, d. h. es tritt neben der Sch¨atzungsverzerrung noch eine zus¨atzliche

ProjektionsverzerrungBj (j=1, ..., p) auf : Bj0j −β0j = PXβ0

j−βj0 = (PX)jjβj0−βj0+X

k6=j

(PX)jkβ0k.

Da wir p-Werte konstruieren wollen, m¨ussen wir die Verzerrung nur unterH0 ber¨ucksichtigen:

BH0;j =X

k6=j

(PX)jkβ0k...

(20)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Projektionsverzerrung

Ridge Regression sch¨atzt den Parameterθ0 =PXβ0, d. h. es tritt neben der Sch¨atzungsverzerrung noch eine zus¨atzliche

ProjektionsverzerrungBj (j=1, ..., p) auf : Bj0j −β0j = PXβ0

j−βj0 = (PX)jjβj0−βj0+X

k6=j

(PX)jkβ0k.

Da wir p-Werte konstruieren wollen, m¨ussen wir die Verzerrung nur unterH0 ber¨ucksichtigen:

BH0;j =X

k6=j

(PX)jkβk0...

(21)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Korrektur der Projektionsverzerrung

... und k¨onnen sie mit Hilfe eines Initialsch¨atzers ˆβinit (z. B. Lasso) sch¨atzen:

H0;j =X

k6=j

(PX)jkβˆinit;k

um schließlich diekorrigierte Ridge Regression βˆcorr;j zum Testen vonH0,j zu erhalten:

βˆcorr;j = ˆβj−BˆH0;j = ˆβj −X

k6=j

(PX)jkβˆinit;k (8).

(22)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Proposition 1

Proposition 1

Die korrigierte Ridge Regression ˆβcorr;j mit

Regularisierungsparameterλ >0 k¨onnen wir darstellen als:

βˆcorr;j =Zjj (j = 1, ...,p) (9) wobei

an,p;j(σ)Z1, ...,Zp ∼ N(0,1), γj = (PX)jjβj0−P

k6=j(PX)jk

βˆinit;k −βk0

+bj(λ), bj(λ) = IE[ ˆβj(λ)]−θ0j

”Sch¨atzungsverzerrung“.

(23)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Scharenmodell und Annahme

F¨ur diese Verteilung soll nun eine asymptotisch stochastische Schranke unter der Nullhypothese gefunden werden.

Dazu betrachten wir eine Schar von linearen Modellen Yn=Xnβn0+n,n= 1,2, ..., (11)

wobei sich alle Gr¨oßen und auch die Dimension p=pn mitn ver¨andern d¨urfen und machen folgende Annahme A (13): Es gibt Konstanten ∆j = ∆j,n>0 so dass

P

pn

\

j=1

an,p;j(σ)X

k6=j

(PX)jk( ˆβinit;k−βk0)

≤∆j,n

→1 (n→ ∞).

(24)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Scharenmodell und Annahme

F¨ur diese Verteilung soll nun eine asymptotisch stochastische Schranke unter der Nullhypothese gefunden werden.

Dazu betrachten wir eine Schar von linearen Modellen Yn=Xnβn0+n,n= 1,2, ..., (11)

wobei sich alle Gr¨oßen und auch die Dimension p=pn mitn ver¨andern d¨urfen

und machen folgende Annahme A (13): Es gibt Konstanten ∆j = ∆j,n>0 so dass

P

pn

\

j=1

an,p;j(σ)X

k6=j

(PX)jk( ˆβinit;k−βk0)

≤∆j,n

→1 (n→ ∞).

(25)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Scharenmodell und Annahme

F¨ur diese Verteilung soll nun eine asymptotisch stochastische Schranke unter der Nullhypothese gefunden werden.

Dazu betrachten wir eine Schar von linearen Modellen Yn=Xnβn0+n,n= 1,2, ..., (11)

wobei sich alle Gr¨oßen und auch die Dimension p=pn mitn ver¨andern d¨urfen und machen folgende Annahme A (13):

Es gibt Konstanten ∆j = ∆j,n>0 so dass

pn



(26)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Asymptotische stochastische Schranke

P

pn

\

j=1

an,pn;j(σ)X

k6=j

(PX)jk( ˆβinit;k −βk0)

≤∆j,n

→1(n→ ∞) Mit dieser Annahme und einem geeignet** gew¨ahlten

Regularisierungsparameterλn>0 kann man nun zeigen, dass unter der NullhypotheseH0,j f¨ur j ∈ {1, ...,pn}:

an.p;j(σ)

βˆcorr;j

st |W|+ ∆j, W ∼ N(0,1).

Definition: Seien X und Y reelle Zufallsvariablen. X ist kleiner-gleich Y bez¨uglich der gew¨ohnlichen stochastischen Ordnung, wenn f¨ur alleb ∈R giltP(X ≥b)≤P(Y ≥b).

(27)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Asymptotische stochastische Schranke

P

pn

\

j=1

an,pn;j(σ)X

k6=j

(PX)jk( ˆβinit;k −βk0)

≤∆j,n

→1(n→ ∞) Mit dieser Annahme und einem geeignet** gew¨ahlten

Regularisierungsparameterλn>0 kann man nun zeigen, dass unter der NullhypotheseH0,j f¨ur j ∈ {1, ...,pn}:

an.p;j(σ)

βˆcorr;j

st |W|+ ∆j, W ∼ N(0,1).

(28)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

Asymptotische stochastische Schranke: Satz 1

P

pn

\

j=1

an,p;j(σ)X

k6=j

(PX)jk( ˆβinit;k−βk0)

≤∆j,n

→1(n→ ∞) Mit dieser Annahme und einem geeignet** gew¨ahlten

Regularisierungsparameterλn>0 kann man nun zeigen, dass unter der NullhypotheseH0,j f¨ur j ∈ {1, ...,pn}:

an.p;j(σ) βˆcorr;j

st |W|+ ∆j, W ∼ N(0,1).

βˆcorr;j =Zjj ; an,p;j(σ)Zj ∼ N(0,1) γj = (PX)jjβj0−P

k6=j(PX)jk

βˆinit;k −βk0

+bj(λ) b(λ) = IE[ ˆβ(λ)]−θ0 (j = 1, ...,p)

(29)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

**

”Geeignet** gew¨ahlter Regularisierungsparameter“ λn soll f¨ur uns (wieder; vgl. mit * aus (7)) heißen:

λnminn)−1/2 =o(min(n−1/2σ θ0

−1

2 λmin6=0( ˆΣ))),(n→ ∞) (12) ist erf¨ullt, denn dann gilt:

kan,pb(λn)k→0 f¨ur n→ ∞,

denn

kan,pb(λn)k≤ λnminn)−1/2

min(n−1/2σkθ0k−12 λmin6=0( ˆΣ)) →0 f¨ur n→ ∞.

(30)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... f¨urβ0...

..., aber eigentlich f¨urθ0...

... korrigiert f¨urβ0 ... stochastisch modelliert

**

”Geeignet** gew¨ahlter Regularisierungsparameter“ λn soll f¨ur uns (wieder; vgl. mit * aus (7)) heißen:

λnminn)−1/2 =o(min(n−1/2σ θ0

−1

2 λmin6=0( ˆΣ))),(n→ ∞) (12) ist erf¨ullt, denn dann gilt:

kan,pb(λn)k→0 f¨ur n→ ∞, denn

kan,pb(λn)k≤ λnminn)−1/2

min(n−1/2σkθ0k−12 λmin6=0( ˆΣ)) →0 f¨ur n→ ∞.

(31)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Herleitung der p-Werte Konstruktion derj: Satz 2

Herleitung der p-Werte mit Hilfe der asymptotischen Verteilung

p-Wert =P

h||W|+ ∆j| ≥an,p;j(σ)|βˆcorr;j|i

unterH0 (14) F¨ur die individuelle HypotheseH0,j definieren wir daher den p-Wert f¨ur die zweiseitige Alternative als:

Pj = 2(1−Φ((an,p;j(σ)|βˆcorr;j| −∆j)+)) (15).

Um die p-Werte berechnen zu k¨onnen, m¨ussen wir die ∆j kennen, wie sehen diese also aus?

(32)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Herleitung der p-Werte Konstruktion derj: Satz 2

Herleitung der p-Werte mit Hilfe der asymptotischen Verteilung

p-Wert =P

h||W|+ ∆j| ≥an,p;j(σ)|βˆcorr;j|i

unterH0 (14) F¨ur die individuelle HypotheseH0,j definieren wir daher den p-Wert f¨ur die zweiseitige Alternative als:

Pj = 2(1−Φ((an,p;j(σ)|βˆcorr;j| −∆j)+)) (15).

Um die p-Werte berechnen zu k¨onnen, m¨ussen wir die ∆j kennen, wie sehen diese also aus?

(33)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

Herleitung der p-Werte Konstruktion derj: Satz 2

Satz 2

Betrachte (11) mit normalisierten Spalten ˆΣjj ≡1, welche die Kompatibilit¨atsbedingung mit Konstante Φ20 = Φ20,n erf¨ullen.

Nehme den Lasso als Initialsch¨atzer ˆβinit mit RegularisierungsparameterλLasso = 4σp

Clog(pn)/n f¨ur ein 2<C <∞. Nehme an, dass die Menge der aktiven Koeffizienten s0=s0,n=o((n/log(pn))ξ) (n→ ∞) f¨ur ein 0< ξ <1/2, und dass lim infn→∞Φ20,n>0. Dann erf¨ullt

j :≡max

k6=j |an,p;j(σ)(PX)jk|(log(p)/n)1/2−ξ (16)

(34)

Grundlegendes Ein angemessener Sch¨atzer...

p-Werte Numerische Ergebnisse...

... mit Hilfe von Korollar

Korollar

Nehme die Annahmen von Satz 1, ohne die Bedingung A und mit den Bedingungen von Satz 2, an. Dann gilt, mit dem Lasso als Inititalsch¨atzer, die Aussage von Satz 1.

Referenzen

ÄHNLICHE DOKUMENTE

Während Mengen von der Vorstellung her starre Gebilde sind, stellen wir uns unter einer Abbildung eine „Vorschrift“ vor, welche die Elemente einer Menge eindeutig auf gewisse

ben Kombination von Werten der un- abhängigen Varia- blen unterschiedli- che Werte der ab- hängigen Variable, so dass sich das R 2 verringert. Nichtsdestoweni- ger machen Autoren

Man achte auf eine saubere Darstellung und eine

(Hinweis: Zeigen Sie zunächst, daÿ diese Elemente zusammengenommen eine Gruppe in der S 10 ergeben und benutzen Sie Teil

Man zeige: Für endliche Teilmengen A ⊂ R besteht die Menge {f α |α ∈ A} aus |A| linear unabhängigen Vektoren, wobei |A| für die Anzahl der Elemente in der Menge

Man achte auf eine saubere Darstellung und eine

Zeigen Sie, daÿ die verschiedenen Äquivalenzklassen disjunkt sind und daÿ M in die disjunkte Vereinigung der

Hinweis: Man kann dies zeigen, indem man sich eine Linearkombination der Spalten anguckt oder induktiv