• Keine Ergebnisse gefunden

CONSIDERATIONS ABOUT THE MODEL

N/A
N/A
Protected

Academic year: 2021

Aktie "CONSIDERATIONS ABOUT THE MODEL"

Copied!
142
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

1.1. INTRODUCTION 0

Logistic Regression 1.1 Introduction

Only partially translated at this time

b Example: Shrinked blood vessels Y : shrinked: yes (1) / no (0)

erkl.: Breath Volume (Vol) and Frequency (Rate) Ziel: PhY = 1 | Vol, Ratei modellieren!

c PhYi = 1i = hhx(1)i , x(2)i , ..., x(m)i i

(2)

1.1. INTRODUCTION 1

0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

0.00.51.01.52.02.53.03.54.0

Vol

Rate

0.1 0.3 0.5 0.7 0.9

(3)

1.1. INTRODUCTION 2

PhYi = 1i = hhx(1)i , x(2)i , ..., x(m)i i

d Why is an ordinary linear regression inadequate?

Yi = β0 + β1x(1)i + β2x(2)i + . . . + βmx(m)i + Ei

• What is the error term Ei ?

EhYii = β0 + β1x(1)i + β2x(2)i + . . . + βmx(m)i We have PhYi = 1i = EhYii. −→ Same form o.k.

• But: Estimated values may become < 0 and > 1!

−→ Transformation of Yi? 2 values remain 2 values!

−→ Transformation of EhYii = PhYi = 1i!

(4)

1.1. INTRODUCTION 3

e Modell. Logit-Funktion ghπi = log D

π 1−π

E

ghPhYi = 1ii = ηi = β0 + β1x(1)i + β2x(2)i + . . . + βmx(m)i η:

”linearer Pr¨adiktor”.

f Beispiel: ghPhY = 1ii =9.53 + 3.88 · Vol + 2.65 · Rate.

(5)

1.1. INTRODUCTION 4

−5 −4 −3 −2 −1 0 1 2 3 4 5 6 7

0.00.20.40.60.81.0Y

(6)

1.1. INTRODUCTION 5

g Diskriminanzanalyse:

Yi Gruppen-Zugeh¨origkeit

Xi(j) multivariate Beobachtungen.

Logistische Regression:

1. Sch¨atzen: πˆi

2. Zuordnen: Yˆ = 1, wenn ηˆi > 0ˆi > 0.5)

(7)

1.1. INTRODUCTION 6

h Further Applications:

• Toxikology: Toxic matter deadly for mice? What concentration?

• Medicine: Treatment successful?

• Failure of (technical) devices,

• Bugs in (technical) products,

• Occurence of characteristics in animals or plants,

• client scoring, General: 2 Groups.

(8)

1.2.

CONSIDERATIONS ABOUT THE MODEL

7

1.2 Considerations about the Model

a Same flexibility as linear regression.

Frequently: factors (nominal variables) as explanatory v.

b Example: Assessment of work situation.

Yi happy (1), unhappy (0) Xi(j) Region, Age, Gender, Race Only 1 factor −→ 2 × k-cross table

NE Mid-Atl. S Midwest NW SW Pacific total

unzufrieden 738 166 514 749 711 482 209 3569

zufrieden 1161 406 916 1240 1221 971 465 6380

total 1989 572 1430 1899 1932 1453 674 9949

(9)

1.2.

CONSIDERATIONS ABOUT THE MODEL

8

c Gruppierte Daten: m` Beob. Yi zu gleichen xi = xe`: Ye` = P

i : xi = xe` Yi Yek ∼ Bhmk, πki EhYe`/m`i = π`

−→ Logistische Regression: ghπ`i = η`

d Beispiel ¨Uberleben von Fr¨uhgeburten. 247 S¨auglinge.

Erkl¨arende Variable: Geburtsgewicht. Klassen von je 100 g

n Surv.no Surv.yes Weight

1 10 10 0 550

2 14 12 2 650

3 27 18 9 750

4 22 14 8 850

5 32 9 23 950

6 28 7 21 1050

7 22 3 19 1150

8 26 7 19 1250

9 34 3 31 1350

10 32 3 29 1450

(10)

1.2.

CONSIDERATIONS ABOUT THE MODEL

9

500 600 700 800 900 1000 1100 1200 1300 1400 1500

0.00.10.20.30.40.50.60.70.80.91.0

Weight

Survival

(11)

1.2.

CONSIDERATIONS ABOUT THE MODEL

10

e Transformierte Beobachtungen.

EhYe`/m`i = π` , ghπ`i = linearer Pr¨adiktor.

ghYe`/m`i ≈ linearer Pr¨adiktor.

Was tun mit Y`/m` = 0 oder = 1? gh0i = −∞ , gh1i = ∞.

Abhilfe: Empirische Logits

Ze` = log

*

Ye` + 0.5

m` − Ye` + 0.5 +

.

−→ Gew¨ohnliche multiple Regression mit Z`? −→ N¨aherung.

(12)

1.2.

CONSIDERATIONS ABOUT THE MODEL

11

2.75 2.80 2.85 2.90 2.95 3.00 3.05 3.10 3.15

−2−1012

log10(Gewicht)

emp.logit(Y) 0.10.30.50.70.9 Y

Max.Likelihood Kleinste Quadrate

(13)

1.2.

CONSIDERATIONS ABOUT THE MODEL

12

f Interpretation of Coefficients? Need following concepts:

odds

odds = PhYi = 1i

1 − PhYi = 1i

π = 1/4 : odds 1:3 ( failure is 3 × more frequent ) log(odds)= ghYi = 1ii, g: Logit-Funktion.

log(odds)= η −→ Wahrsch. π = g−1hηi = 1+expexphηihηi. G−1:

”logistische Funktion”.

Logistische Regression: log(odds) = linearer Pr¨adiktor P

j βjx(j)i . πi = logistische Funktion hP

j βjx(j)i i.

(14)

1.2.

CONSIDERATIONS ABOUT THE MODEL

13

g Odds ratio (Doppelverh¨altnis): Vergleich zweier Beobachtungen

log

oddshx1i oddshx2i

= loghoddshx1ii − loghoddshx2ii

= η1 − η2 = (x1 − x2)β

Koeffizient βj: Vergr¨osserung von x(j) um 1 erh¨oht odds ratio um Faktor eβj.

h Beispiel Ader-Verengung:

Wert f¨ur Vol = 0.5, Rate = 1.75

log(odds) =9.56 + 3.88 · 0.5 + 2.65 · 1.75 =2.85

−→ odds = 0.0578 , g1(2.85) = 0.0546

Vergleich Vol = 1.5, Rate = 1.75: odds ratio: e3.88 = 48.4

−→ odds = 0.0578 · 48.4 = 2.80 , 2.80/3.80 = 0.73

(15)

1.2.

CONSIDERATIONS ABOUT THE MODEL

14

i Model with Latent Variable = Schwellenwert-Modell.

0 2 4 6 8 10

24681012

x

latente V. c

0

0 0

0 0

0

0 0 0

0

0 0 0

0 0

0

0

0

0 0

0 0

0 0 0

0

0

1

1

11 1

1

1 1

1

1 11

1 1

1 1 1

1 1

1

1

1 1

(16)

1.2.

CONSIDERATIONS ABOUT THE MODEL

15

Zi = xTi βe + Ei πi = PhYi = 1i = PhZi ≥ ci = P

D

Ei ≥ c − xTi βe E

= 1 − F

c −

β0 + X

j βjx(j)i

F : kumulative Verteilungsfunktion des Zufallsfehlers Ei

β = [βe0 − c,βe1, . . . , βem] ⇒ PhYi = 1i = g1hxTi βi mit g1hηi =

1 − Fh−ηi

Ei ∼ logistische Vt.: logistische Regression Ei ∼ Normal-Vt.: Probitmodell

Ei ∼ Extremwertvt.: Komplement¨ares log-log Modell

(17)

1.3.

ESTIMATION AND TESTS

16

1.3 Estimation and Tests

a Method of Maximal Likelihood. There are programs!

b Log-Likelihood:

``hye; βi = log

DY

` PhYe` = y`iE

= X

` log

m

`

y`

π`y`(1 − π`)m`−y`

= X

` log

m

`

y`

+ X

` y` log`i + (m` − y`) logh1 − π`i mit logithπ`i = xTi β

Ungrupp. Daten: m` = 1. ``hye; βi = P

yi=1 logii+P

yi=0 logh1−πii.

(18)

1.3.

ESTIMATION AND TESTS

17

c

*

Sch¨atzung:

∂`hye; βi/∂βj =

X

` y`log`i

∂βj + (m` − y`)logh1 − π`i

∂βj

= X

`

y` 1

π`(m` − y`) 1

1 − π`

∂π`

∂βj

= X

`

y`(1 − π`)(m` − y`)π`

π`(1 − π`) · dg−1`i dη` xe

(j)

`

= X

`(y` − m`π`) xe

(j)

`

da dg−1hηi/dη = exphηi/(1 + exphηi)2 = π(1 − π). Sch¨atzgleichung:

X

`(y` − m` πb`)

xe` = 0

(19)

1.3.

ESTIMATION AND TESTS

18

f Beispiel Ader-Verengung.

Call: glm(formula = Y ~ Vol + Rate, family = binomial, data = d.adern)

Deviance Residuals: ...

Coefficients:

Value Std. Error z_appr. Pr(>|z|) Signif (Intercept) -9.529 3.2140 -2.96 0.003 **

Vol 3.882 1.4202 2.73 0.006 **

Rate 2.649 0.9095 2.91 0.004 **

(Dispersion Parameter for Binomial family taken to be 1 ) Null Deviance: 54.04 on 38 degrees of freedom

Residual Deviance: 29.77 on 36 degrees of freedom Number of Fisher Scoring Iterations: 5

Correlation of Coefficients:

(Intercept) Vol Vol -0.9358

Rate -0.9228 0.7631

(20)

1.3.

ESTIMATION AND TESTS

19

g Residuen-Devianz

Dhy ; πib = 2

``(M) − ``hye; βib . Maximale erreichbare Log-Likelihood (πe` = y`/m`):

``(M) = X

`

log

m

`

y`

+ y` loghy`i

+(m` − y`) loghm` − y`i − m` loghm`i .

h Modelle vergleichen: Likelihood-Ratio-Tests. Test-Statistik:

Dhye ; πb

(K)

,πb

(G)i = Dhy; πb

(K)i − Dhy; πb

(G)i = 2(``(G) − ``(K)) asymptotisch chiquadrat-verteilt, wenn das kleine Modell stimmt.

(21)

1.3.

ESTIMATION AND TESTS

20

i Residuen-Devianz vergleicht gesch¨atztes Modell mit max. Mod.

−→ ”Anpassungstest”

Achtung: Geht nur bei nicht zu kleinen m` −→ grupp. Daten.

j Kleinstes Modell: πi f¨ur alle Beobachtungen gleich.

``(0) = P

` log

D m` y`

E

+ log

D

πe 1−πe

E P

` y` + n logh1πie mit πe =

P

` y`/n.

Null-Devianz: Dhy; πie = 2

``(M) − ``(0)

−→ Gesamt-Test f¨ur das Modell. (H0: alle βs =0!)

(22)

1.4.

RESIDUEN-ANALYSE

21

1.4 Residuen-Analyse

a Rohe Residuen (response residuals)

R` = Ye`/m`πb` , πb` = g1hxe

T

` βib Pearson residuals: R(P` ) = R`p

πb`(1πb`)/m`

Deviance residuals: Beitrag der i-ten Beobachtung zur Devianz Working residuals:

Berechnung der logist. Regr. via iterativ gewichtete Kl.Qu.

(vgl. nichtlin. Regr.)

−→ lineare N¨aherung −→ Residuen :

”working residuals”.

b Grafische Darstellungen:

Q-Q- (normal) plot meist unn¨utz!

(23)

1.4.

RESIDUEN-ANALYSE

22

c Tukey-Anscombe-Diagramm:

Rohe Res. / gesch¨atzte πi oder Arbeitsres. / lin. Pr¨adiktor braucht Gl¨attung.

0.0 0.2 0.4 0.6 0.8 1.0

−0.50.00.5

estimated pi

raw residual

0.0 0.2 0.4 0.6 0.8 1.0

−10123

estimated pi

Pearson residual

(24)

1.4.

RESIDUEN-ANALYSE

23

0.2 0.4 0.6 0.8

−1.5−1.0−0.50.00.51.01.5

Survival ~ Weight

lf

lr

(25)

1.4.

RESIDUEN-ANALYSE

24

e ”Partial residual plots”:

”Effekte” von x(ji ) (= βbjx(j)i − Konst.) plus geeignete Residuen gegen x(j)i .

(26)

1.4.

RESIDUEN-ANALYSE

25

600 800 1000 1200 1400

−2−1012

Weight

Partial for Weight

Survival ~ Weight + Age + Apgar1

20 25 30 35

−2−101

Age

Partial for Age

0 2 4 6 8

−2−101

Apgar1

Partial for Apgar1

(27)

1.4.

RESIDUEN-ANALYSE

26

regr

regr(formula = Survival ~ Weight + Age + Apgar1, data = t.d, family = binomial)

Terms:

coef stcoef t.ratio df Chi2 p.value

(Intercept) -8.484190 NA NA 1 NA NA

Weight 0.003791 1.0065 2.2780 1 22.535 0.000 Age 0.165297 0.4519 1.1254 1 4.999 0.025 Apgar1 0.142989 0.3179 0.9123 1 3.289 0.070

deviance df p.value

Model 82.72 3 0

Residual 236.56 243 NA

Null 319.28 246 NA

Dispersion parameter taken to be 1. Family is binomial.

AIC: 244.6

Number of Fisher Scoring iterations: 5

(28)

1.4.

RESIDUEN-ANALYSE

27

−2 −1 0 1 2 3 4

−20−15−10−505

Linear Predictor

res( Y ) 51422

6839

92 119

165122

171 196

202 218208

237224

Y~Gewicht + Alter + Apgar1

0.01 0.03 0.05 0.07

−4−3−2−1012

hat diagonal

st.res( Y )

5

6 11

1422 39 68

82

92

93 118

119

122

146158

165

171 196

202 208218

224 237

0 50 100 150 200 250

−20−15−10−505

sequence

res( Y ) 51422

39 68

92 119

122 165

171 196

202 208218

224237

600 800 1000 1200 1400

−20−15−10−505

Gewicht

Residuals 5 1422

39 68

92 119

122 165

171 196

202 218208

224 237

Jul 15,00/5:14 | |

(29)

1.4.

RESIDUEN-ANALYSE

28

20 22 24 26 28 30 32

−20−15−10−505

Alter

Residuals

Y ~ Gewicht + Alter + Apgar1

0 1 2 3 4 5 6 7 8 9

−20−15−10−505

Apgar1

Residuals

0 1 2 3 4 5 6 7 8 9 10

−20−15−10−505

Apgar5

Residuals

6.8 6.9 7.0 7.1 7.2 7.3 7.4 7.5 7.6

−20−15−10−505

pH

Residuals Jul 15,00/5:15 | |

(30)

1.4.

RESIDUEN-ANALYSE

29

Call:

regr(formula = cbind(Survival.1, Survival.0) ~ Weight, data = t.d, family = binomial)

Terms:

coef stcoef t.ratio df F p.value (Intercept) -4.560648 NA NA 1 NA NA Weight 0.005087 1.540 3.145 1 47.98 0

deviance df p.value Model 74.61 1 0.0000 Residual 12.44 8 0.1327

Null 87.05 9 NA

Dispersion parameter estimated to be 1.555. Family is binomial.

AIC: 45.43

Number of Fisher Scoring iterations: 4

(31)

1.4.

RESIDUEN-ANALYSE

30

0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9

−1.0−0.50.00.5

fitted

res( Y )

1

5

7

8

cbind(Survival.1, Survival.0)~Weight

0.14 0.16 0.18 0.20 0.22 0.24 0.26 0.28 0.30

−1.5−0.50.00.51.0

hat diagonal

st.res( Y )

1

3 5

7

8

9

1 2 3 4 5 6 7 8 9 10

−1.0−0.50.00.5

sequence

res( Y )

1

5

7

8

600 700 800 900 1100 1300

−1.0−0.50.00.5

Weight

Residuals

1

5

7

8

Jun 14,00/1:43 | |

(32)

2.1.

POISSON-REGRESSION

31

2 Verallgemeinerte Lineare Modelle

2.1 Poisson-Regression

b Beispiel Schiffs-Havarien.

Y Anzahl Schaden-Ereignisse, X Anzahl Betriebs-Monate M,

Schiffs-Typ T: 0, 1

Baujahr-Periode C: 60, 65, 70, 75 Betriebs-Periode O: 0, 1

T C O M Y

1 0 60 0 127 0

2 0 60 1 63 0

3 0 65 0 1095 3

. . .

13 1 70 1 13099 44

14 1 75 1 7117 18

(33)

2.1.

POISSON-REGRESSION

32

50 100 200 500 1000 2000 5000 20000 50000

0102030405060

Betriebsmonate

Anz.Schaeden

0

1 01 0

1 1

0

1

0 1

0

1

1

0102030405060

01 1960−74 1975−79

(34)

2.1.

POISSON-REGRESSION

33

c Yi ∼ Phλii EhYii = λi = g−1hxii g hEhYiii = ηi = xTi β

g: log

ghλi = loghλi ⇒ EhYii = λ = exp

D

xTi β E

= eβ0 · eβ1x

(1)

i · ... · eβmx

(m) i

= βe0 · βex

(1) i

1 · βe2x(2) · ... · βemx(m)

e multiplikative Effekte!

(35)

2.1.

POISSON-REGRESSION

34

f Beispiel:

loghEhYiii = β0+βM loghMii+βTTi+βPPi+γ1·(C1)i+γ2·(C2)i+γ3·(C3)i loghMi: Anz. Havarien proportional zu Anz. Betriebsmonate

g Anzahlen:

”gruppierte Daten”

(36)

2.2.

DAS GRUNDLEGENDE MODELL

35

2.2 Das grundlegende Modell

a g hEhYiii = ηi = xTi β g: Link-Funktion

b Verteilung von Y ? Binomial, Poisson, normal, Gamma, ...

−→ Exponentialfamilie!

(37)

2.2.

DAS GRUNDLEGENDE MODELL

36

c Exponentialfamilie

fhy; θ, φ, ωi = exp

yθ − bhθi

φ ω + chy; φ; ωi θ: kanonischer Parameter.

φ: Dispersions-Parameter, St¨or-Parameter.

ω: Gewicht bei gruppierten Daten.

b: Welche Verteilung?

c: Normierung auf gesamte W.=1

d Es gilt:

µ = EhY i = b0hθi , varhY i = b00hθi · φ

ω = V hµi · φ ω (mit geeigneter Funktion V ).

(38)

2.2.

DAS GRUNDLEGENDE MODELL

37

e Normalverteilung:

log

D

fhy; µ, σ2iE

=logh√

2π degσi − 1

2

y − µ σ

2

= yµ − 12µ2

σ2 − y2

(2σ2)logh√

2π degσi θ = µ

φ = σ2 bhθi = θ2/2

chy; φi = −y2/(2φ)(1/2) logh2π degφi

(39)

2.2.

DAS GRUNDLEGENDE MODELL

38

g Binomial-Verteilung: Zielgr¨osse Yk = Yek/mk.

log hPhY = yii

= log

m my

+ (my) loghπi + mlogh1 − πi − (my) logh1 − πi

=

y log

π

1 − π

+ logh1 − πi

m + log

m my

θ = loghπ/(1 − π)i ω = m

chy; φi = log

m my

bhθi = logh1 + eθi b0hθi = π b00hθi = π(1 − π) 0-1-Variable: m = 1.

(40)

2.2.

DAS GRUNDLEGENDE MODELL

39

i Link-Funktion.

Inverse Link-Funktion h soll unm¨ogliche Werte vermeiden:

ghµi = µ, wenn EhY i beliebig

ghµi = loghµi, wenn EhY i > 0, ghµi = logithµi = logh µ

(1−µ)i,wenn 0 ≤ EhY i ≤ 1

j ”Kanonische Link-Funktion”: η = ghµi = θ = (b)−1hµi W¨ahle g = (b)−1! Normalverteilung ghµi = µ

Poissonverteilung ghµi = loghµi Binomialverteilung ghµi = logithµi

Vorteile: Existenz und Eindeutigkeit, einfachere Sch¨atzgleichungen

(41)

2.3.

SCH ¨ A TZUNGEN UND TESTS

40

2.3 Sch¨ atzungen und Tests

b Likelihood.

``hβi = X

i yiθhxTi βi − bhθhxTi βii ω

i

φ + chyi; φ; ωii

= X

i

yi · logii − λilog(yi!)

= X

i

yi loghe(xTi β)i − e(xTi β)log(yi!)

c Maximum-Likelihood-Sch¨atzung:

shβi = ∂``hβi/∂β = X

i sihβi.

(42)

2.3.

SCH ¨ A TZUNGEN UND TESTS

41

*

Poisson-Regression jte Komponente der Scorefunktion:

s(j)i hβi = ∂``ihβi

∂βj =

∂``ihθi

∂θi · ∂θi

∂µi · ∂µi

∂ηi · ∂ηi

∂βj

= (yi − eθi) · 1

µi · eηi · x(ji )

= (yi − µi) · 1

µi · µi · x(j)i = (yi − µi) · x(j)i

(43)

2.3.

SCH ¨ A TZUNGEN UND TESTS

42

d Sch¨atzung: s(j)hβi = 0 −→ βbj

Normalgleichungen f¨ur gewichtete Kleinste Quadrate Gewichte und

”Residuen” h¨angen von β ab ! Algorithmus:

”iteratively reweighted least squares”

−→ Es kann vorkommen, dass das Programm keine geeigneten Startwerte findet!

e Dispersionsparameter: Sch¨atzung nach Max.Lik., mit Korrekturfaktor wegen Freiheitsgraden.

f Verteilung der gesch¨atzten Parameter: Asymptotik

⇒ Normalverteilung (z-Test).

βb ≈∼ N hβ, mxV /ni V = ...

(44)

2.3.

SCH ¨ A TZUNGEN UND TESTS

43

g summary(glm(...))

Call: glm(formula = Y ~ TYPE + factor(C) + OPER + log(MONTHS), family = poisson, data = d.ship)

Deviance Residuals: ...

Coefficients:

Value Std. Error z_appr. Pr(>|z|) Signif (Intercept) -6.6109 1.2744 -5.19 0.000 ***

TYPE -0.6569 0.3262 -2.01 0.044 * factor(C)1 -0.5556 0.1470 -3.78 0.000 ***

factor(C)2 0.1242 0.1038 1.20 0.231

factor(C)3 0.2965 0.1129 2.63 0.009 **

OPER 0.4585 0.1359 3.37 0.001 ***

log(MONTHS) 1.0825 0.1550 6.99 0.000 ***

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 (Dispersion Parameter for Poisson family taken to be 1 )

Null Deviance: 267.3 on 13 degrees of freedom Residual Deviance: 3.434 on 7 degrees of freedom Number of Fisher Scoring Iterations: 3

(45)

2.3.

SCH ¨ A TZUNGEN UND TESTS

44

h Residuen-Devianz

Vergleich des gefitteten Models mit

”Maximal m¨oglichem” Modell, d.h. f¨ur jede Beobachtung ein Parameter:

Dhy; µib = 2(``

(M) − ``hβib )

= X

i 2ωi

yi(θei − θhxTi βib ) − bhθeii + bhθhxTi βiib θei = Parameterwert, der am besten zu yi passt.

i Poisson-Regression: θei = log(yi) Dhy; µbi =

X

i 2

yi(loghyii − loghµbii) e

loghyii + eloghµbii

= X

i 2

yiloghyii

loghµbii

− yi + µbi

(46)

2.3.

SCH ¨ A TZUNGEN UND TESTS

45

j Vergleich von Modellen. Likelihood-Ratio-Test Dhye ; µb

(K)

,µb

(G)i = Dhy; µb

(K)

) − Dhy; µb

(G)) = 2(``(G) − ``(K)) Gesamt-Test: null deviance – residual deviance.

Dhye ; µb

(0),µib = Dhy; µb

(0)) − Dhy; µb) = 2(``

(G) − ``(0))

(47)

2.3.

SCH ¨ A TZUNGEN UND TESTS

46

1. Likelihood-Quotienten-Test: Devianz-Differenz H0: Modell K mit p Parametern

H1: Modell G mit r > p Parametern Teststatistik 2 · log LG

LK = 2(``(G) − ``(K)) Verteilung unter H0: χ2r−p

2. Vergleich mit maximalem Modell: Residuen-Devianz Dhyb; µib H0: Angepasstes Modell mit p Parametern

H1: Maximales Modell m mit nk Parametern Teststatistik Dhyb; µib = 2(``

(M) − ``hµib )

Verteilung unter H0: χ2n−p (Gruppierten Daten!)

(48)

2.3.

SCH ¨ A TZUNGEN UND TESTS

47

3. Gesamt-Test: Vergleich von Null Devianz und Residuendevianz H0: Null Modell mit einem Parameter

H1: Angepasstes Modell mit p Parametern Teststatistik Dhyb; µb

0i − Dhyb; µib = 2(``hµi −b ``hµb

0i) Verteilung unter H0: χ2p−1

(49)

2.3.

SCH ¨ A TZUNGEN UND TESTS

48

> r.ship1 <- glm(Y~TYPE + factor(CONS) + OPER + log(MONTHS), data=d.ship,family=poisson)

> summary(r.ship1,corr=F)

Call: glm(formula = Y ~ TYPE + factor(CONS) + OPER + log(MONTHS), family = poisson, data = d.ship)

Coefficients:

Value Std. Error z_appr. Pr(>|z|) Signif (Intercept) -6.6109 1.2744 -5.19 0.000 ***

TYPE -0.6569 0.3262 -2.01 0.044 * factor(CONS)1 -0.5556 0.1470 -3.78 0.000 ***

factor(CONS)2 0.1242 0.1038 1.20 0.231

factor(CONS)3 0.2965 0.1129 2.63 0.009 **

OPER 0.4585 0.1359 3.37 0.001 ***

log(MONTHS) 1.0825 0.1550 6.99 0.000 ***

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 (Dispersion Parameter for Poisson family taken to be 1 )

Null Deviance: 267.3 on 13 degrees of freedom Residual Deviance: 3.434 on 7 degrees of freedom Number of Fisher Scoring Iterations: 3

> 1-pchisq(3.434,7) 0.8421659

(50)

2.4.

UBERGROSSE STREUUNG ¨

49

2.4 Ubergrosse Streuung ¨

a Ablehnung des Modells (residual deviance): ⇒ over-dispersion.

b Neues Modell: φ > 1

Keine entsprechende Verteilung −→

”Quasi-Modelle”,

”Quasi-Likelihood”.

c V hµi = φµ(1 − µ) resp. V hµi = φµ

f¨ur ¨uberm¨assig streuende Binomial- respektive Poisson-Zielgr¨ossen.

−→ Dispersionsparameter sch¨atzen statt fixieren.

φb = n−p1 P ωi(yiµbi)2 V ii

(51)

2.4.

UBERGROSSE STREUUNG ¨

50

d Parametersch¨atzer βb bleiben gleich Konfidenzintervalle um den Faktor

q

φb breiter

e Was, wenn φ <b 1? – φ < 1 ist unplausibel!

(52)

2.5.

RESIDUEN-ANALYSE

51

2.5 Residuen-Analyse

• Rohe Residuen oder response residuals: Ri = Yiµbi

• Pearson-Residuen: R(Pi ) = Ri/p

V hµbii

• Arbeits-Residuen (working residuals): R(Wi ) = Ri · g0hµi.b

• Devianz-Residuen: R(D)i = signhyiµbii

√di Poisson-Regression: Dhy; µbi =

P

i 2

yilogloghyii

hµbii − yi + µbi

=: P

i d2i

(53)

2.5.

RESIDUEN-ANALYSE

52

a Residuen-Analyse:

• Linearit¨at: Arbeitsresicuen R(Wi ) oder adjustierte Beobachtungen yei = x

Ti βb + ri(W) vs ηbi.

• Residuenvarianz: φ

• Hutmatrix: Wf1/2Xe(XeWfXe)−1XeTWf1/2 (?)

• Residuenplot mit glatten Kurven:

– Tukey-Anscombe-Plot

– Beobachtungen vs fitted values – Partielle Residuen-Plots

(54)

3.1.

MODELLE

53

3 Geordnete diskrete Zielgr¨ ossen

3.1 Modelle

a Anwendungen:

• Beurteilung von sehr schlecht bis sehr gut,

• gruppierte H¨aufigkeiten,

• quantitative, klassierte Gr¨osse, etc.

(55)

3.1.

MODELLE

54

b Beispiel: Lokale Anaesthesie des Armes.

Welche erkl¨arenden Variablen beeinflussen den Erfolg?

Y suc.deg Erfolg in 4 Klassen:

1: schmerzvoll, ... 4: Kein Schmerz X medic Medikamentdosis

napplic Anzahl Einstiche (Intervall-Skala) anest2: An¨astesist/in (Faktor),

moon: Mondphase (Faktor) ...

anest2 suc.deg

1 A0 1

3 A2 3

4 A2 3

8 A0 1

9 A2 4

. . . . . . . . .

suc.deg

1 2 3 4

A0 28 18 23 25

A2 4 10 13 36

A1 6 1 6 8

(56)

3.1.

MODELLE

55

c Latente Variable, Z kontinuierlich

Yi = 0 ⇐⇒ Zi ≤ α1

Yi = k ⇐⇒ αk < Zi ≤ αk+1 Yi = k ⇐⇒ αk < Zi

k Schwellenwerte: α1 < α2 < . . . < αk.

PhYi ≤ ki = PhZi ≤ αki , k = 1, . . . , k

1. Annahme: Latente Variable hat z.B. logistische (Fehler-) Verteilung 2. Annahme: Multiple lineare Regression f¨ur latente Variable

(57)

3.1.

MODELLE

56

2 4 6 8 10

246810

x

latente V.

(58)

3.1.

MODELLE

57

d Modell

Zi = β0 + X

j x(j)i βj + Ei

γk := PhYi ≥ ki = PhZi ≥ αki = PhEi ≥ αk(β0 + xTβi)

= 1 − FE D

αk(β0 + xTβ) E

= F−E D

xTβ −(αk − β0) E ghγki = xTβ −(αk − β0)

f Schwellenwerte nicht gleich-abst¨andig. Sch¨atzen!

g Kumulatives Modell: PhYi ≥ ki = PhYi = ki + . . . + PhYi = ki

(59)

3.1.

MODELLE

58

h Gruppierung: Ye`,k = Anzahl{i|Yi=k & xi=x`}

m`=Anzahl{i|xi=x`} Multinomialverteilung Mkhm, πi:

• Multinomialverteilung = mehrparametrige Exponentialfamilie genauer: betrachte Ye`/m`

• Erwartungsvektor: π1, . . . , πk

• Wahrscheinlichkeiten PhY ` = y`i

= m`!

(m`y`(1))!...(m`y`(L))!

(π`(1))m`y

(1)

` (π`(2))m`y

(2)

` · ... · (π`(k))m`y

(k)

`

πk = PhYi = ki aus dem Modell der latenten Variablen.

−→ Multivariates generalisiertes lineares Modell

(60)

3.1.

MODELLE

59

i Wettverh¨altnisse (odds)

oddshY ≥ k | xi = PhY ≥ k | xi

PhY < k | xi = expki(exp1i)x(1) · · ·(expmi)x(m) . Odds Ratio

oddshY ≥ k | x1i

oddshY ≥ k | x2i = exph−(x1 − x2)Tβi sind f¨ur alle Schwellenwerte αk gleich!

⇒ proportional odds model.

(61)

3.1.

MODELLE

60

j

*

”komplement¨are Log-Log-Funktion”

ghγi = log h − logh1 − γii , 0 < γ < 1 Zuverl¨assigkeits- und ¨Uberlebenszeit-Studien: Weibull-Verteilung.

Logarithmierte Ausfall- oder ¨Uberlebenszeiten: Gumbel-Verteilung.

Proportional hazards, Cox-Regression.

F¨ur zensierte Daten brauchbar!

Referenzen

ÄHNLICHE DOKUMENTE

Im nächsten Schritt (&#34;Block&#34;) können zusätzliche Variablen ins Modell aufgenommen oder Prädiktoren aus dem ersten Block entfernt werden. nur x1) sowie die Signifikanz

Wendet man den R-Befehl anova auf ein einzelnes Modell an, werden die Variablen in der Reihenfolge, in der sie angegeben wurden, nach und nach hinzugef¨ ugt und die p-Werte

Im Beispiel ¨ uber das Holzvolumen von B¨ aumen aus dem Kapitel 1 wurde die Response- variable V einer Box-Cox Transformation unterzogen. F¨ ur beide Modelle wurde dann an-

Grunde fur  Uberdispersion: Uberdispersion kann verursacht werden durch Variation unter den Erfolgswahrscheinlichkeiten oder durch Korrelation unter den

Die Daten selbst stehen auf unserer WebPage zum download bereit und beinhalten Informationen ¨uber die Reiseklasse (Class) mit den vier Stufen First, Second, Third und Crew, das

Im Beispiel ¨ uber das verwendbare Holzvolumen von Black Cherry B¨aumen aus Kapitel 1 wurde die Responsevariable V einer Box-Cox Transformation unterzogen. F¨ ur beide Mo- delle

• Gegeben das Modell enth¨alt bereits alle drei Haupteffekte (new, bath, area) ben¨otigen wir f¨ur die Intercepts auch den einen sch¨atzbaren Interaktionsparameter zwischen new und

Gesucht wird eine lineare Funktion mit der Gleichung , die sich optimal den n Punkten mit (n &gt; 1) annähert.. Benötigt wird der Mittelwert und