1.1. INTRODUCTION 0
Logistic Regression 1.1 Introduction
Only partially translated at this time
b Example: Shrinked blood vessels Y : shrinked: yes (1) / no (0)
erkl.: Breath Volume (Vol) and Frequency (Rate) Ziel: PhY = 1 | Vol, Ratei modellieren!
c PhYi = 1i = hhx(1)i , x(2)i , ..., x(m)i i
1.1. INTRODUCTION 1
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
0.00.51.01.52.02.53.03.54.0
Vol
Rate
0.1 0.3 0.5 0.7 0.9
1.1. INTRODUCTION 2
PhYi = 1i = hhx(1)i , x(2)i , ..., x(m)i i
d Why is an ordinary linear regression inadequate?
Yi = β0 + β1x(1)i + β2x(2)i + . . . + βmx(m)i + Ei
• What is the error term Ei ?
EhYii = β0 + β1x(1)i + β2x(2)i + . . . + βmx(m)i We have PhYi = 1i = EhYii. −→ Same form o.k.
• But: Estimated values may become < 0 and > 1!
−→ Transformation of Yi? 2 values remain 2 values!
−→ Transformation of EhYii = PhYi = 1i!
1.1. INTRODUCTION 3
e Modell. Logit-Funktion ghπi = log D
π 1−π
E
ghPhYi = 1ii = ηi = β0 + β1x(1)i + β2x(2)i + . . . + βmx(m)i η:
”linearer Pr¨adiktor”.
f Beispiel: ghPhY = 1ii = −9.53 + 3.88 · Vol + 2.65 · Rate.
1.1. INTRODUCTION 4
−5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
0.00.20.40.60.81.0Y
● ●● ● ● ● ●● ● ●●●● ●● ●●● ●
1.1. INTRODUCTION 5
g Diskriminanzanalyse:
Yi Gruppen-Zugeh¨origkeit
Xi(j) multivariate Beobachtungen.
Logistische Regression:
1. Sch¨atzen: πˆi
2. Zuordnen: Yˆ = 1, wenn ηˆi > 0 (πˆi > 0.5)
1.1. INTRODUCTION 6
h Further Applications:
• Toxikology: Toxic matter deadly for mice? What concentration?
• Medicine: Treatment successful?
• Failure of (technical) devices,
• Bugs in (technical) products,
• Occurence of characteristics in animals or plants,
• client scoring, General: 2 Groups.
1.2.
CONSIDERATIONS ABOUT THE MODEL
71.2 Considerations about the Model
a Same flexibility as linear regression.
Frequently: factors (nominal variables) as explanatory v.
b Example: Assessment of work situation.
Yi happy (1), unhappy (0) Xi(j) Region, Age, Gender, Race Only 1 factor −→ 2 × k-cross table
NE Mid-Atl. S Midwest NW SW Pacific total
unzufrieden 738 166 514 749 711 482 209 3569
zufrieden 1161 406 916 1240 1221 971 465 6380
total 1989 572 1430 1899 1932 1453 674 9949
1.2.
CONSIDERATIONS ABOUT THE MODEL
8c Gruppierte Daten: m` Beob. Yi zu gleichen xi = xe`: Ye` = P
i : xi = xe` Yi Yek ∼ Bhmk, πki EhYe`/m`i = π`
−→ Logistische Regression: ghπ`i = η`
d Beispiel ¨Uberleben von Fr¨uhgeburten. 247 S¨auglinge.
Erkl¨arende Variable: Geburtsgewicht. Klassen von je 100 g
n Surv.no Surv.yes Weight
1 10 10 0 550
2 14 12 2 650
3 27 18 9 750
4 22 14 8 850
5 32 9 23 950
6 28 7 21 1050
7 22 3 19 1150
8 26 7 19 1250
9 34 3 31 1350
10 32 3 29 1450
1.2.
CONSIDERATIONS ABOUT THE MODEL
9500 600 700 800 900 1000 1100 1200 1300 1400 1500
0.00.10.20.30.40.50.60.70.80.91.0
Weight
Survival
1.2.
CONSIDERATIONS ABOUT THE MODEL
10e Transformierte Beobachtungen.
EhYe`/m`i = π` , ghπ`i = linearer Pr¨adiktor.
ghYe`/m`i ≈ linearer Pr¨adiktor.
Was tun mit Y`/m` = 0 oder = 1? gh0i = −∞ , gh1i = ∞.
Abhilfe: Empirische Logits
Ze` = log
*
Ye` + 0.5
m` − Ye` + 0.5 +
.
−→ Gew¨ohnliche multiple Regression mit Z`? −→ N¨aherung.
1.2.
CONSIDERATIONS ABOUT THE MODEL
112.75 2.80 2.85 2.90 2.95 3.00 3.05 3.10 3.15
−2−1012
log10(Gewicht)
emp.logit(Y) 0.10.30.50.70.9 Y
Max.Likelihood Kleinste Quadrate
1.2.
CONSIDERATIONS ABOUT THE MODEL
12f Interpretation of Coefficients? Need following concepts:
odds
odds = PhYi = 1i
1 − PhYi = 1i
π = 1/4 : odds 1:3 ( failure is 3 × more frequent ) log(odds)= ghYi = 1ii, g: Logit-Funktion.
log(odds)= η −→ Wahrsch. π = g−1hηi = 1+expexphηihηi. G−1:
”logistische Funktion”.
Logistische Regression: log(odds) = linearer Pr¨adiktor P
j βjx(j)i . πi = logistische Funktion hP
j βjx(j)i i.
1.2.
CONSIDERATIONS ABOUT THE MODEL
13g Odds ratio (Doppelverh¨altnis): Vergleich zweier Beobachtungen
log
oddshx1i oddshx2i
= loghoddshx1ii − loghoddshx2ii
= η1 − η2 = (x1 − x2)β
Koeffizient βj: Vergr¨osserung von x(j) um 1 erh¨oht odds ratio um Faktor eβj.
h Beispiel Ader-Verengung:
Wert f¨ur Vol = 0.5, Rate = 1.75
log(odds) = −9.56 + 3.88 · 0.5 + 2.65 · 1.75 = −2.85
−→ odds = 0.0578 , g−1(−2.85) = 0.0546
Vergleich Vol = 1.5, Rate = 1.75: odds ratio: e3.88 = 48.4
−→ odds = 0.0578 · 48.4 = 2.80 , 2.80/3.80 = 0.73
1.2.
CONSIDERATIONS ABOUT THE MODEL
14i Model with Latent Variable = Schwellenwert-Modell.
0 2 4 6 8 10
24681012
x
latente V. c
0
0 0
0 0
0
0 0 0
0
0 0 0
0 0
0
0
0
0 0
0 0
0 0 0
0
0
1
1
11 1
1
1 1
1
1 11
1 1
1 1 1
1 1
1
1
1 1
1.2.
CONSIDERATIONS ABOUT THE MODEL
15Zi = xTi βe + Ei πi = PhYi = 1i = PhZi ≥ ci = P
D
Ei ≥ c − xTi βe E
= 1 − F
c −
β0 + X
j βjx(j)i
F : kumulative Verteilungsfunktion des Zufallsfehlers Ei
β = [βe0 − c,βe1, . . . , βem] ⇒ PhYi = 1i = g−1hxTi βi mit g−1hηi =
1 − Fh−ηi
Ei ∼ logistische Vt.: logistische Regression Ei ∼ Normal-Vt.: Probitmodell
Ei ∼ Extremwertvt.: Komplement¨ares log-log Modell
1.3.
ESTIMATION AND TESTS
161.3 Estimation and Tests
a Method of Maximal Likelihood. There are programs!
b Log-Likelihood:
``hye; βi = log
DY
` PhYe` = y`iE
= X
` log
m
`
y`
π`y`(1 − π`)m`−y`
= X
` log
m
`
y`
+ X
` y` loghπ`i + (m` − y`) logh1 − π`i mit logithπ`i = xTi β
Ungrupp. Daten: m` = 1. ``hye; βi = P
yi=1 loghπii+P
yi=0 logh1−πii.
1.3.
ESTIMATION AND TESTS
17c
*
Sch¨atzung:∂`hye; βi/∂βj =
X
` y`∂ loghπ`i
∂βj + (m` − y`)∂ logh1 − π`i
∂βj
= X
`
y` 1
π` − (m` − y`) 1
1 − π`
∂π`
∂βj
= X
`
y`(1 − π`) − (m` − y`)π`
π`(1 − π`) · dg−1hη`i dη` xe
(j)
`
= X
`(y` − m`π`) xe
(j)
`
da dg−1hηi/dη = exphηi/(1 + exphηi)2 = π(1 − π). Sch¨atzgleichung:
X
`(y` − m` πb`)
xe` = 0
1.3.
ESTIMATION AND TESTS
18f Beispiel Ader-Verengung.
Call: glm(formula = Y ~ Vol + Rate, family = binomial, data = d.adern)
Deviance Residuals: ...
Coefficients:
Value Std. Error z_appr. Pr(>|z|) Signif (Intercept) -9.529 3.2140 -2.96 0.003 **
Vol 3.882 1.4202 2.73 0.006 **
Rate 2.649 0.9095 2.91 0.004 **
(Dispersion Parameter for Binomial family taken to be 1 ) Null Deviance: 54.04 on 38 degrees of freedom
Residual Deviance: 29.77 on 36 degrees of freedom Number of Fisher Scoring Iterations: 5
Correlation of Coefficients:
(Intercept) Vol Vol -0.9358
Rate -0.9228 0.7631
1.3.
ESTIMATION AND TESTS
19g Residuen-Devianz
Dhy ; πib = 2
``(M) − ``hye; βib . Maximale erreichbare Log-Likelihood (πe` = y`/m`):
``(M) = X
`
log
m
`
y`
+ y` loghy`i
+(m` − y`) loghm` − y`i − m` loghm`i .
h Modelle vergleichen: Likelihood-Ratio-Tests. Test-Statistik:
Dhye ; πb
(K)
,πb
(G)i = Dhy; πb
(K)i − Dhy; πb
(G)i = 2(``(G) − ``(K)) asymptotisch chiquadrat-verteilt, wenn das kleine Modell stimmt.
1.3.
ESTIMATION AND TESTS
20i Residuen-Devianz vergleicht gesch¨atztes Modell mit max. Mod.
−→ ”Anpassungstest”
Achtung: Geht nur bei nicht zu kleinen m` −→ grupp. Daten.
j Kleinstes Modell: πi f¨ur alle Beobachtungen gleich.
``(0) = P
` log
D m` y`
E
+ log
D
πe 1−πe
E P
` y` + n logh1 − πie mit πe =
P
` y`/n.
Null-Devianz: Dhy; πie = 2
``(M) − ``(0)
−→ Gesamt-Test f¨ur das Modell. (H0: alle βs =0!)
1.4.
RESIDUEN-ANALYSE
211.4 Residuen-Analyse
a Rohe Residuen (response residuals)
R` = Ye`/m` − πb` , πb` = g−1hxe
T
` βib Pearson residuals: R(P` ) = R`p
πb`(1 − πb`)/m`
Deviance residuals: Beitrag der i-ten Beobachtung zur Devianz Working residuals:
Berechnung der logist. Regr. via iterativ gewichtete Kl.Qu.
(vgl. nichtlin. Regr.)
−→ lineare N¨aherung −→ Residuen :
”working residuals”.
b Grafische Darstellungen:
Q-Q- (normal) plot meist unn¨utz!
1.4.
RESIDUEN-ANALYSE
22c Tukey-Anscombe-Diagramm:
Rohe Res. / gesch¨atzte πi oder Arbeitsres. / lin. Pr¨adiktor braucht Gl¨attung.
0.0 0.2 0.4 0.6 0.8 1.0
−0.50.00.5
estimated pi
raw residual
0.0 0.2 0.4 0.6 0.8 1.0
−10123
estimated pi
Pearson residual
1.4.
RESIDUEN-ANALYSE
230.2 0.4 0.6 0.8
−1.5−1.0−0.50.00.51.01.5
Survival ~ Weight
lf
lr
1.4.
RESIDUEN-ANALYSE
24e ”Partial residual plots”:
”Effekte” von x(ji ) (= βbjx(j)i − Konst.) plus geeignete Residuen gegen x(j)i .
1.4.
RESIDUEN-ANALYSE
25600 800 1000 1200 1400
−2−1012
Weight
Partial for Weight
Survival ~ Weight + Age + Apgar1
20 25 30 35
−2−101
Age
Partial for Age
0 2 4 6 8
−2−101
Apgar1
Partial for Apgar1
1.4.
RESIDUEN-ANALYSE
26regr
regr(formula = Survival ~ Weight + Age + Apgar1, data = t.d, family = binomial)
Terms:
coef stcoef t.ratio df Chi2 p.value
(Intercept) -8.484190 NA NA 1 NA NA
Weight 0.003791 1.0065 2.2780 1 22.535 0.000 Age 0.165297 0.4519 1.1254 1 4.999 0.025 Apgar1 0.142989 0.3179 0.9123 1 3.289 0.070
deviance df p.value
Model 82.72 3 0
Residual 236.56 243 NA
Null 319.28 246 NA
Dispersion parameter taken to be 1. Family is binomial.
AIC: 244.6
Number of Fisher Scoring iterations: 5
1.4.
RESIDUEN-ANALYSE
27−2 −1 0 1 2 3 4
−20−15−10−505
Linear Predictor
res( Y ) 51422
6839
92 119
165122
171 196
202 218208
237224
Y~Gewicht + Alter + Apgar1
0.01 0.03 0.05 0.07
−4−3−2−1012
hat diagonal
st.res( Y )
5
6 11
1422 39 68
82
92
93 118
119
122
146158
165
171 196
202 208218
224 237
0 50 100 150 200 250
−20−15−10−505
sequence
res( Y ) 51422
39 68
92 119
122 165
171 196
202 208218
224237
600 800 1000 1200 1400
−20−15−10−505
Gewicht
Residuals 5 1422
39 68
92 119
122 165
171 196
202 218208
224 237
Jul 15,00/5:14 | |
1.4.
RESIDUEN-ANALYSE
2820 22 24 26 28 30 32
−20−15−10−505
Alter
Residuals
Y ~ Gewicht + Alter + Apgar1
0 1 2 3 4 5 6 7 8 9
−20−15−10−505
Apgar1
Residuals
0 1 2 3 4 5 6 7 8 9 10
−20−15−10−505
Apgar5
Residuals
6.8 6.9 7.0 7.1 7.2 7.3 7.4 7.5 7.6
−20−15−10−505
pH
Residuals Jul 15,00/5:15 | |
1.4.
RESIDUEN-ANALYSE
29Call:
regr(formula = cbind(Survival.1, Survival.0) ~ Weight, data = t.d, family = binomial)
Terms:
coef stcoef t.ratio df F p.value (Intercept) -4.560648 NA NA 1 NA NA Weight 0.005087 1.540 3.145 1 47.98 0
deviance df p.value Model 74.61 1 0.0000 Residual 12.44 8 0.1327
Null 87.05 9 NA
Dispersion parameter estimated to be 1.555. Family is binomial.
AIC: 45.43
Number of Fisher Scoring iterations: 4
1.4.
RESIDUEN-ANALYSE
300.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
−1.0−0.50.00.5
fitted
res( Y )
1
5
7
8
cbind(Survival.1, Survival.0)~Weight
0.14 0.16 0.18 0.20 0.22 0.24 0.26 0.28 0.30
−1.5−0.50.00.51.0
hat diagonal
st.res( Y )
1
3 5
7
8
9
1 2 3 4 5 6 7 8 9 10
−1.0−0.50.00.5
sequence
res( Y )
1
5
7
8
600 700 800 900 1100 1300
−1.0−0.50.00.5
Weight
Residuals
1
5
7
8
Jun 14,00/1:43 | |
2.1.
POISSON-REGRESSION
312 Verallgemeinerte Lineare Modelle
2.1 Poisson-Regression
b Beispiel Schiffs-Havarien.
Y Anzahl Schaden-Ereignisse, X Anzahl Betriebs-Monate M,
Schiffs-Typ T: 0, 1
Baujahr-Periode C: 60, 65, 70, 75 Betriebs-Periode O: 0, 1
T C O M Y
1 0 60 0 127 0
2 0 60 1 63 0
3 0 65 0 1095 3
. . .
13 1 70 1 13099 44
14 1 75 1 7117 18
2.1.
POISSON-REGRESSION
3250 100 200 500 1000 2000 5000 20000 50000
0102030405060
Betriebsmonate
Anz.Schaeden
0
1 01 0
1 1
0
1
0 1
0
1
1
0102030405060
01 1960−74 1975−79
2.1.
POISSON-REGRESSION
33c Yi ∼ Phλii EhYii = λi = g−1hxii g hEhYiii = ηi = xTi β
g: log
ghλi = loghλi ⇒ EhYii = λ = exp
D
xTi β E
= eβ0 · eβ1x
(1)
i · ... · eβmx
(m) i
= βe0 · βex
(1) i
1 · βe2x(2) · ... · βemx(m)
e multiplikative Effekte!
2.1.
POISSON-REGRESSION
34f Beispiel:
loghEhYiii = β0+βM loghMii+βTTi+βPPi+γ1·(C1)i+γ2·(C2)i+γ3·(C3)i loghMi: Anz. Havarien proportional zu Anz. Betriebsmonate
g Anzahlen:
”gruppierte Daten”
2.2.
DAS GRUNDLEGENDE MODELL
352.2 Das grundlegende Modell
a g hEhYiii = ηi = xTi β g: Link-Funktion
b Verteilung von Y ? Binomial, Poisson, normal, Gamma, ...
−→ Exponentialfamilie!
2.2.
DAS GRUNDLEGENDE MODELL
36c Exponentialfamilie
fhy; θ, φ, ωi = exp
yθ − bhθi
φ ω + chy; φ; ωi θ: kanonischer Parameter.
φ: Dispersions-Parameter, St¨or-Parameter.
ω: Gewicht bei gruppierten Daten.
b: Welche Verteilung?
c: Normierung auf gesamte W.=1
d Es gilt:
µ = EhY i = b0hθi , varhY i = b00hθi · φ
ω = V hµi · φ ω (mit geeigneter Funktion V ).
2.2.
DAS GRUNDLEGENDE MODELL
37e Normalverteilung:
log
D
fhy; µ, σ2iE
= − logh√
2π degσi − 1
2
y − µ σ
2
= yµ − 12µ2
σ2 − y2
(2σ2) − logh√
2π degσi θ = µ
φ = σ2 bhθi = θ2/2
chy; φi = −y2/(2φ) − (1/2) logh2π degφi
2.2.
DAS GRUNDLEGENDE MODELL
38g Binomial-Verteilung: Zielgr¨osse Yk = Yek/mk.
log hPhY = yii
= log
m my
+ (my) loghπi + mlogh1 − πi − (my) logh1 − πi
=
y log
π
1 − π
+ logh1 − πi
m + log
m my
θ = loghπ/(1 − π)i ω = m
chy; φi = log
m my
bhθi = logh1 + eθi b0hθi = π b00hθi = π(1 − π) 0-1-Variable: m = 1.
2.2.
DAS GRUNDLEGENDE MODELL
39i Link-Funktion.
Inverse Link-Funktion h soll unm¨ogliche Werte vermeiden:
ghµi = µ, wenn EhY i beliebig
ghµi = loghµi, wenn EhY i > 0, ghµi = logithµi = logh µ
(1−µ)i,wenn 0 ≤ EhY i ≤ 1
j ”Kanonische Link-Funktion”: η = ghµi = θ = (b)−1hµi W¨ahle g = (b)−1! Normalverteilung ghµi = µ
Poissonverteilung ghµi = loghµi Binomialverteilung ghµi = logithµi
Vorteile: Existenz und Eindeutigkeit, einfachere Sch¨atzgleichungen
2.3.
SCH ¨ A TZUNGEN UND TESTS
402.3 Sch¨ atzungen und Tests
b Likelihood.
``hβi = X
i yiθhxTi βi − bhθhxTi βii ω
i
φ + chyi; φ; ωii
= X
i
yi · loghλii − λi − log(yi!)
= X
i
yi loghe(xTi β)i − e(xTi β) − log(yi!)
c Maximum-Likelihood-Sch¨atzung:
shβi = ∂``hβi/∂β = X
i sihβi.
2.3.
SCH ¨ A TZUNGEN UND TESTS
41*
Poisson-Regression jte Komponente der Scorefunktion:s(j)i hβi = ∂``ihβi
∂βj =
∂``ihθi
∂θi · ∂θi
∂µi · ∂µi
∂ηi · ∂ηi
∂βj
= (yi − eθi) · 1
µi · eηi · x(ji )
= (yi − µi) · 1
µi · µi · x(j)i = (yi − µi) · x(j)i
2.3.
SCH ¨ A TZUNGEN UND TESTS
42d Sch¨atzung: s(j)hβi = 0 −→ βbj
Normalgleichungen f¨ur gewichtete Kleinste Quadrate Gewichte und
”Residuen” h¨angen von β ab ! Algorithmus:
”iteratively reweighted least squares”
−→ Es kann vorkommen, dass das Programm keine geeigneten Startwerte findet!
e Dispersionsparameter: Sch¨atzung nach Max.Lik., mit Korrekturfaktor wegen Freiheitsgraden.
f Verteilung der gesch¨atzten Parameter: Asymptotik
⇒ Normalverteilung (z-Test).
βb ≈∼ N hβ, mxV /ni V = ...
2.3.
SCH ¨ A TZUNGEN UND TESTS
43g summary(glm(...))
Call: glm(formula = Y ~ TYPE + factor(C) + OPER + log(MONTHS), family = poisson, data = d.ship)
Deviance Residuals: ...
Coefficients:
Value Std. Error z_appr. Pr(>|z|) Signif (Intercept) -6.6109 1.2744 -5.19 0.000 ***
TYPE -0.6569 0.3262 -2.01 0.044 * factor(C)1 -0.5556 0.1470 -3.78 0.000 ***
factor(C)2 0.1242 0.1038 1.20 0.231
factor(C)3 0.2965 0.1129 2.63 0.009 **
OPER 0.4585 0.1359 3.37 0.001 ***
log(MONTHS) 1.0825 0.1550 6.99 0.000 ***
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 (Dispersion Parameter for Poisson family taken to be 1 )
Null Deviance: 267.3 on 13 degrees of freedom Residual Deviance: 3.434 on 7 degrees of freedom Number of Fisher Scoring Iterations: 3
2.3.
SCH ¨ A TZUNGEN UND TESTS
44h Residuen-Devianz
Vergleich des gefitteten Models mit
”Maximal m¨oglichem” Modell, d.h. f¨ur jede Beobachtung ein Parameter:
Dhy; µib = 2(``
(M) − ``hβib )
= X
i 2ωi
yi(θei − θhxTi βib ) − bhθeii + bhθhxTi βiib θei = Parameterwert, der am besten zu yi passt.
i Poisson-Regression: θei = log(yi) Dhy; µbi =
X
i 2
yi(loghyii − loghµbii) − e
loghyii + eloghµbii
= X
i 2
yiloghyii
loghµbii
− yi + µbi
2.3.
SCH ¨ A TZUNGEN UND TESTS
45j Vergleich von Modellen. Likelihood-Ratio-Test Dhye ; µb
(K)
,µb
(G)i = Dhy; µb
(K)
) − Dhy; µb
(G)) = 2(``(G) − ``(K)) Gesamt-Test: null deviance – residual deviance.
Dhye ; µb
(0),µib = Dhy; µb
(0)) − Dhy; µb) = 2(``
(G) − ``(0))
2.3.
SCH ¨ A TZUNGEN UND TESTS
461. Likelihood-Quotienten-Test: Devianz-Differenz H0: Modell K mit p Parametern
H1: Modell G mit r > p Parametern Teststatistik 2 · log LG
LK = 2(``(G) − ``(K)) Verteilung unter H0: χ2r−p
2. Vergleich mit maximalem Modell: Residuen-Devianz Dhyb; µib H0: Angepasstes Modell mit p Parametern
H1: Maximales Modell m mit nk Parametern Teststatistik Dhyb; µib = 2(``
(M) − ``hµib )
Verteilung unter H0: χ2n−p (Gruppierten Daten!)
2.3.
SCH ¨ A TZUNGEN UND TESTS
473. Gesamt-Test: Vergleich von Null Devianz und Residuendevianz H0: Null Modell mit einem Parameter
H1: Angepasstes Modell mit p Parametern Teststatistik Dhyb; µb
0i − Dhyb; µib = 2(``hµi −b ``hµb
0i) Verteilung unter H0: χ2p−1
2.3.
SCH ¨ A TZUNGEN UND TESTS
48> r.ship1 <- glm(Y~TYPE + factor(CONS) + OPER + log(MONTHS), data=d.ship,family=poisson)
> summary(r.ship1,corr=F)
Call: glm(formula = Y ~ TYPE + factor(CONS) + OPER + log(MONTHS), family = poisson, data = d.ship)
Coefficients:
Value Std. Error z_appr. Pr(>|z|) Signif (Intercept) -6.6109 1.2744 -5.19 0.000 ***
TYPE -0.6569 0.3262 -2.01 0.044 * factor(CONS)1 -0.5556 0.1470 -3.78 0.000 ***
factor(CONS)2 0.1242 0.1038 1.20 0.231
factor(CONS)3 0.2965 0.1129 2.63 0.009 **
OPER 0.4585 0.1359 3.37 0.001 ***
log(MONTHS) 1.0825 0.1550 6.99 0.000 ***
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 (Dispersion Parameter for Poisson family taken to be 1 )
Null Deviance: 267.3 on 13 degrees of freedom Residual Deviance: 3.434 on 7 degrees of freedom Number of Fisher Scoring Iterations: 3
> 1-pchisq(3.434,7) 0.8421659
2.4.
UBERGROSSE STREUUNG ¨
492.4 Ubergrosse Streuung ¨
a Ablehnung des Modells (residual deviance): ⇒ over-dispersion.
b Neues Modell: φ > 1
Keine entsprechende Verteilung −→
”Quasi-Modelle”,
”Quasi-Likelihood”.
c V hµi = φµ(1 − µ) resp. V hµi = φµ
f¨ur ¨uberm¨assig streuende Binomial- respektive Poisson-Zielgr¨ossen.
−→ Dispersionsparameter sch¨atzen statt fixieren.
φb = n−p1 P ωi(yi−µbi)2 V hµii
2.4.
UBERGROSSE STREUUNG ¨
50d Parametersch¨atzer βb bleiben gleich Konfidenzintervalle um den Faktor
q
φb breiter
e Was, wenn φ <b 1? – φ < 1 ist unplausibel!
2.5.
RESIDUEN-ANALYSE
512.5 Residuen-Analyse
• Rohe Residuen oder response residuals: Ri = Yi − µbi
• Pearson-Residuen: R(Pi ) = Ri/p
V hµbii
• Arbeits-Residuen (working residuals): R(Wi ) = Ri · g0hµi.b
• Devianz-Residuen: R(D)i = signhyi − µbii
√di Poisson-Regression: Dhy; µbi =
P
i 2
yilogloghyii
hµbii − yi + µbi
=: P
i d2i
2.5.
RESIDUEN-ANALYSE
52a Residuen-Analyse:
• Linearit¨at: Arbeitsresicuen R(Wi ) oder adjustierte Beobachtungen yei = x
Ti βb + ri(W) vs ηbi.
• Residuenvarianz: φ
• Hutmatrix: Wf1/2Xe(XeWfXe)−1XeTWf1/2 (?)
• Residuenplot mit glatten Kurven:
– Tukey-Anscombe-Plot
– Beobachtungen vs fitted values – Partielle Residuen-Plots
3.1.
MODELLE
533 Geordnete diskrete Zielgr¨ ossen
3.1 Modelle
a Anwendungen:
• Beurteilung von sehr schlecht bis sehr gut,
• gruppierte H¨aufigkeiten,
• quantitative, klassierte Gr¨osse, etc.
3.1.
MODELLE
54b Beispiel: Lokale Anaesthesie des Armes.
Welche erkl¨arenden Variablen beeinflussen den Erfolg?
Y suc.deg Erfolg in 4 Klassen:
1: schmerzvoll, ... 4: Kein Schmerz X medic Medikamentdosis
napplic Anzahl Einstiche (Intervall-Skala) anest2: An¨astesist/in (Faktor),
moon: Mondphase (Faktor) ...
anest2 suc.deg
1 A0 1
3 A2 3
4 A2 3
8 A0 1
9 A2 4
. . . . . . . . .
suc.deg
1 2 3 4
A0 28 18 23 25
A2 4 10 13 36
A1 6 1 6 8
3.1.
MODELLE
55c Latente Variable, Z kontinuierlich
Yi = 0 ⇐⇒ Zi ≤ α1
Yi = k ⇐⇒ αk < Zi ≤ αk+1 Yi = k∗ ⇐⇒ αk∗ < Zi
k∗ Schwellenwerte: α1 < α2 < . . . < αk∗.
PhYi ≤ ki = PhZi ≤ αki , k = 1, . . . , k∗
1. Annahme: Latente Variable hat z.B. logistische (Fehler-) Verteilung 2. Annahme: Multiple lineare Regression f¨ur latente Variable
3.1.
MODELLE
562 4 6 8 10
246810
x
latente V.
3.1.
MODELLE
57d Modell
Zi = β0 + X
j x(j)i βj + Ei
γk := PhYi ≥ ki = PhZi ≥ αki = PhEi ≥ αk − (β0 + xTβi)
= 1 − FE D
αk − (β0 + xTβ) E
= F−E D
xTβ −(αk − β0) E ghγki = xTβ −(αk − β0)
f Schwellenwerte nicht gleich-abst¨andig. Sch¨atzen!
g Kumulatives Modell: PhYi ≥ ki = PhYi = k∗i + . . . + PhYi = ki
3.1.
MODELLE
58h Gruppierung: Ye`,k = Anzahl{i|Yi=k & xi=x`}
m`=Anzahl{i|xi=x`} Multinomialverteilung Mk∗hm, πi:
• Multinomialverteilung = mehrparametrige Exponentialfamilie genauer: betrachte Ye`/m`
• Erwartungsvektor: π1, . . . , πk∗
• Wahrscheinlichkeiten PhY ` = y`i
= m`!
(m`y`(1))!...(m`y`(L))!
(π`(1))m`y
(1)
` (π`(2))m`y
(2)
` · ... · (π`(k∗))m`y
(k∗)
`
πk = PhYi = ki aus dem Modell der latenten Variablen.
−→ Multivariates generalisiertes lineares Modell
3.1.
MODELLE
59i Wettverh¨altnisse (odds)
oddshY ≥ k | xi = PhY ≥ k | xi
PhY < k | xi = exphαki(exphβ1i)x(1) · · ·(exphβmi)x(m) . Odds Ratio
oddshY ≥ k | x1i
oddshY ≥ k | x2i = exph−(x1 − x2)Tβi sind f¨ur alle Schwellenwerte αk gleich!
⇒ proportional odds model.
3.1.
MODELLE
60j
*
”komplement¨are Log-Log-Funktion”
ghγi = log h − logh1 − γii , 0 < γ < 1 Zuverl¨assigkeits- und ¨Uberlebenszeit-Studien: Weibull-Verteilung.
Logarithmierte Ausfall- oder ¨Uberlebenszeiten: Gumbel-Verteilung.
Proportional hazards, Cox-Regression.
F¨ur zensierte Daten brauchbar!