• Keine Ergebnisse gefunden

Parametersch¨atzer im einfachen linearen Regressionsmodell

N/A
N/A
Protected

Academic year: 2022

Aktie "Parametersch¨atzer im einfachen linearen Regressionsmodell"

Copied!
9
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

10 Lineare Regression Statistisches Modell 10.2

Bisher: rein deskriptive Betrachtung linearer Zusammenh¨ange Bereits erl¨autert/bekannt: Korrelation6= Kausalit¨at:

Aus einem beobachteten (linearen) Zusammenhang zwischen zwei Merkmalen l¨asst sich nichtschließen, dass der Wert eines Merkmals den des anderen beeinflusst.

Bereits durch die Symmetrieeigenschaft rX,Y =rY,X bei der Berechnung von Pearsonschen Korrelationskoeffizienten wird klar, dass diese Kennzahl alleine auch keine Wirkungsrichtung erkennen lassen kann.

Nun: statistische Modelle f¨ur lineare Zusammenh¨ange

Keinesymmetrische Behandlung vonX undY mehr, sondern:

I Interpretation vonX (

”Regressor“) alserkl¨arendedeterministischeVariable.

I Interpretation vonY (

”Regressand“) alsabh¨angige, zu erkl¨arende (Zufalls-)Variable.

Es wird angenommen, dassY in linearer Form vonX abh¨angt, diese Abh¨angigkeit jedoch nicht”perfekt“ ist, sondern durch zuf¨allige Einfl¨usse

”gest¨ort“ wird.

Anwendung in Experimenten: Festlegung von X durch Versuchsplaner, Untersuchung des Effekts aufY

Damit auch Kausalit¨atsanalysen m¨oglich!

Schließende Statistik (WS 2020/21) Folie 232

10 Lineare Regression Statistisches Modell 10.2

Das einfache lineare Regressionsmodell

Es wird genauer angenommen, dass f¨uri ∈ {1, . . . ,n}die Beziehung yi12·xi+ui

gilt, wobei

I u1, . . . ,un (Realisationen von) Zufallsvariablen mit E(ui) = 0, Var(ui) =σ2 (unbekannt) und Cov(ui,uj) = 0 f¨uri 6=j sind, die zuf¨allige St¨orungen der linearen Beziehung (”St¨orgr¨oßen“) beschreiben,

I x1, . . . ,xndeterministisch sind mitsX2 = 1nPn

i=1(xi−x)2>0 (d.h. nicht allexi sind gleich),

I β12feste,unbekanntereelle Parameter sind.

Man nimmt an, dass man nebenx1, . . . ,xn auchy1, . . . ,yn beobachtet, die wegen der Abh¨angigkeit von den Zufallsvariablenu1, . . . ,un ebenfalls

(Realisationen von) Zufallsvariablen sind. Dies bedeutetnicht, dass man auch (Realisationen von)u1, . . . ,un beobachten kann (β1undβ2unbekannt!).

F¨ur die Erwartungswerte vonyi gilt

E(yi) =β12·xi f¨uri ∈ {1, . . . ,n}. Das durch obige Annahmen beschriebene Modell heißt auch

einfaches lineares Regressionsmodell.

Schließende Statistik (WS 2020/21) Folie 233

10 Lineare Regression Parametersch¨atzung 10.3

Im einfachen linearen Regressionsmodell sind also (neben σ2) insbesondereβ1 und β2Parameter, deren Sch¨atzung f¨ur die Quantifizierung des linearen Zusammenhangs zwischen xi undyi n¨otig ist.

Die Sch¨atzung dieser beiden Parameter f¨uhrt wieder zum Problem der Suche nach Absolutglied und Steigung einer geeigneten Geradengleichung

y=fβ12(x) =β12·x .

Satz 10.1 (Satz von Gauß-Markov)

Unter den getroffenen Annahmen liefert die aus dem deskriptiven Ansatz bekannte Verwendung derKQ-Methode, also die Minimierung der Summe der quadrierten vertikalen Abst¨ande zur durchβ1undβ2 bestimmten Geraden, in Zeichen

Xn i=1

(yi−(βb1+βb2·xi))2 != min

β12∈R

Xn i=1

(yi−(β12·xi))2,

diebeste (varianzminimale)lineare(in yi)erwartungstreue Sch¨atzfunktionβb1

f¨urβ1 bzw.βb2f¨urβ2.

Dies rechtfertigt letztendlich die Verwendung des Optimalit¨atskriteriums

”Minimierung der quadrierten vertikalen Abst¨ande“.

Schließende Statistik (WS 2020/21) Folie 234

10 Lineare Regression Parametersch¨atzung 10.3

Man erh¨alt also — ganz analog zum deskriptiven Ansatz — die folgenden Parametersch¨atzer:

Parametersch¨atzer im einfachen linearen Regressionsmodell

βb2= n Pn i=1xiyi

− Pn i=1xi

· Pn i=1yi n Pn

i=1xi2

− Pn

i=1xi2 = xy−x·y

x2−x2 =sX,Y

sX2 =rX,Y ·sY sX , βb1= 1n Pn

i=1yi

1n Pn i=1xi

·βb2=y−xβb2.

Wegen der Abh¨angigkeit vonyi handelt es sich beiβb1 undβb2 (wie in der schließenden Statistik gewohnt) um (Realisationen von)Zufallsvariablen.

Die resultierenden vertikalen Abweichungenbui:=yi−(bβ1+βb2·xi) =yi−byi deryi von den auf der Regressionsgeraden liegenden Wertenbyi:=βb1+βb2·xi nennt manResiduen.

Wie im deskriptiven Ansatz gelten die Beziehungen Pn

i=1bui = 0, Pn

i=1yi =Pn

i=1byi, Pn

i=1xibui = 0, Pn

i=1byibui= 0 sowie die Varianzzerlegung

1 n

Pn

i=1(yi−y)2=1nPn

i=1(byi−by)2+1nPn i=1bu2i .

Schließende Statistik (WS 2020/21) Folie 235

(2)

10 Lineare Regression Parametersch¨atzung 10.3

Das (multiple) Bestimmtheitsmaß R

2

Auch im linearen Regressionsmodell wird die St¨arke des linearen

Zusammenhangs mit dem Anteil der erkl¨arten Varianz an der Gesamtvarianz gemessen und mit

R2= Pn

i=1(ybi−by)2 Pn

i=1(yi−y)2 = 1− Pn

i=1bui2 Pn

i=1(yi−y)2

bezeichnet.R2wird auch(multiples) Bestimmtheitsmaßgenannt.

Es gilt 0≤R2≤1 sowie der (bekannte) ZusammenhangR2=rX2,Y =ss2X2,Y X·s2Y. Gr¨oßere Werte vonR2(in der N¨ahe von 1) sprechen f¨ur eine hohe

Modellg¨ute, niedrige Werte (in der N¨ahe von 0) f¨ur eine geringe Modellg¨ute.

Vorsicht!

sX2,sY2 sowiesX,Y bezeichnen in diesem Kapitel dieempirischenGr¨oßen sX2 = 1nPn

i=1(xi−x)2=x2−x2, sY2 =1nPn

i=1(yi−y)2=y2−y2 und sX,Y =1nPn

i=1(xi−x)·(yi−y) =xy−x·y .

Schließende Statistik (WS 2020/21) Folie 236

10 Lineare Regression Parametersch¨atzung 10.3

Beispiel: Ausgaben in Abh¨angigkeit vom Einkommen (I)

Es wird angenommen, dass die Ausgaben eines Haushalts f¨ur Nahrungs- und Genussmittelyi linear vom jeweiligen Haushaltseinkommenxi (jeweils in 100 e) in der Form

yi12·xi+ui, uiiid∼N(0, σ2), i∈ {1, . . . ,n} abh¨angen. F¨urn= 7 Haushalte beobachte man nun neben dem Einkommen xi auch die (Realisation der) Ausgaben f¨ur Nahrungs- und Genussmittelyi

wie folgt:

Haushalti 1 2 3 4 5 6 7

Einkommenxi 35 49 21 39 15 28 25

NuG-Ausgabenyi 9 15 7 11 5 8 9

Mit Hilfe dieser Stichprobeninformation sollen nun die Parameterβ1undβ2 der linearen Modellbeziehung gesch¨atzt sowie die Wertebyi, die Residuenbui und das BestimmtheitsmaßR2bestimmt werden.

Schließende Statistik (WS 2020/21) Folie 237

10 Lineare Regression Parametersch¨atzung 10.3

Berechnete (deskriptive/empirische) Gr¨oßen:

x= 30.28571 y = 9.14286 x2= 1031.71429 y2= 92.28571 sX2 = 114.4901 sY2 = 8.6938 sX,Y = 30.2449 rX,Y = 0.9587 Damit erh¨alt man die Parametersch¨atzerβb1 undβb2 als

βb2= sX,Y

sX2 = 30.2449

114.4901 = 0.26417

βb1=y−βb2·x = 9.14286−0.26417·30.28571 = 1.14228. Als Bestimmtheitsmaß erh¨alt man R2=rX2,Y = 0.95872= 0.9191.

F¨ur byi undbui erh¨alt man durch Einsetzen (byi=βb1+βb2·xi,bui=yi−byi):

i 1 2 3 4 5 6 7

xi 35 49 21 39 15 28 25

yi 9 15 7 11 5 8 9

b

yi 10.39 14.09 6.69 11.44 5.1 8.54 7.75 b

ui −1.39 0.91 0.31 −0.44 −0.1 −0.54 1.25

Schließende Statistik (WS 2020/21) Folie 238

10 Lineare Regression Parametersch¨atzung 10.3

Grafik: Ausgaben in Abh¨angigkeit vom Einkommen

βb1= 1.14228,βb2= 0.26417,R2= 0.9191

0 10 20 30 40 50

051015

xi

yi

u^

i

y=y^ x

yi

y^

i

Schließende Statistik (WS 2020/21) Folie 239

(3)

10 Lineare Regression Parametersch¨atzung 10.3

Eigenschaften der Sch¨atzfunktionen β b

1

und β b

2 βb1undβb2sindlinear inyi, man kann genauer zeigen:

βb1= Xn

i=1

x2−x·xi

nsX2 ·yi und βb2= Xn i=1

xi−x nsX2 ·yi

βb1undβb2sinderwartungstreu f¨urβ1 undβ2, denn wegen E(ui) = 0 gilt

I E(yi) =β12·xi+ E(ui) =β12·xi,

I E(y) = E n1Pn i=1yi

=1nPn

i=1E(yi) = 1nPn

i=112·xi) =β12·x,

I E(xy) = E 1nPn i=1xiyi

=1nPn

i=1xi12·xi) =β1·x+β2·x2 und damit

E(bβ2) = E sX,Y

sX2

= E (xy−x·y)

sX2 = E(xy)−x·E(y) sX2

= β1·x+β2·x2−x·(β12·x)

sX22·(x2−x2) sX22 sowie

E(bβ1) = E(y−xβb2) = E(y)−xE(bβ2) =β12·x−x·β21. (Diese Eigenschaften folgen bereits mit dem Satz von Gauß-Markov.)

Schließende Statistik (WS 2020/21) Folie 240

10 Lineare Regression Parametersch¨atzung 10.3

F¨ur die Varianzen der Sch¨atzfunktionen erh¨alt man:

Var(βb2) = σ2 Pn

i=1(xi−x)2 = σ2

n·(x2−x2) = σ2 n·sX2 Var(βb1) =σ2

n · Pn

i=1xi2 Pn

i=1(xi−x)2 = σ2·x2

n·(x2−x2)= σ2·x2 n·sX2 Diese h¨angen von der unbekannten Varianzσ2derui ab.

Eine erwartungstreue Sch¨atzfunktion f¨urσ2ist gegeben durch σc2:=Var(u\i) = 1

n−2 Xn

i=1

b u2i

= n

n−2 ·sY2 ·(1−R2) = n

n−2 ·(sY2 −βb2·sX,Y) Die positive Wurzelσb= +p

2dieser Sch¨atzfunktion heißt auch StandardError of theRegression (SER) oderresidual standard error.

Schließende Statistik (WS 2020/21) Folie 241

10 Lineare Regression Parametersch¨atzung 10.3

Einsetzen des Sch¨atzersσc2 f¨urσ2liefert die gesch¨atzten Varianzen der Parametersch¨atzer

2βb

2:=Var(\βb2) = cσ2

n·(x2−x2) = cσ2

n·sX2 = sY2 −βb2·sX,Y (n−2)·sX2 und

2βb

1:=Var(\βb1) = cσ2·x2

n·(x2−x2) =cσ2·x2

n·sX2 = (sY2 −βb2·sX,Y)·x2 (n−2)·sX2 . Die positiven Wurzelnσbβb

1=q

2βb

1 undbσβb

2 =q

σc2βb

2 dieser gesch¨atzten Varianzen werden wie ¨ublich als (gesch¨atzte)Standardfehlervonβb1undβb2 bezeichnet.

Trifft man eine weitergehende Verteilungannahme f¨ur ui und damit f¨uryi, so lassen sich auch die Verteilungen vonβb1undβb2weiter untersuchen und zur Konstruktion von Tests, Konfidenzintervallen undPrognoseintervallen verwenden.

Schließende Statistik (WS 2020/21) Folie 242

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Konfidenzintervalle und Tests

unter Normalverteilungsannahme f¨urui

H¨aufig nimmt man f¨ur die St¨orgr¨oßen an, dass speziell ui iid∼N(0, σ2)

gilt, d.h. dass alleui (f¨uri∈ {1, . . . ,n}) unabh¨angig identisch normalverteilt sind mit Erwartungswert 0 und (unbekannter) Varianzσ2.

In diesem Fall sind offensichtlich auchy1, . . . ,yn stochastisch unabh¨angig und jeweils normalverteilt mit Erwartungswert E(yi) =β12·xi und Varianz Var(yi) =σ2.

Daβb1und βb2linear inyi sind, folgt insgesamt mit den bereits berechneten Momenten vonβb1undβb2:

βb1∼N β12·x2 n·sX2

!

und βb2∼N

β2, σ2 n·sX2

Schließende Statistik (WS 2020/21) Folie 243

(4)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Konfidenzintervalle

unter Normalverteilungsannahme f¨urui

Daσ2 unbekannt ist, ist f¨ur Anwendungen wesentlich relevanter, dass im Falle unabh¨angig identisch normalverteilter St¨orgr¨oßen ui mit den Sch¨atzfunktionen cσ2βb

1 f¨ur Var(βb1) undcσ2βb

2 f¨ur Var(βb2) gilt:

βb1−β1 b σβb

1

∼t(n−2) und βb2−β2 b σβb

2

∼t(n−2) Hieraus erh¨alt man unmittelbar die

”Formeln“

hβb1−tn−2;1−α2 ·bσβb

1,βb1+tn−2;1−α2 ·σbβb

1

i

f¨ur (symmetrische) Konfidenzintervalle zur Vertrauenswahrscheinlichkeit 1−αf¨urβ1bzw.

hβb2−tn−2;1−α

2 ·bσβb

2,βb2+tn−2;1−α

2 ·σbβb

2

i

f¨ur (symmetrische) Konfidenzintervalle zur Vertrauenswahrscheinlichkeit 1−αf¨urβ2.

Schließende Statistik (WS 2020/21) Folie 244

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Beispiel: Ausgaben in Abh¨angigkeit vom Einkommen (II)

Im bereits erl¨auterten Beispiel erh¨alt man als Sch¨atzwert f¨urσ2: cσ2= n·(sY2 −βb2·sX,Y)

n−2 =7·(8.6938−0.26417·30.2449)

7−2 = 0.9856

Die (gesch¨atzten) Standardfehler f¨urβb1undβb2sind damit b

σβb

1 =

scσ2·x2 n·sX2 =

r0.9856·1031.71429

7·114.4901 = 1.1264, b

σβb

2 =

s σc2 n·sX2 =

r 0.9856

7·114.4901 = 0.0351.

F¨urα= 0.05 erh¨alt man mittn−2;1−α2 =t5;0.975= 2.571 f¨urβ1also [1.14228−2.571·1.1264,1.14228 + 2.571·1.1264] = [−1.7537,4.0383]

als Konfidenzintervall zur Vertrauenswahrscheinlichkeit 1−α= 0.95 bzw.

[0.26417−2.571·0.0351,0.26417 + 2.571·0.0351] = [0.1739,0.3544]

als Konfidenzintervall zur Vertrauenswahrscheinlichkeit 1−α= 0.95 f¨ur β2.

Schließende Statistik (WS 2020/21) Folie 245

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Hypothesentests

unter Normalverteilungsannahme f¨urui

Genauso lassen sich unter der Normalverteilungsannahme (exakte) t-Tests f¨ur die Parameterβ1undβ2 konstruieren.

Trotz unterschiedlicher Problemstellung weisen die Tests ¨Ahnlichkeiten zum t-Test f¨ur den Mittelwert einer normalverteilten Zufallsvariablen bei unbekannter Varianz auf.

Untersucht werden k¨onnen die Hypothesenpaare

H0110 H01≤β10 H01≥β01

gegen gegen gegen

H116=β10 H11> β10 H11< β01 bzw.

H0220 H02≤β20 H02≥β02

gegen gegen gegen

H126=β20 H12> β20 H12< β02 Besonders anwendungsrelevant sind Tests auf die

”Signifikanz“ der Parameter (insbesondereβ2), die den zweiseitigen Tests mitβ10= 0 bzw.β20= 0 entsprechen.

Schließende Statistik (WS 2020/21) Folie 246

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Zusammenfassung: t-Test f¨ur den Parameter β

1

im einfachen linearen Regressionsmodell mit Normalverteilungsannahme

Anwendungs- exakt:yi12·xi+ui mitui iid

∼N(0, σ2) f¨uri∈ {1, . . . ,n}, voraussetzungen σ2unbekannt,x1, . . . ,xndeterministisch und bekannt,

Realisationy1, . . . ,ynbeobachtet

Nullhypothese H0110 H01≤β10 H01≥β01

Gegenhypothese H116=β10 H11> β10 H11< β01

Teststatistik t=βb1−β10

b σβb

1

Verteilung (H0) t f¨urβ110t(n−2)-verteilt Ben¨otigte Gr¨oßen βb2=sX,Y

sX2 ,βb1=y−βb2·x,σbβb

1=

s

(sY2−βb2·sX,Y)·x2 (n−2)·sX2

Kritischer Bereich (−∞,−tn2;1α2) (tn2;1α,∞) (−∞,−tn2;1α) zum Niveauα ∪(tn2;1α2,∞)

p-Wert 2·(1−Ft(n−2)(|t|)) 1−Ft(n−2)(t) Ft(n−2)(t)

Schließende Statistik (WS 2020/21) Folie 247

(5)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Zusammenfassung: t-Test f¨ur den Parameter β

2

im einfachen linearen Regressionsmodell mit Normalverteilungsannahme

Anwendungs- exakt:yi12·xi+ui mitui iid

∼N(0, σ2) f¨uri∈ {1, . . . ,n}, voraussetzungen σ2unbekannt,x1, . . . ,xn deterministisch und bekannt,

Realisationy1, . . . ,yn beobachtet

Nullhypothese H0202 H02≤β02 H02≥β20

Gegenhypothese H126=β02 H12> β02 H12< β20

Teststatistik t=βb2−β20

b σβb

2

Verteilung (H0) t f¨urβ220t(n−2)-verteilt Ben¨otigte Gr¨oßen βb2= sX,Y

sX2 ,bσβb

2=

s

sY2−βb2·sX,Y

(n−2)·sX2

Kritischer Bereich (−∞,−tn2;1α2) (tn2;1α,∞) (−∞,−tn2;1α) zum Niveauα ∪(tn2;1α2,∞)

p-Wert 2·(1−Ft(n−2)(|t|)) 1−Ft(n−2)(t) Ft(n−2)(t)

Schließende Statistik (WS 2020/21) Folie 248

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Beispiel: Ausgaben in Abh¨angigkeit vom Einkommen (III)

Im bereits erl¨auterten Beispiel soll zum Signifikanzniveauα= 0.05 getestet werden, obβ1signifikant von Null verschieden ist. Geeigneter Test:

t-Test f¨ur den Regressionsparameterβ1

1 Hypothesen:

H01= 0 gegen H116= 0

2 Teststatistik:

t= βb1−0 b σβb

1

ist unterH0(f¨urβ1= 0)t(n−2)-verteilt.

3 Kritischer Bereich zum Niveauα= 0.05:

K= (−∞,−tn−2;1−α

2)∪(tn−2;1−α

2,+∞) = (−∞,−t5;0.975)∪(t5;0.975,+∞)

= (−∞,−2.571)∪(2.571,+∞)

4 Berechnung der realisierten Teststatistik:

t= βb1−0 b σβb

1

=1.14228−0

1.1264 = 1.014

5 Entscheidung:

t= 1.014∈/(−∞,−2.571)∪(2.571,+∞) =K ⇒ H0 wird nicht abgelehnt!

(p-Wert: 2−2·Ft(5)(|t|) = 2−2·Ft(5)(|1.014|) = 2−2·0.8215 = 0.357) Der Test kann f¨urβ1keine signifikante Abweichung von Null feststellen.

Schließende Statistik (WS 2020/21) Folie 249

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Beispiel: Ausgaben in Abh¨angigkeit vom Einkommen (IV)

Nun soll zum Signifikanzniveauα= 0.01 getestet werden, ob β2positiv ist.

Geeigneter Test:

t-Test f¨ur den Regressionsparameter β2

1 Hypothesen:

H02≤0 gegen H12>0

2 Teststatistik:

t= βb2−0 b σβb

2

ist unterH0(f¨urβ2= 0)t(n−2)-verteilt.

3 Kritischer Bereich zum Niveauα= 0.01:

K= (tn2;1α,+∞) = (t5;0.99,+∞) = (3.365,+∞)

4 Berechnung der realisierten Teststatistik:

t= βb2−0 b σβb

2

= 0.26417−0

0.0351 = 7.5262

5 Entscheidung:

t= 7.5262∈(3.365,+∞) =K ⇒ H0 wird abgelehnt!

(p-Wert: 1−Ft(5)(t) = 1−Ft(5)(7.5262) = 1−0.9997 = 0.0003) Der Test stellt fest, dass β2signifikant positiv ist.

Schließende Statistik (WS 2020/21) Folie 250

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Punkt- und Intervallprognosen

im einfachen linearen Regressionsmodell mit Normalverteilungsannahme

Neben Konfidenzintervallen und Tests f¨ur die Parameterβ1undβ2 in linearen Regressionsmodellen vor allemPrognosen wichtige Anwendung.

Zur Erstellung von Prognosen: Erweiterung der Modellannahme yi12·xi+ui, uiiid

∼N(0, σ2), i ∈ {1, . . . ,n}

auf (zumindest) einen weiteren, hier mit (x0,y0) bezeichneten Datenpunkt, bei dem jedochy0nichtbeobachtet wird, sondern lediglich der Wert des Regressorsx0 bekannt ist.

Ziel:

”Sch¨atzung“ (Prognose) vony012·x0+u0bzw.

E(y0) =β12·x0auf Grundlage von x0.

Wegen E(u0) = 0 und der Erwartungstreue vonβb1f¨ur β1bzw.βb2 f¨urβ2 ist b

y0:=βb1+βb2·x0=:E(y[0)

offensichtlich erwartungstreu f¨ury0bzw. E(y0) gegebenx0. b

y0bzw.E(y[0) wird auch(bedingte) Punktprognose f¨ur y0bzw. E(y0) gegebenx0genannt.

Schließende Statistik (WS 2020/21) Folie 251

(6)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognosefehler

Zur Beurteilung der Genauigkeit der Prognosen:

Untersuchung der sogenannten Prognosefehler b

y0−y0 bzw. E(y[0)−E(y0). Qualitativer Unterschied:

I Prognosefehler

E(y[0)−E(y0) =βb1+βb2·x0−(β12·x0) = (βb1−β1) + (bβ2−β2)·x0

resultiertnuraus Fehler bei der Sch¨atzung vonβ1bzw.β2durchβb1bzw.βb2.

I Prognosefehler b

y0−y0=βb1+βb2·x0−(β12·x0+u0) = (βb1−β1) + (βb2−β2)·x0−u0

ist Kombination von Sch¨atzfehlern (f¨urβ1undβ2) sowie zuf¨alliger Schwankung vonu0∼N(0, σ2).

Zun¨achst: Untersuchung von eE :=E(y[0)−E(y0)

Schließende Statistik (WS 2020/21) Folie 252

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Wegen der Erwartungstreue stimmen mittlerer quadratischer (Prognose-) Fehler und Varianz voneE=E(y[0)−E(y0) ¨uberein und man erh¨alt Var(E(y[0)−E(y0)) = Var(E(y[0)) = Var(βb1+βb2·x0)

= Var(βb1) +x02Var(βb2) + 2·x0·Cov(βb1,βb2).

Es kann gezeigt werden, dass f¨ur die Kovarianz vonβb1undβb2gilt:

Cov(bβ1,βb2) =−σ2· x Pn

i=1(xi−x)2 =−σ2· x n·sX2 Insgesamt berechnet man so die Varianz des Prognosefehlers

σe2E := Var(eE) = σ2·x2

n·sX2 +x02· σ2

n·sX2 −2·x0· σ2·x n·sX2

2· x2+x02−2·x0·x n·sX2

2· (x2−x2) + (x2+x02−2·x0·x) n·sX2

2· sX2+ (x0−x)2 n·sX22·

1

n+(x0−x)2 n·sX2

.

Schließende Statistik (WS 2020/21) Folie 253

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Die Linearit¨at von βb1 undβb2(inyi) ¨ubertr¨agt sich (nat¨urlich) auch auf E(y[0), damit gilt offensichtlich

eE =E(y[0)−E(y0)∼N 0, σe2E

bzw. E(y[0)−E(y0)

σeE ∼N(0,1). Daσ2 unbekannt ist, erh¨alt man durch Ersetzen vonσ2 durch die

erwartungstreue Sch¨atzfunktionσc2 die gesch¨atzte Varianz cσ2eE :=dVar(eE) =cσ2· sX2+ (x0−x)2

n·sX2 =cσ2· 1

n+(x0−x)2 n·sX2

von E(y[0) und damit die praktisch wesentlich relevantere Verteilungsaussage eE

b σeE

= E(y[0)−E(y0) b σeE

∼t(n−2),

aus der sich in bekannter Weise (symmetrische) Konfidenzintervalle (und Tests) konstruieren lassen.

Schließende Statistik (WS 2020/21) Folie 254

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognoseintervalle f¨ur E(y

0

) gegeben x

0

Intervallprognosen zur Vertrauenswahrscheinlichkeit 1−αerh¨alt man also als Konfidenzintervalle zum Konfidenzniveau 1−αf¨ur E(y0) in der Form

hE(y[0)−tn−2;1−α2 ·σbeE,E(y[0) +tn−2;1−α2 ·σbeE

i

=h

(βb1+βb2·x0)−tn−2;1−α2 ·σbeE,(βb1+βb2·x0) +tn−2;1−α2 ·bσeE

i . Im Beispiel (Ausgaben in Abh¨angigkeit vom Einkommen) erh¨alt man zu gegebenemx0= 38 (in 100e)

σc2eE =cσ2· 1

n+(x0−x)2 n·sX2

= 0.9856· 1

7 +(38−30.28571)2 7·114.4901

= 0.214 die PunktprognoseE(y[0) =βb1+βb2·x0= 1.14228 + 0.26417·38 = 11.1807 (in 100e) sowie die Intervallprognose zur Vertrauenswahrscheinlichkeit 0.95

h11.1807−2.571·√

0.214,11.1807 + 2.571·√ 0.214i

= [9.9914,12.37] (in 100e).

Schließende Statistik (WS 2020/21) Folie 255

(7)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognosefehler e

0

:= y b

0

− y

0

Nun: Untersuchung des Prognosefehlerse0:=yb0−y0 Offensichtlich gilt f¨ure0=yb0−y0 die Zerlegung

b

y0−y0= (βb1+βb2·x0)

| {z }

=E(y[0)

−(β12·x0

| {z }

=E(y0)

+u0)

= E(y[0)−E(y0)

| {z }

Fehler aus Sch¨atzung von β1 undβ2

− u0

|{z}

zuf¨allige Schwankung der St¨orgr¨oße

.

E(y[0) h¨angt nur vonu1, . . . ,un ab (¨ubery1, . . . ,yn bzw.βb1undβb2) und ist wegen der Annahme uiiid

∼N(0, σ2)unabh¨angig vonu0.

Damit sind die beiden Bestandteile des Prognosefehlers insbesondere auch unkorreliert und man erh¨alt:

σe20 := Var(yb0−y0) = Var(E(y[0)−E(y0)) + Var(u0)

2· 1

n+(x0−x)2 n·sX2

22·

1 + 1

n+(x0−x)2 n·sX2

Schließende Statistik (WS 2020/21) Folie 256

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Aus der Unkorreliertheit der beiden Komponenten des Prognosefehlers folgt auch sofort die Normalverteilungseigenschaft des Prognosefehlers

e0=y0−yb0, genauer gilt:

e0=yb0−y0∼N 0, σe20

bzw. yb0−y0 σe0

∼N(0,1) . Wieder mussσ2durchcσ2ersetzt werden, um mit Hilfe der gesch¨atzen Varianz

2e0 :=dVar(yb0−y0) =σc2·

1 +1

n+(x0−x)2 n·sX2

des Prognosefehlers die f¨ur die Praxis relevante Verteilungsaussage e0

b σe0

= yb0−y0 b σe0

∼t(n−2) ,

zu erhalten, aus der sich dann wieder Prognoseintervalle konstruieren lassen.

Schließende Statistik (WS 2020/21) Folie 257

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognoseintervalle f¨ur y

0

gegeben x

0

Intervallprognosen f¨ur y0 zur Vertrauenswahrscheinlichkeit 1−αerh¨alt man also analog zu den Intervallprognosen f¨ur E(y0) in der Form

yb0−tn−2;1−α

2 ·bσe0,yb0+tn−2;1−α

2 ·bσe0

=h

(βb1+βb2·x0)−tn−2;1−α

2 ·bσe0,(bβ1+βb2·x0) +tn−2;1−α

2 ·bσe0i . Im Beispiel (Ausgaben in Abh¨angigkeit vom Einkommen) erh¨alt man zu gegebenem x0= 38 (in 100e)

σc2e0=σc2·

1 +1

n +(x0−x)2 n·sX2

= 0.9856·

1 +1

7+(38−30.28571)2 7·114.4901

= 1.1996 mit der bereits berechneten Punktprognoseyb0=E(y[0) = 11.1807 (in 100e) die zugeh¨orige Intervallprognose f¨ur y0zur Vertrauenswahrscheinlichkeit 0.95

h11.1807−2.571·√

1.1996,11.1807 + 2.571·√ 1.1996i

= [8.3648,13.9966] (in 100e).

Schließende Statistik (WS 2020/21) Folie 258

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognose: Ausgaben in Abh¨angigkeit vom Einkommen

βb1= 1.14228,βb2= 0.26417,x0= 38,yb0= 11.1807, 1α= 0.95

0 10 20 30 40 50

051015

xi

yi

y=y^ x

Schließende Statistik (WS 2020/21) Folie 259

(8)

10 Lineare Regression Lineare Modelle mitR10.6

Lineare Modelle mit Statistik-Software R

Beispiel (Ausgaben in Abh¨angigkeit vom Einkommen)

Modellsch¨atzung mit aussagekr¨aftiger Zusammenfassung in nur einer Zeile:

> summary(lm(y~x)) Call:

lm(formula = y ~ x) Residuals:

1 2 3 4 5 6 7

-1.3882 0.9134 0.3102 -0.4449 -0.1048 -0.5390 1.2535 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 1.14225 1.12645 1.014 0.357100 x 0.26417 0.03507 7.533 0.000653 ***

---

Signif. codes:

0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.9928 on 5 degrees of freedom Multiple R-squared: 0.919, Adjusted R-squared: 0.9028 F-statistic: 56.74 on 1 and 5 DF, p-value: 0.0006529

Schließende Statistik (WS 2020/21) Folie 260

10 Lineare Regression Lineare Modelle mitR10.6

Interpretation des Outputs (I)

Residuen,σc2undR2 Residuals:

1 2 3 4 5 6 7

-1.3882 0.9134 0.3102 -0.4449 -0.1048 -0.5390 1.2535 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 1.14225 1.12645 1.014 0.357100 x 0.26417 0.03507 7.533 0.000653 ***

--

Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 0.9928 on 5 degrees of freedom Multiple R-squared: 0.919, Adjusted R-squared: 0.9028 F-statistic: 56.74 on 1 and 5 DF, p-value: 0.0006529 Auflistung bzw. Zusammenfassung der Residuenbui

Gesch¨atzte Standardabweichungbσ=p

2, hier:σb= 0.9928⇒cσ2= 0.9857 Anzahl Freiheitsgraden−2, hier:n−2 = 5⇒n= 7

(Multiples) BestimmtheitsmaßR2, hier:R2= 0.919

Schließende Statistik (WS 2020/21) Folie 261

10 Lineare Regression Lineare Modelle mitR10.6

Interpretation des Outputs (II)

Ergebnisse zur Sch¨atzung vonβ1undβ2

Residuals:

1 2 3 4 5 6 7

-1.3882 0.9134 0.3102 -0.4449 -0.1048 -0.5390 1.2535 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 1.14225 1.12645 1.014 0.357100 x 0.26417 0.03507 7.533 0.000653 ***

--

Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 0.9928 on 5 degrees of freedom Multiple R-squared: 0.919, Adjusted R-squared: 0.9028 F-statistic: 56.74 on 1 and 5 DF, p-value: 0.0006529 Realisationen vonβb1,βb2, hier:βb1= 1.14225,βb2= 0.26417 Standardfehler vonβb1,βb2, hier:bσβb

1= 1.12645,σbβb

2 = 0.03507

t-Statistiken zu Tests auf Signifikanz, hier: zuβ1:t= 1.014, zuβ2:t= 7.533 p-Werte zu Tests auf Signifikanz, hier: zuβ1:p= 0.3571, zuβ2:p= 0.000653

Schließende Statistik (WS 2020/21) Folie 262

10 Lineare Regression Lineare Modelle mitR10.6

Zusammenhang zwischen p-Werten

zu zweiseitigen und einseitigen Tests bei unterH0(um Null) symmetrisch verteilter Teststatistik

Erinnerung:t(n)- sowieN(0,1)-Verteilung sind symmetrisch um Null, f¨ur die zugeh¨origen VerteilungsfunktionenF gilt alsoF(x) = 1−F(−x) f¨ur alle x∈RundF(0) = 0.5,F(x)<0.5 f¨urx<0 sowieF(x)>0.5 f¨urx>0.

F¨ur diep-Werte pz der zweiseitigen Tests auf den Mittelwert bei bekannter (Gauß-Test) sowie unbekannter (t-Test) Varianz gilt daher bekanntlich

pz = 2·min{F(x),1−F(x)}=

2·F(x) fallsx<0 2·(1−F(x)) fallsx≥0 , wobeix den realisierten Wert der Teststatistik sowieF die

Verteilungsfunktion der Teststatistik unterH0bezeichne.

F¨ur diep-Werte pl =F(x) zum linksseitigen sowiepr = 1−F(x) zum rechtsseitigen Test bei realisierter Teststatistikx gelten demnach die folgenden Zusammenh¨ange:

pl=



 pz

2 fallsx<0 1−pz

2 fallsx≥0 sowie pr =



 1−pz

2 fallsx <0 pz

2 fallsx ≥0 . Somit auchp-Werte zu einseitigen Tests ausR-Output bestimmbar!

Schließende Statistik (WS 2020/21) Folie 263

(9)

10 Lineare Regression Ausblick 10.7

Verallgemeinerungen des einfachen linearen Modells

Zahlreiche Verallgemeinerungen des einfachen linearen Modells m¨oglich.

Statt einem Regressor mehrere Regressoren multiples Regressionsmodell.

Statt unabh¨angiger identisch verteilter St¨orgr¨oßen (z.B.)

I unabh¨angige St¨orgr¨oßen mit unterschiedlichen Varianzen,

I abh¨angige (korrelierte) St¨orgr¨oßen.

Statt deterministischer Regressoren stochastische Regressoren.

Statt nur einer Gleichung f¨ur einen Regressanden (simultane) Betrachtung mehrerer Regressanden Mehrgleichungsmodelle.

Uber Betrachtung linearer Abh¨angigkeiten hinaus auch nichtlineare¨ Regressionsmodelle m¨oglich.

Verallgemeinerungen werden in weiterf¨uhrenden Vorlesungen diskutiert, insbesondere

”Okonometrie“ (Bachelorstudiengang).¨

Schließende Statistik (WS 2020/21) Folie 264

Referenzen

ÄHNLICHE DOKUMENTE

Charakteristische Merkmale des ML-Effekts – Lichtkurve I. Applications on

Später werden wir durch Einsetzen überprüfen, ob diese Annahme auch

(1) Man beachte, dass die partiellen Ableitungen im Gegensatz zu den gew¨ ohn- lichen Ableitungen nicht durch Striche (oder Punkte im Falle der zeitlichen Ableitung)

Wir werden in diesem Abschnitt einige wichtige Anwendungen der Taylorschen Formel behandeln: Das totale Differenzial als lineare N¨ aherung, die Fehlerrechnung, die Theorie der

• An den Programmpunkten 1 und 2 gelten die Zusicherungen r &gt; 0 bzw.. Weitere Propagation von C durch den Kontrollfluss-Graphen komplettiert die lokal konsistente Annotation

Logische Größen können mit logischen Operatoren und Operationen verknüpft werden, darunter AND, OR, NOT.. Christidis •

Es wird angenommen, dass Y in linearer Form von X abh¨ angt, diese Abh¨ angigkeit jedoch nicht.. ” perfekt“ ist, sondern durch zuf¨ allige

Bereits durch die Symmetrieeigenschaft r X ,Y = r Y ,X bei der Berechnung von Pearsonschen Korrelationskoeffizienten wird klar, dass diese Kennzahl alleine auch keine