• Keine Ergebnisse gefunden

Parametersch¨ atzer im einfachen linearen Regressionsmodell

N/A
N/A
Protected

Academic year: 2022

Aktie "Parametersch¨ atzer im einfachen linearen Regressionsmodell"

Copied!
33
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

10 Lineare Regression Statistisches Modell 10.2

Bisher: rein deskriptive Betrachtung linearer Zusammenh¨ange Bereits erl¨autert/bekannt: Korrelation6= Kausalit¨at:

Aus einem beobachteten (linearen) Zusammenhang zwischen zwei Merkmalen l¨asst sichnichtschließen, dass der Wert eines Merkmals den des anderen beeinflusst.

Bereits durch die SymmetrieeigenschaftrX,Y =rY,X bei der Berechnung von Pearsonschen Korrelationskoeffizienten wird klar, dass diese Kennzahl alleine auch keine Wirkungsrichtung erkennen lassenkann.

Nun: statistische Modelle f¨ur lineare Zusammenh¨ange

Keinesymmetrische Behandlung vonX undY mehr, sondern:

I Interpretation vonX (

”Regressor“) alserkl¨arendedeterministischeVariable.

I Interpretation vonY (

”Regressand“) alsabh¨angige, zu erkl¨arende (Zufalls-)Variable.

Es wird angenommen, dassY in linearer Form von X abh¨angt, diese Abh¨angigkeit jedoch nicht

”perfekt“ ist, sondern durch zuf¨allige Einfl¨usse

”gest¨ort“ wird.

Anwendung in Experimenten: Festlegung vonX durch Versuchsplaner, Untersuchung des Effekts aufY

Damit auch Kausalit¨atsanalysen m¨oglich!

Schließende Statistik (WS 2020/21) Folie 232

(2)

10 Lineare Regression Statistisches Modell 10.2

Das einfache lineare Regressionsmodell

Es wird genauer angenommen, dass f¨uri ∈ {1, . . . ,n}die Beziehung yi12·xi+ui

gilt, wobei

I u1, . . . ,un (Realisationen von) Zufallsvariablen mit E(ui) = 0, Var(ui) =σ2 (unbekannt) und Cov(ui,uj) = 0 f¨uri 6=j sind, die zuf¨allige St¨orungen der linearen Beziehung (

”St¨orgr¨oßen“) beschreiben,

I x1, . . . ,xndeterministisch sind mitsX2 = 1nPn

i=1(xi−x)2>0 (d.h. nicht allexi sind gleich),

I β12feste,unbekanntereelle Parameter sind.

Man nimmt an, dass man nebenx1, . . . ,xn auchy1, . . . ,yn beobachtet, die wegen der Abh¨angigkeit von den Zufallsvariablenu1, . . . ,un ebenfalls

(Realisationen von) Zufallsvariablen sind. Dies bedeutetnicht, dass man auch (Realisationen von)u1, . . . ,un beobachten kann (β1undβ2unbekannt!).

F¨ur die Erwartungswerte vonyi gilt

E(yi) =β12·xi f¨uri ∈ {1, . . . ,n}. Das durch obige Annahmen beschriebene Modell heißt auch

einfaches lineares Regressionsmodell.

(3)

10 Lineare Regression Parametersch¨atzung 10.3

Im einfachen linearen Regressionsmodell sind also (nebenσ2) insbesondere β1

undβ2 Parameter, deren Sch¨atzung f¨ur die Quantifizierung des linearen Zusammenhangs zwischenxi undyi n¨otig ist.

Die Sch¨atzung dieser beiden Parameter f¨uhrt wieder zum Problem der Suche nach Absolutglied und Steigung einer geeigneten Geradengleichung

y =fβ12(x) =β12·x .

Satz 10.1 (Satz von Gauß-Markov)

Unter den getroffenen Annahmen liefert die aus dem deskriptiven Ansatz bekannte Verwendung derKQ-Methode, also die Minimierung der Summe der quadrierten vertikalen Abst¨ande zur durch β1undβ2bestimmten Geraden, in Zeichen

n

X

i=1

(yi−(bβ1+βb2·xi))2 != min

β12∈R n

X

i=1

(yi−(β12·xi))2,

diebeste(varianzminimale)lineare (in yi)erwartungstreueSch¨atzfunktionβb1

f¨urβ1bzw.βb2f¨urβ2.

Dies rechtfertigt letztendlich die Verwendung des Optimalit¨atskriteriums

”Minimierung der quadrierten vertikalen Abst¨ande“.

Schließende Statistik (WS 2020/21) Folie 234

(4)

10 Lineare Regression Parametersch¨atzung 10.3

Man erh¨alt also — ganz analog zum deskriptiven Ansatz — die folgenden Parametersch¨atzer:

Parametersch¨ atzer im einfachen linearen Regressionsmodell

βb2= n Pn i=1xiyi

− Pn i=1xi

· Pn i=1yi

n Pn

i=1xi2

− Pn

i=1xi2 = xy−x·y x2−x2 = sX,Y

sX2 =rX,Y ·sY

sX

,

βb1=1n Pn i=1yi

1n Pn i=1xi

·βb2=y−xβb2.

Wegen der Abh¨angigkeit vonyi handelt es sich beiβb1 undβb2 (wie in der schließenden Statistik gewohnt) um (Realisationen von)Zufallsvariablen.

Die resultierenden vertikalen Abweichungenbui:=yi−(bβ1+βb2·xi) =yi−byi

deryi von den auf der Regressionsgeraden liegenden Wertenbyi:=βb1+βb2·xi

nennt manResiduen.

Wie im deskriptiven Ansatz gelten die Beziehungen Pn

i=1ubi = 0, Pn

i=1yi =Pn

i=1byi, Pn

i=1xibui = 0, Pn

i=1byibui= 0 sowie die Varianzzerlegung

1 n

Pn

i=1(yi−y)2=n1Pn

i=1(byi−by)2+1nPn i=1bu2i .

(5)

10 Lineare Regression Parametersch¨atzung 10.3

Das (multiple) Bestimmtheitsmaß R

2

Auch im linearen Regressionsmodell wird die St¨arke des linearen

Zusammenhangs mit dem Anteil der erkl¨arten Varianz an der Gesamtvarianz gemessen und mit

R2= Pn

i=1(byi−by)2 Pn

i=1(yi−y)2 = 1− Pn

i=1bui2 Pn

i=1(yi−y)2

bezeichnet.R2 wird auch(multiples) Bestimmtheitsmaß genannt.

Es gilt 0≤R2≤1 sowie der (bekannte) ZusammenhangR2=rX2,Y = s

2 X,Y

sX2·sY2. Gr¨oßere Werte vonR2(in der N¨ahe von 1) sprechen f¨ur eine hohe

Modellg¨ute, niedrige Werte (in der N¨ahe von 0) f¨ur eine geringe Modellg¨ute.

Vorsicht!

sX2,sY2 sowiesX,Y bezeichnen in diesem Kapitel die empirischenGr¨oßen sX2 =n1Pn

i=1(xi−x)2=x2−x2, sY2 =n1Pn

i=1(yi−y)2=y2−y2 undsX,Y = 1nPn

i=1(xi−x)·(yi−y) =xy−x·y .

Schließende Statistik (WS 2020/21) Folie 236

(6)

10 Lineare Regression Parametersch¨atzung 10.3

Beispiel: Ausgaben in Abh¨ angigkeit vom Einkommen (I)

Es wird angenommen, dass die Ausgaben eines Haushalts f¨ur Nahrungs- und Genussmittelyi linear vom jeweiligen Haushaltseinkommenxi (jeweils in 100 e) in der Form

yi12·xi+ui, ui

iid∼N(0, σ2), i ∈ {1, . . . ,n}

abh¨angen. F¨urn= 7 Haushalte beobachte man nun neben dem Einkommen xi auch die (Realisation der) Ausgaben f¨ur Nahrungs- und Genussmittelyi

wie folgt:

Haushalti 1 2 3 4 5 6 7

Einkommenxi 35 49 21 39 15 28 25

NuG-Ausgabenyi 9 15 7 11 5 8 9

Mit Hilfe dieser Stichprobeninformation sollen nun die Parameterβ1undβ2 der linearen Modellbeziehung gesch¨atzt sowie die Werteybi, die Residuenbui und das BestimmtheitsmaßR2bestimmt werden.

(7)

10 Lineare Regression Parametersch¨atzung 10.3

Berechnete (deskriptive/empirische) Gr¨oßen:

x= 30.28571 y= 9.14286 x2= 1031.71429 y2= 92.28571 sX2 = 114.4901 sY2 = 8.6938 sX,Y = 30.2449 rX,Y = 0.9587 Damit erh¨alt man die Parametersch¨atzerβb1undβb2als

βb2=sX,Y

sX2 = 30.2449

114.4901 = 0.26417

βb1=y−βb2·x= 9.14286−0.26417·30.28571 = 1.14228. Als Bestimmtheitsmaß erh¨alt manR2=rX2,Y = 0.95872= 0.9191.

F¨urbyi und bui erh¨alt man durch Einsetzen (byi =βb1+βb2·xi,ubi =yi−byi):

i 1 2 3 4 5 6 7

xi 35 49 21 39 15 28 25

yi 9 15 7 11 5 8 9

byi 10.39 14.09 6.69 11.44 5.1 8.54 7.75 bui −1.39 0.91 0.31 −0.44 −0.1 −0.54 1.25

Schließende Statistik (WS 2020/21) Folie 238

(8)

10 Lineare Regression Parametersch¨atzung 10.3

Grafik: Ausgaben in Abh¨ angigkeit vom Einkommen

βb1= 1.14228,βb2= 0.26417,R2= 0.9191

0 10 20 30 40 50

051015

xi

yi

u^

i

y=y^ x

yi

y^

i

(9)

10 Lineare Regression Parametersch¨atzung 10.3

Eigenschaften der Sch¨ atzfunktionen β b

1

und β b

2

βb1 undβb2sindlinear in yi, man kann genauer zeigen:

βb1=

n

X

i=1

x2−x·xi

nsX2 ·yi und βb2=

n

X

i=1

xi−x nsX2 ·yi

βb1 undβb2sinderwartungstreu f¨ur β1 und β2, denn wegen E(ui) = 0 gilt

I E(yi) =β12·xi+ E(ui) =β12·xi,

I E(y) = E 1nPn i=1yi

= 1nPn

i=1E(yi) =1nPn

i=112·xi) =β12·x,

I E(xy) = E 1nPn i=1xiyi

=1nPn

i=1xi12·xi) =β1·x+β2·x2 und damit

E(βb2) = E sX,Y

sX2

=E (xy−x·y)

sX2 =E(xy)−x·E(y) sX2

1·x+β2·x2−x·(β12·x)

sX2 = β2·(x2−x2) sX22 sowie

E(βb1) = E(y−xβb2) = E(y)−xE(bβ2) =β12·x−x·β21 . (Diese Eigenschaften folgen bereits mit dem Satz von Gauß-Markov.)

Schließende Statistik (WS 2020/21) Folie 240

(10)

10 Lineare Regression Parametersch¨atzung 10.3

F¨ur die Varianzen der Sch¨atzfunktionen erh¨alt man:

Var(βb2) = σ2 Pn

i=1(xi−x)2 = σ2

n·(x2−x2) = σ2 n·sX2 Var(βb1) =σ2

n · Pn

i=1xi2 Pn

i=1(xi−x)2 = σ2·x2

n·(x2−x2)= σ2·x2 n·sX2 Diese h¨angen von der unbekannten Varianzσ2derui ab.

Eine erwartungstreue Sch¨atzfunktion f¨urσ2ist gegeben durch

2:=Var(u\i) = 1 n−2

n

X

i=1

bu2i

= n

n−2 ·sY2 ·(1−R2) = n

n−2 ·(sY2 −βb2·sX,Y) Die positive Wurzelσb= +p

2dieser Sch¨atzfunktion heißt auch StandardError of theRegression (SER) oderresidual standard error.

(11)

10 Lineare Regression Parametersch¨atzung 10.3

Einsetzen des Sch¨atzerscσ2f¨urσ2liefert die gesch¨atzten Varianzen der Parametersch¨atzer

2

βb2 :=Var(\βb2) = cσ2

n·(x2−x2) = cσ2

n·sX2 =sY2 −βb2·sX,Y

(n−2)·sX2 und

2

βb1 :=Var(\βb1) = cσ2·x2

n·(x2−x2) = cσ2·x2

n·sX2 = (sY2 −βb2·sX,Y)·x2 (n−2)·sX2 . Die positiven Wurzelnbσ

βb1 = q

σc2

βb1 undbσ

βb2 = q

2

βb2 dieser gesch¨atzten Varianzen werden wie ¨ublich als (gesch¨atzte)Standardfehlervonβb1und βb2

bezeichnet.

Trifft man eine weitergehende Verteilungannahme f¨urui und damit f¨uryi, so lassen sich auch die Verteilungen vonβb1und βb2weiter untersuchen und zur Konstruktion von Tests, Konfidenzintervallen undPrognoseintervallen verwenden.

Schließende Statistik (WS 2020/21) Folie 242

(12)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Konfidenzintervalle und Tests

unter Normalverteilungsannahme f¨urui

H¨aufig nimmt man f¨ur die St¨orgr¨oßen an, dass speziell ui

iid∼N(0, σ2)

gilt, d.h. dass alleui (f¨uri∈ {1, . . . ,n}) unabh¨angig identisch normalverteilt sind mit Erwartungswert 0 und (unbekannter) Varianzσ2.

In diesem Fall sind offensichtlich auchy1, . . . ,yn stochastisch unabh¨angig und jeweils normalverteilt mit Erwartungswert E(yi) =β12·xi und Varianz Var(yi) =σ2.

Daβb1 undβb2linear inyi sind, folgt insgesamt mit den bereits berechneten Momenten vonβb1undβb2:

βb1∼N β12·x2 n·sX2

!

und βb2∼N

β2, σ2 n·sX2

(13)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Konfidenzintervalle

unter Normalverteilungsannahme f¨urui

Daσ2unbekannt ist, ist f¨ur Anwendungen wesentlich relevanter, dass im Falle unabh¨angig identisch normalverteilter St¨orgr¨oßenui mit den Sch¨atzfunktionencσ2

βb1 f¨ur Var(βb1) undcσ2

βb2 f¨ur Var(βb2) gilt:

βb1−β1

βb1

∼t(n−2) und βb2−β2

βb2

∼t(n−2) Hieraus erh¨alt man unmittelbar die

”Formeln“

h

βb1−tn−2;1−α

2 ·bσ

βb1,βb1+tn−2;1−α

2 ·bσ

βb1

i

f¨ur (symmetrische) Konfidenzintervalle zur Vertrauenswahrscheinlichkeit 1−αf¨urβ1bzw.

h

βb2−tn−2;1−α2 ·bσ

βb2,βb2+tn−2;1−α2 ·bσ

βb2

i

f¨ur (symmetrische) Konfidenzintervalle zur Vertrauenswahrscheinlichkeit 1−αf¨urβ2.

Schließende Statistik (WS 2020/21) Folie 244

(14)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Beispiel: Ausgaben in Abh¨ angigkeit vom Einkommen (II)

Im bereits erl¨auterten Beispiel erh¨alt man als Sch¨atzwert f¨urσ2: cσ2=n·(sY2 −βb2·sX,Y)

n−2 = 7·(8.6938−0.26417·30.2449)

7−2 = 0.9856

Die (gesch¨atzten) Standardfehler f¨urβb1und βb2sind damit

βb1 = s

2·x2 n·sX2 =

r0.9856·1031.71429

7·114.4901 = 1.1264,

βb2 = s

σc2 n·sX2 =

r 0.9856

7·114.4901 = 0.0351. F¨urα= 0.05 erh¨alt man mittn−2;1−α

2 =t5;0.975= 2.571 f¨urβ1also [1.14228−2.571·1.1264,1.14228 + 2.571·1.1264] = [−1.7537,4.0383]

als Konfidenzintervall zur Vertrauenswahrscheinlichkeit 1−α= 0.95 bzw.

[0.26417−2.571·0.0351,0.26417 + 2.571·0.0351] = [0.1739,0.3544]

als Konfidenzintervall zur Vertrauenswahrscheinlichkeit 1−α= 0.95 f¨urβ2.

(15)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Hypothesentests

unter Normalverteilungsannahme f¨urui

Genauso lassen sich unter der Normalverteilungsannahme (exakte)t-Tests f¨ur die Parameterβ1undβ2konstruieren.

Trotz unterschiedlicher Problemstellung weisen die Tests ¨Ahnlichkeiten zum t-Test f¨ur den Mittelwert einer normalverteilten Zufallsvariablen bei

unbekannter Varianz auf.

Untersucht werden k¨onnen die Hypothesenpaare

H0110 H01≤β10 H01≥β10

gegen gegen gegen

H116=β10 H11> β10 H11< β10 bzw.

H0220 H02≤β20 H02≥β20

gegen gegen gegen

H126=β20 H12> β20 H12< β20 Besonders anwendungsrelevant sind Tests auf die

”Signifikanz“ der Parameter (insbesondereβ2), die den zweiseitigen Tests mitβ01= 0 bzw.β20= 0 entsprechen.

Schließende Statistik (WS 2020/21) Folie 246

(16)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Zusammenfassung: t-Test f¨ ur den Parameter β

1

im einfachen linearen Regressionsmodell mit Normalverteilungsannahme

Anwendungs- exakt:yi12·xi+ui mitui

iid∼N(0, σ2) f¨uri∈ {1, . . . ,n}, voraussetzungen σ2unbekannt,x1, . . . ,xndeterministisch und bekannt,

Realisationy1, . . . ,ynbeobachtet

Nullhypothese H0110 H01≤β10 H01≥β01

Gegenhypothese H116=β10 H11> β10 H11< β01

Teststatistik t= βb1−β01

βb1

Verteilung (H0) t f¨urβ110t(n−2)-verteilt Ben¨otigte Gr¨oßen βb2=sX,Y

sX2 ,βb1=y−βb2·x,σbβb

1=

s

(sY2 −βb2·sX,Y)·x2 (n−2)·sX2

Kritischer Bereich (−∞,−tn−2;1−α2) (tn−2;1−α,∞) (−∞,−tn−2;1−α) zum Niveauα ∪(tn−2;1−α

2,∞)

p-Wert 2·(1−Ft(n−2)(|t|)) 1−Ft(n−2)(t) Ft(n−2)(t)

(17)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Zusammenfassung: t-Test f¨ ur den Parameter β

2

im einfachen linearen Regressionsmodell mit Normalverteilungsannahme

Anwendungs- exakt:yi12·xi+ui mitui

iid∼N(0, σ2) f¨uri∈ {1, . . . ,n}, voraussetzungen σ2unbekannt,x1, . . . ,xndeterministisch und bekannt,

Realisationy1, . . . ,ynbeobachtet

Nullhypothese H0220 H02≤β20 H02≥β02

Gegenhypothese H126=β20 H12> β20 H12< β02

Teststatistik t= βb2−β02

βb2

Verteilung (H0) t f¨urβ220t(n−2)-verteilt Ben¨otigte Gr¨oßen βb2=sX,Y

sX2 ,bσβb

2=

s

sY2 −βb2·sX,Y

(n−2)·sX2

Kritischer Bereich (−∞,−tn−2;1−α2) (tn−2;1−α,∞) (−∞,−tn−2;1−α) zum Niveauα ∪(tn−2;1−α

2,∞)

p-Wert 2·(1−Ft(n−2)(|t|)) 1−Ft(n−2)(t) Ft(n−2)(t)

Schließende Statistik (WS 2020/21) Folie 248

(18)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Beispiel: Ausgaben in Abh¨ angigkeit vom Einkommen (III)

Im bereits erl¨auterten Beispiel soll zum Signifikanzniveauα= 0.05 getestet werden, obβ1signifikant von Null verschieden ist. Geeigneter Test:

t-Test f¨ur den Regressionsparameterβ1

1 Hypothesen:

H01= 0 gegen H116= 0

2 Teststatistik:

t=βb1−0 bσ

βb1

ist unterH0(f¨urβ1= 0)t(n−2)-verteilt.

3 Kritischer Bereich zum Niveauα= 0.05:

K= (−∞,−tn−2;1−α2)∪(tn−2;1−α2,+∞) = (−∞,−t5;0.975)∪(t5;0.975,+∞)

= (−∞,−2.571)∪(2.571,+∞)

4 Berechnung der realisierten Teststatistik:

t=βb1−0 bσ

βb1

=1.14228−0

1.1264 = 1.014

5 Entscheidung:

t= 1.014∈/(−∞,−2.571)∪(2.571,+∞) =K ⇒ H0 wird nicht abgelehnt!

(p-Wert: 2−2·Ft(5)(|t|) = 2−2·Ft(5)(|1.014|) = 2−2·0.8215 = 0.357) Der Test kann f¨urβ1 keine signifikante Abweichung von Null feststellen.

(19)

10 Lineare Regression Konfidenzintervalle und Tests 10.4

Beispiel: Ausgaben in Abh¨ angigkeit vom Einkommen (IV)

Nun soll zum Signifikanzniveauα= 0.01 getestet werden, obβ2 positivist.

Geeigneter Test:

t-Test f¨ur den Regressionsparameterβ2

1 Hypothesen:

H02≤0 gegen H12>0

2 Teststatistik:

t=βb2−0 bσ

βb2

ist unterH0(f¨urβ2= 0)t(n−2)-verteilt.

3 Kritischer Bereich zum Niveauα= 0.01:

K= (tn−2;1−α,+∞) = (t5;0.99,+∞) = (3.365,+∞)

4 Berechnung der realisierten Teststatistik:

t=βb2−0 bσ

βb2

=0.26417−0

0.0351 = 7.5262

5 Entscheidung:

t= 7.5262∈(3.365,+∞) =K ⇒ H0wird abgelehnt!

(p-Wert: 1−Ft(5)(t) = 1−Ft(5)(7.5262) = 1−0.9997 = 0.0003) Der Test stellt fest, dassβ2 signifikant positiv ist.

Schließende Statistik (WS 2020/21) Folie 250

(20)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Punkt- und Intervallprognosen

im einfachen linearen Regressionsmodell mit Normalverteilungsannahme

Neben Konfidenzintervallen und Tests f¨ur die Parameterβ1undβ2in linearen Regressionsmodellen vor allemPrognosenwichtige Anwendung.

Zur Erstellung von Prognosen: Erweiterung der Modellannahme yi12·xi+ui, ui

iid∼N(0, σ2), i ∈ {1, . . . ,n}

auf (zumindest) einen weiteren, hier mit (x0,y0) bezeichneten Datenpunkt, bei dem jedochy0nichtbeobachtet wird, sondern lediglich der Wert des Regressorsx0bekannt ist.

Ziel:

”Sch¨atzung“ (Prognose) vony012·x0+u0bzw.

E(y0) =β12·x0auf Grundlage von x0.

Wegen E(u0) = 0 und der Erwartungstreue vonβb1f¨urβ1bzw.βb2 f¨urβ2 ist by0:=βb1+βb2·x0=:E(y[0)

offensichtlich erwartungstreu f¨ury0 bzw. E(y0) gegebenx0.

by0bzw.E(y[0) wird auch(bedingte) Punktprognose f¨ur y0bzw. E(y0) gegebenx0genannt.

(21)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognosefehler

Zur Beurteilung der Genauigkeit der Prognosen:

Untersuchung der sogenannten Prognosefehler

by0−y0 bzw. E(y[0)−E(y0). Qualitativer Unterschied:

I Prognosefehler

E(y[0)−E(y0) =βb1+βb2·x0−(β12·x0) = (bβ1−β1) + (bβ2−β2)·x0

resultiertnuraus Fehler bei der Sch¨atzung vonβ1bzw.β2durchβb1bzw.βb2.

I Prognosefehler

by0−y0=βb1+βb2·x0−(β12·x0+u0) = (bβ1−β1) + (bβ2−β2)·x0−u0

ist Kombination von Sch¨atzfehlern (f¨urβ1undβ2) sowie zuf¨alliger Schwankung vonu0∼N(0, σ2).

Zun¨achst: Untersuchung voneE:=E(y[0)−E(y0)

Schließende Statistik (WS 2020/21) Folie 252

(22)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Wegen der Erwartungstreue stimmen mittlerer quadratischer (Prognose-) Fehler und Varianz voneE=E(y[0)−E(y0) ¨uberein und man erh¨alt Var(E(y[0)−E(y0)) = Var(E(y[0)) = Var(βb1+βb2·x0)

= Var(βb1) +x02Var(βb2) + 2·x0·Cov(βb1,βb2).

Es kann gezeigt werden, dass f¨ur die Kovarianz vonβb1undβb2gilt:

Cov(bβ1,βb2) =−σ2· x Pn

i=1(xi−x)2 =−σ2· x n·sX2 Insgesamt berechnet man so die Varianz des Prognosefehlers

σe2

E := Var(eE) = σ2·x2

n·sX2 +x02· σ2

n·sX2 −2·x0· σ2·x n·sX2

2·x2+x02−2·x0·x n·sX2

2·(x2−x2) + (x2+x02−2·x0·x) n·sX2

2·sX2+ (x0−x)2 n·sX22·

1

n+(x0−x)2 n·sX2

.

(23)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Die Linearit¨at vonβb1undβb2 (inyi) ¨ubertr¨agt sich (nat¨urlich) auch auf E(y[0), damit gilt offensichtlich

eE =E(y[0)−E(y0)∼N 0, σ2eE

bzw. E(y[0)−E(y0)

σeE ∼N(0,1). Daσ2unbekannt ist, erh¨alt man durch Ersetzen von σ2durch die

erwartungstreue Sch¨atzfunktion cσ2die gesch¨atzte Varianz

2eE :=dVar(eE) =cσ2·sX2 + (x0−x)2 n·sX2 =cσ2·

1

n+(x0−x)2 n·sX2

vonE(y[0) und damit die praktisch wesentlich relevantere Verteilungsaussage eE

eE

= E(y[0)−E(y0) σbeE

∼t(n−2),

aus der sich in bekannter Weise (symmetrische) Konfidenzintervalle (und Tests) konstruieren lassen.

Schließende Statistik (WS 2020/21) Folie 254

(24)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognoseintervalle f¨ ur E(y

0

) gegeben x

0

Intervallprognosen zur Vertrauenswahrscheinlichkeit 1−αerh¨alt man also als Konfidenzintervalle zum Konfidenzniveau 1−αf¨ur E(y0) in der Form

hE(y[0)−tn−2;1−α

2 ·σbeE,E(y[0) +tn−2;1−α

2 ·σbeE

i

=h

(bβ1+βb2·x0)−tn−2;1−α2 ·σbeE,(βb1+βb2·x0) +tn−2;1−α2 ·bσeE

i . Im Beispiel (Ausgaben in Abh¨angigkeit vom Einkommen) erh¨alt man zu gegebenemx0= 38 (in 100e)

σc2eE =cσ2· 1

n+(x0−x)2 n·sX2

= 0.9856· 1

7 +(38−30.28571)2 7·114.4901

= 0.214 die PunktprognoseE(y[0) =βb1+βb2·x0= 1.14228 + 0.26417·38 = 11.1807 (in 100e) sowie die Intervallprognose zur Vertrauenswahrscheinlichkeit 0.95

h

11.1807−2.571·√

0.214,11.1807 + 2.571·√ 0.214i

= [9.9914,12.37] (in 100e).

(25)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognosefehler e

0

:= y b

0

− y

0

Nun:Untersuchung des Prognosefehlerse0:=yb0−y0 Offensichtlich gilt f¨ure0=yb0−y0die Zerlegung

yb0−y0= (βb1+βb2·x0)

| {z }

=[E(y0)

−(β12·x0

| {z }

=E(y0)

+u0)

= E(y[0)−E(y0)

| {z }

Fehler aus Sch¨atzung von β1 undβ2

− u0

|{z}

zuf¨allige Schwankung der St¨orgr¨oße

.

E(y[0) h¨angt nur von u1, . . . ,un ab (¨ubery1, . . . ,ynbzw.βb1und βb2) und ist wegen der Annahmeui

iidN(0, σ2)unabh¨angigvonu0.

Damit sind die beiden Bestandteile des Prognosefehlers insbesondere auch unkorreliert und man erh¨alt:

σe20 := Var(yb0−y0) = Var(E(y[0)−E(y0)) + Var(u0)

2· 1

n+(x0−x)2 n·sX2

22·

1 +1

n+(x0−x)2 n·sX2

Schließende Statistik (WS 2020/21) Folie 256

(26)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Aus der Unkorreliertheit der beiden Komponenten des Prognosefehlers folgt auch sofort die Normalverteilungseigenschaft des Prognosefehlers

e0=y0−yb0, genauer gilt:

e0=yb0−y0∼N 0, σ2e

0

bzw. yb0−y0 σe0

∼N(0,1) . Wieder mussσ2durchcσ2ersetzt werden, um mit Hilfe der gesch¨atzen Varianz

2e0 :=dVar(yb0−y0) =σc2·

1 +1

n+(x0−x)2 n·sX2

des Prognosefehlers die f¨ur die Praxis relevante Verteilungsaussage e0

σbe0

= yb0−y0 σbe0

∼t(n−2) ,

zu erhalten, aus der sich dann wieder Prognoseintervalle konstruieren lassen.

(27)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognoseintervalle f¨ ur y

0

gegeben x

0

Intervallprognosen f¨ury0zur Vertrauenswahrscheinlichkeit 1−αerh¨alt man also analog zu den Intervallprognosen f¨ur E(y0) in der Form

yb0−tn−2;1−α

2 ·σbe0,yb0+tn−2;1−α

2 ·bσe0

=h

(βb1+βb2·x0)−tn−2;1−α

2 ·σbe0,(βb1+βb2·x0) +tn−2;1−α

2 ·bσe0i . Im Beispiel (Ausgaben in Abh¨angigkeit vom Einkommen) erh¨alt man zu gegebenemx0= 38 (in 100e)

2e0=cσ2·

1 +1

n+(x0−x)2 n·sX2

= 0.9856·

1 +1

7+(38−30.28571)2 7·114.4901

= 1.1996 mit der bereits berechneten Punktprognoseyb0=E(y[0) = 11.1807 (in 100 e) die zugeh¨orige Intervallprognose f¨ury0zur Vertrauenswahrscheinlichkeit 0.95

h

11.1807−2.571·√

1.1996,11.1807 + 2.571·√ 1.1996i

= [8.3648,13.9966] (in 100e).

Schließende Statistik (WS 2020/21) Folie 258

(28)

10 Lineare Regression Punkt- und Intervallprognosen 10.5

Prognose: Ausgaben in Abh¨ angigkeit vom Einkommen

βb1= 1.14228,βb2= 0.26417,x0= 38,yb0= 11.1807, 1α= 0.95

0 10 20 30 40 50

051015

xi

yi

y=y^ x

(29)

10 Lineare Regression Lineare Modelle mitR10.6

Lineare Modelle mit Statistik-Software R

Beispiel (Ausgaben in Abh¨angigkeit vom Einkommen)

Modellsch¨atzung mit aussagekr¨aftiger Zusammenfassung in nur einer Zeile:

> summary(lm(y~x)) Call:

lm(formula = y ~ x) Residuals:

1 2 3 4 5 6 7

-1.3882 0.9134 0.3102 -0.4449 -0.1048 -0.5390 1.2535 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 1.14225 1.12645 1.014 0.357100 x 0.26417 0.03507 7.533 0.000653 ***

---

Signif. codes:

0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.9928 on 5 degrees of freedom Multiple R-squared: 0.919, Adjusted R-squared: 0.9028 F-statistic: 56.74 on 1 and 5 DF, p-value: 0.0006529

Schließende Statistik (WS 2020/21) Folie 260

(30)

10 Lineare Regression Lineare Modelle mitR10.6

Interpretation des Outputs (I)

Residuen,cσ2undR2 Residuals:

1 2 3 4 5 6 7

-1.3882 0.9134 0.3102 -0.4449 -0.1048 -0.5390 1.2535 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 1.14225 1.12645 1.014 0.357100 x 0.26417 0.03507 7.533 0.000653 ***

--

Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 0.9928 on 5 degrees of freedom Multiple R-squared: 0.919, Adjusted R-squared: 0.9028 F-statistic: 56.74 on 1 and 5 DF, p-value: 0.0006529 Auflistung bzw. Zusammenfassung der Residuenbui

Gesch¨atzte Standardabweichungbσ=p

2, hier:σb= 0.9928⇒cσ2= 0.9857 Anzahl Freiheitsgraden−2, hier:n−2 = 5⇒n= 7

(Multiples) BestimmtheitsmaßR2, hier:R2= 0.919

(31)

10 Lineare Regression Lineare Modelle mitR10.6

Interpretation des Outputs (II)

Ergebnisse zur Sch¨atzung vonβ1undβ2

Residuals:

1 2 3 4 5 6 7

-1.3882 0.9134 0.3102 -0.4449 -0.1048 -0.5390 1.2535 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 1.14225 1.12645 1.014 0.357100 x 0.26417 0.03507 7.533 0.000653 ***

--

Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 Residual standard error: 0.9928 on 5 degrees of freedom Multiple R-squared: 0.919, Adjusted R-squared: 0.9028 F-statistic: 56.74 on 1 and 5 DF, p-value: 0.0006529 Realisationen vonβb1,βb2, hier:βb1= 1.14225,βb2= 0.26417 Standardfehler vonβb1,βb2, hier:bσ

βb1= 1.12645,bσ

βb2= 0.03507

t-Statistiken zu Tests auf Signifikanz, hier: zuβ1:t= 1.014, zuβ2:t= 7.533 p-Werte zu Tests auf Signifikanz, hier: zuβ1:p= 0.3571, zuβ2:p= 0.000653

Schließende Statistik (WS 2020/21) Folie 262

(32)

10 Lineare Regression Lineare Modelle mitR10.6

Zusammenhang zwischen p-Werten

zu zweiseitigen und einseitigen Tests bei unterH0(um Null) symmetrisch verteilter Teststatistik

Erinnerung:t(n)- sowieN(0,1)-Verteilung sind symmetrisch um Null, f¨ur die zugeh¨origen VerteilungsfunktionenF gilt alsoF(x) = 1−F(−x) f¨ur alle x∈RundF(0) = 0.5,F(x)<0.5 f¨urx<0 sowieF(x)>0.5 f¨urx >0.

F¨ur diep-Werte pz der zweiseitigen Tests auf den Mittelwert bei bekannter (Gauß-Test) sowie unbekannter (t-Test) Varianz gilt daher bekanntlich

pz = 2·min{F(x),1−F(x)}=

2·F(x) fallsx <0 2·(1−F(x)) fallsx ≥0 , wobeix den realisierten Wert der Teststatistik sowieF die

Verteilungsfunktion der Teststatistik unterH0bezeichne.

F¨ur diep-Werte pl =F(x) zum linksseitigen sowiepr = 1−F(x) zum rechtsseitigen Test bei realisierter Teststatistikx gelten demnach die folgenden Zusammenh¨ange:

pl=

 pz

2 fallsx<0 1−pz

2 fallsx≥0 sowie pr =

 1−pz

2 fallsx <0 pz

2 fallsx ≥0 . Somit auchp-Werte zu einseitigen Tests ausR-Output bestimmbar!

(33)

10 Lineare Regression Ausblick 10.7

Verallgemeinerungen des einfachen linearen Modells

Zahlreiche Verallgemeinerungen des einfachen linearen Modells m¨oglich.

Statt einem Regressor mehrere Regressoren multiples Regressionsmodell.

Statt unabh¨angiger identisch verteilter St¨orgr¨oßen (z.B.)

I unabh¨angige St¨orgr¨oßen mit unterschiedlichen Varianzen,

I abh¨angige (korrelierte) St¨orgr¨oßen.

Statt deterministischer Regressoren stochastische Regressoren.

Statt nur einer Gleichung f¨ur einen Regressanden (simultane) Betrachtung mehrerer Regressanden Mehrgleichungsmodelle.

Uber Betrachtung linearer Abh¨¨ angigkeiten hinaus auch nichtlineare Regressionsmodelle m¨oglich.

Verallgemeinerungen werden in weiterf¨uhrenden Vorlesungen diskutiert, insbesondere

”Okonometrie“ (Bachelorstudiengang).¨

Schließende Statistik (WS 2020/21) Folie 264

Referenzen

ÄHNLICHE DOKUMENTE

Achtung: sobald ein Axiom nicht erf¨ ullt ist, kann man schliessen, dass es sich nicht um einen Vektorraum handelt.

Wegen Eindeutigkeit von L¨ osungen des Anfangswertproblems kann eine L¨ osung dieser Gleichung nur in einem gegebenen Punkt t ∈ J verschwinden, wenn sie auch ¨ uberall ver-

(c) bestimme, wie viele Sekunden vor Beginn des Experiment der K¨ orper frei fallengelassen wurde, um die berechnete Anfangsgeschwindigkeit erreichen zu k¨ onnen.. Stelle

Zeigen Sie, dass die Anzahl der Rechenschritte des Cholesky-Verfahrens f¨ ur die Zer- legung einer n × n -Matrix f¨ ur große n etwa 1 6 n 3 Rechenschritte und n Wurzelop-

Oliver Schn¨ urer, Universit¨ at Konstanz Sommersemester 2010 Matthias Makowski.. Ubungen zur Vorlesung Differentialgeometrie

• Bei einer Integralfunktion ist die untere Inte- grationsgrenze auf einen bestimmten Wert a festgelegt, w¨ ahrend die obere Integrations- grenze x unter Beachtung der

Universit¨ at T¨ ubingen T¨ ubingen, den 13.01.2014 Mathematisches

Laza: Lineare Algebra individuell Online-Version