• Keine Ergebnisse gefunden

Musterl¨ osung zu Serie 12

N/A
N/A
Protected

Academic year: 2022

Aktie "Musterl¨ osung zu Serie 12"

Copied!
4
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Dr. Markus Kalisch Statistik (f¨ur Biol./Pharm. Wiss./HST) HS 2013

Musterl¨ osung zu Serie 12

1. a) Betrachtet man die vier Streudiagramme, so sieht man, dass nur im ersten Fall eine lineare Regression korrekt ist. Im zweiten Fall ist die Beziehung zwischenX undY nicht linear, sondern quadratisch. Im dritten Fall gibt es einen Ausreisser, welcher die gesch¨atzten Parameter stark beeinflusst. Im vierten Fall wird die Regressionsgerade durch einen einzigen Punkt bestimmt.

X1

Y1

4 6 8 10 12 14

46810

• •

X2

Y2

4 6 8 10 12 14

3456789

X3

Y3

4 6 8 10 12 14

681012

••

••

X4

Y4

8 10 12 14 16 18

681012

b) Bei allen vier Modellen sind die Sch¨atzungen des Achsenabschnittsβ0, der Steigungβ1 und der Fehlervarianzσ2, sowie das G¨utemass R2 fast identisch:

Modell 1 Modell 2 Modell 3 Modell 4 Achsenabschnitt (cβ0) 3.000 3.001 3.002 3.002

Steigung (cβ1) 0.500 0.500 0.500 0.500

2 1.529 1.531 1.528 1.527

R2 0.667 0.666 0.666 0.667

Fazit: Es gen¨ugt nicht, nur cβ0, cβ1, σb und R2 anzuschauen. In allen Modellen sind diese Sch¨atzungen fast gleich, aber die Datens¨atze sehen ganz unterschiedlich aus. Eine (graphische) Uberpr¨¨ ufung der Modellannahmen ist also unumg¨anglich.

(2)

2

2. a), b), c) W¨ahrend ein Blick auf die Originaldaten suggeriert, dass sie ziemlich sch¨on auf einer Geraden liegen, zeigt der Tukey-Anscombe-Plot, dass dem nicht so ist: die Daten weisen eine Kr¨ummung auf. Zus¨atzlich f¨allt der Ausreisser in der Mitte oben auf, den wir auch im Normalplot rechts oben wiederfinden. Ansonsten l¨asst sich ¨uber den Normalplot nicht viel sagen.

Im Regressions-Output findet sich keine Hinweis darauf, dass das Modell unpassend sein k¨onnte.

Im Gegenteil k¨onnte man meinen, dass das hohe R2 (0.99) darauf hinweist, dass das Modell gut passt. Es ist aber eben sehr wichtig, sich nicht nur auf den Regressionsoutput zu verlassen, sondern die Daten und die Residuen anzuschauen, um Modellabweichungen festzustellen.

> summary(forbes.fit) Call:

lm(formula = Press ~ Temp, data = forbes) Residuals:

Min 1Q Median 3Q Max

-0.25717 -0.11246 -0.05102 0.14283 0.64994 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -81.06373 2.05182 -39.51 <2e-16 ***

Temp 0.52289 0.01011 51.74 <2e-16 ***

---

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.2328 on 15 degrees of freedom Multiple R-squared: 0.9944, Adjusted R-squared: 0.9941 F-statistic: 2677 on 1 and 15 DF, p-value: < 2.2e-16

195 200 205 210

2224262830

forbes$Temp

forbes$Press

●●

22 24 26 28 30

−0.20.00.20.40.6

Tukey−Anscombe

fitted(forbes.fit)

resid(forbes.fit)

●●

−2 −1 0 1 2

−0.20.00.20.40.6

Normal Q−Q Plot

Theoretical Quantiles

Sample Quantiles

d), e) Die logarithmierten Werte liegen sch¨on auf einer Geraden. Sowohl im Tukey-Anscombe wie auch im Normal-Plot ist ausser dem Ausreisser keine Abweichung von den Modellvoraussetzungen festzustellen.

Call:

lm(formula = Logpress ~ Temp, data = forbes) Residuals:

Min 1Q Median 3Q Max

-0.0073622 -0.0033863 -0.0015865 0.0004322 0.0313139 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -0.9708662 0.0769377 -12.62 2.17e-09 ***

Temp 0.0206224 0.0003789 54.42 < 2e-16 ***

---

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

(3)

3

Residual standard error: 0.00873 on 15 degrees of freedom Multiple R-squared: 0.995, Adjusted R-squared: 0.9946 F-statistic: 2962 on 1 and 15 DF, p-value: < 2.2e-16

195 200 205 210

3.13.23.33.4

forbes$Temp

forbes$Logpress

● ●

3.1 3.2 3.3 3.4

0.000.010.020.03

Tukey−Anscombe

fitted(forbes.fit2)

resid(forbes.fit2)

●●

● ●

● ●

−2 −1 0 1 2

0.000.010.020.03

Normal Q−Q Plot

Theoretical Quantiles

Sample Quantiles

f ) Nach Weglassen des Ausreissers sehen alle Plots wunderbar aus. Wie auch in den vorherigen Regressionen ist die erkl¨arende Variable hochsignifikant.

Call:

lm(formula = Logpress ~ Temp, data = forbes[-12, ]) Residuals:

Min 1Q Median 3Q Max

-0.0048082 -0.0014595 0.0004546 0.0020358 0.0031219 Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -0.9517662 0.0231021 -41.2 5.16e-16 ***

Temp 0.0205186 0.0001138 180.2 < 2e-16 ***

---

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 0.002616 on 14 degrees of freedom Multiple R-squared: 0.9996, Adjusted R-squared: 0.9995 F-statistic: 3.249e+04 on 1 and 14 DF, p-value: < 2.2e-16

195 200 205 210

3.13.23.33.4

forbes$Temp

forbes$Logpress

3.1 3.2 3.3 3.4

−0.004−0.0020.0000.002

Tukey−Anscombe

fitted(forbes.fit3)

resid(forbes.fit3)

−2 −1 0 1 2

−0.004−0.0020.0000.002

Normal Q−Q Plot

Theoretical Quantiles

Sample Quantiles

3. a) Der p-Wert ist extrem klein (<2·10−16), also istβ1 signifikant von Null verschieden.

(4)

4

b) Das Vertrauensintervall hat die Form 0.18170±t11,0.975·0.00173. Es ist t11,0.975 = 2.201, also haben wir [0.1779, 0.1855]. Dies ist Vertrauensintervall ii).

c) F¨ur 1000m liefert das Modell den Wert−62.6 + 0.18170·1000 = 119.1. Das Residuum ist daher 136−119.1 = 16.9.

d) Nein, denn f¨ur 100km m¨ussten wir eine Extrapolation verwenden. In diesem Bereich haben wir keine Daten.

e) Im Output k¨onnen wir unterResidual standard error62.68 ablesen. F¨ur kleine Distanzen hat das Modell also einen viel zu grossen relativen Fehler!

f ) Man sieht einen sehr deutlichen Trend. Also stimmt das Modell nicht; wir haben einen systema- tischen Effekt nicht modelliert.

g) Wir m¨ussen den quadratischen Effekt noch ber¨ucksichtigen:

Zeiti01·Distanzi2·Distanz2ii

Referenzen

ÄHNLICHE DOKUMENTE

Da es sich um eine quadratische Funk- tion mit ausschliesslich positiven Koeffizienten handelt, kann sie nur

Jedem Produkt aus dem einen Laden kann genau ein Produkt aus dem anderen Laden

(0.5 P) Jeder Stern wird jeweils mit dem neuen und dem traditionellen Verfahren vermessen.. Also m¨ ussen wir in der Tabelle in der Zeile logcavol und der Spalte Std. Der Wert

1. a) (1 Punkt) Gepaart (0.5 P), da jeweils dieselbe Person einmal mit dem einen Balltyp und einmal mit dem anderen Balltyp aufschl¨ agt.. Ausf¨ uhrlich: Aus Estimate und t- Value

Wenn bei (80,3000) noch ein Punkt hinzugef¨ ugt wird (der liegt dann deutlich ¨ uber der bisherigen Geraden), wird die Gerade steiler, um auch diesen Punkt einigermassen

4) b) Weil das Vertrauensintervall die 0 nicht enth¨ alt, kann H0 auf dem 5% Ni- veau nicht verworfen werden. Dann kann H0 aber erst recht nicht auf dem viel strengeren 1%

7) (1 Punkt) Durch das hinzuf¨ ugen einer Beobachtung an der Stelle (2.5, 150) wird die Regressionsgerade flacher, dass bedeutet ˆ β wird kleiner. Weiter wird ˆ σ gr¨ osser, da

1. a) (1 Punkt) Es muss ein ungepaarter Test durchgef¨ uhrt werden, da die Test- und Kontrollmessungen auf unterschiedlichen Pisten durchgef¨ uhrt werden (und nicht je 1 Test- und