• Keine Ergebnisse gefunden

Nachtrag gewichtete Regression, Aufgabe 3

N/A
N/A
Protected

Academic year: 2021

Aktie "Nachtrag gewichtete Regression, Aufgabe 3"

Copied!
3
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Nachtrag gewichtete Regression, Aufgabe 3

Man geht vom Modell:Y =Xβ+aus mit∼ N(0, σ2Σ). Dabei ist Σ bekannt, aberσ2 unbekannt.

R¨uckf¨uhrung auf unser bekanntes Modell:

Wir definieren die MatrixA, so dass AAT = Σ.

Y˜ =A1Y =A1(Xβ+) =A1X

| {z }

X˜

β+A1

| {z }

˜

= ˜Xβ+ ˜

Dabei gilt nun, wie in der ¨Ubungsstunde anget¨ont:

Cov[˜] = Cov[A1] =A1Cov[](A1)T

= A1σ2(AAT)(A1)T2I Damit sind wir wieder in der Standardsituation.

Spezialfall: Gewichtete Regression

Ist der Spezialfall, wo Σ diagonal ist, z.B.:

Σ =

d21 0 0 0 d22 0 0 0 d23

=⇒A=

d1 0 0 0 d2 0 0 0 d3

F¨uhrt man nun Kleinste Quadrate durch, so wirdβ folgendermassen bestimmt:

βb = argminβ Xn

i=1

( ˜Yi−X˜iβ)2 = argminβ Xn

i=1

((A1Y)i−(A1X)iβ)2

= argminβ Xn

i=1

1 d2i

(Yi−Xiβ)2 (1)

Dies ist der Grund, wieso es gewichtete Regression heisst. Die Gleichung sieht aus, wie eine normale Kleinste Quadrate Regression, einfach werden die einzelnen Terme nun gewichtet mit den Gewichten d12

i

.

Bei Aufgabe 3 entspechen dievi unserendi, daher sind die Gewichte v12

i

zu w¨ahlen, analog zu (1).

Ich hoffe es ist nun ein wenig klarer.

(2)

Nachbesprechung Serie 2:

Aufgabe 1

Ein h¨aufiger Fehler war, dass man logN = c korrekt berechnet hat, und dann daraus geschlossen hat, dassN = 10c. Dies ist nicht richtig, da R standarm¨assig den nat¨urlichen Logarithmus nimmt. Das heisst die korrekte L¨osung w¨are: N =ec.

Aufgabe 2

Die meisten haben herausgefunden, dass die beiden geraden vonlm(y∼x) undlm(x∼y) nicht ¨ubereinstimmen. Den Grund dazu sieht man in der unteren Abbildung. In der Klein- sten Quadrate Regression, wie wir das uns gewohnt sind, wird die Gerade so angepasst, dass die gr¨unen Abschnitte minimiert werden. Vertauscht man nun x un y, so werden die roten Abschnitte minimiert.Man sieht in der Zeichnun, dass dies eine andere L¨osung ergibt und man versteht intuitiv, dass die rote Gerade steiler sein muss, als die gr¨une.

−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5

−1.5−1.0−0.50.00.51.0

x

y

(3)

Aufgabe 3

Das Hauptproblem in Aufgabe 3 habe ich in der ¨Ubungsstunde bereits angesprochen. Das war die predict() - Funktion, welche Probleme bereitet hat.

Referenzen

ÄHNLICHE DOKUMENTE

Der Data-Frame zeigt wie oft australisch-englische Sprecher einen post-vokalischen Alveolar (in z.B. water) mit einem /ɾ/ (JA) oder /t/ (NEIN) produzierten aufgeteilt

Vokal (kategorial, 2 Stufen: /a:/, /a/) Unabhängige Variable: Dauer (kontinuierlich) In der linearen (least-squares) Regression (siehe hier) wurde geprüft, inwiefern eine

[r]

[r]

[r]

Beispiele: LinearModelFit[Liste,{x1, x2},{x1, x2}] erzeugt ein Modell mit zwei Eingabevariablen x1 und x2, die in der Reihenfolge y = b0 + b1 ∗ x1 + b2 ∗ x2 auftreten, dagegen

Christopher Nowzohour Regression Exercise 09.04.2014 2 / 9.. no hidden variables, known causal direction).. I Otherwise: Confounding, Simpson’s Paradox, ..... no hidden variables,

Analysis of variance models are intuitiv, treatment effects can be easily calculated and