• Keine Ergebnisse gefunden

Statistik II f¨ur Betriebswirte Vorlesung 9

N/A
N/A
Protected

Academic year: 2021

Aktie "Statistik II f¨ur Betriebswirte Vorlesung 9"

Copied!
23
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Statistik II f¨ ur Betriebswirte Vorlesung 9

Dr. Andreas W¨ unsche

TU Bergakademie Freiberg Institut f¨ ur Stochastik

9. Dezember 2019

(2)

Einfache lineare Regression durch den Koordinatenursprung

I Bei bestimmten Problemstellungen ist es sinnvoll zu fordern, dass die Regressionsgerade durch den Koordinatenursprung geht. Man spricht dann auch von einer Regression ohne Absolutglied oder einer eigentlich-linearen Regression.

I Man erh¨ alt nun als Modellansatz

Y i = b 1 x i + ε i , i = 1, . . . , n ; als Sch¨ atzung f¨ ur den Parameter b 1

b ˆ 1 =

n

P

i=1

x i y i

n

P

i=1

x i 2

und als Sch¨ atzung f¨ ur die Varianz der zuf¨ alligen Fehler ˆ

σ 2 = 1

n − 1

n

X

i=1

(y i − y ˆ i ) 2 mit y ˆ i = ˆ b 1 x i .

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 2

(3)

Regressionsgerade ohne Absolutglied im Beispiel 7.1

(4)

Transformationen auf Linearit¨ at

I Ist die gesuchte Abh¨ angigkeitsfunktion eine nichtlineare Funktion (eine Gerade ist schlecht an die Daten anpassbar), kann man mitunter durch geeignete Variablentransformationen die Aufgabenstellung in eine der einfachen linearen Regression transformieren. Diese ist dann aber nicht ¨ aquivalent zur urspr¨ unglichen Aufgabenstellung.

I Nichtlineare, in lineare transformierbare Funktionen sind z.B.

y = αx β ⇒ ln y = ln α + β ln x y = αe βx ⇒ ln y = ln α + β x y = (α + βx) −1 ⇒ y −1 = α + βx y = x(α + βx) −1 ⇒ y −1 = αx −1 + β y = αe β/x ⇒ ln y = ln α + β x −1 y = α + βe −x −1

⇒ y −1 = α + βe −x

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 4

(5)

7.2. Multiple parameterlineare Regression

I Im Folgenden soll die Abh¨ angigkeit eines Regressanden (einer Wirkungsgr¨ oße oder einer endogenenen Variablen) Y von mehreren Regressoren (Einflussgr¨ oßen oder exogenen Variablen) X 1 , . . . , X k beschrieben werden, d.h. es soll gelten

Y ≈ f (X 1 , . . . , X k ) mit einer geeigneten Funktion f : R k → R .

I Wir werden gr¨ oßtenteils wieder annehmen, dass die Regressoren deterministisch sind (z.B. mit exakt einstellbaren Werten), und dies durch kleine Buchstaben x 1 , . . . , x k in den Gleichungen

kennzeichnen.

I Man erh¨ alt dann als Modellgleichung

Y (x 1 , . . . , x k ) = f (x 1 , . . . , x k ) + ε

mit einem zuf¨ alligen Fehler ε .

(6)

Parameterlineare Ans¨ atze

I H¨ aufig werden bei solchen Aufgabenstellungen parameterlineare Ans¨ atze verwendet, d.h. man setzt eine Beziehung

Y (x 1 , . . . , x k ) = a 1 f 1 (x 1 , . . . , x k ) + . . . + a r f r (x 1 , . . . , x k ) + ε mit speziell gew¨ ahlten, bekannten Funktionen f 1 , . . . , f r und zu bestimmenden Koeffizienten (Parametern) a 1 , . . . , a r (die linear in die Gleichung eingehen) voraus.

I Die einfache lineare Regression mit der Modellgleichung Y (x) = b 0 + b 1 x + ε

ist ein Spezialfall davon, dort gelten k = 1 , r = 2 , f 1 (x) = 1 , f 2 (x) = x , a 1 = b 0 , a 2 = b 1 .

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 6

(7)

Beispiele f¨ ur parameterlineare Ans¨ atze

I Im eigentlich nichtmultiplen Fall k = 1 (nur eine Einflussgr¨ oße) gilt bei der quadratischen Regression

Y (x) = b 0 + b 1 x + b 2 x 2 + ε

und allgemeiner bei der polynomialen Regression vom Grade m Y (x) = b 0 + b 1 x + . . . + b m x m + ε .

I Der k−faktorielle Ansatz ohne Wechselwirkungen Y (x 1 , . . . , x k ) = b 0 + b 1 x 1 + . . . + b k x k + ε wird zur Bestimmung der Ausgleichsebene (f¨ ur die ebene Regression) genutzt.

I Bemerkung: Eine Gleichung der Form y = b 0 + b 1 x 1 + . . . + b k x k

definiert eine (Hyper-)Ebene im (k + 1)−dimensionalen Raum von

Punkten mit Koordinaten (x 1 , . . . , x k , y) .

(8)

Weitere Beispiele f¨ ur parameterlineare Ans¨ atze

I Als Beispiel eines k−faktoriellen Ansatzes mit Wechselwirkungen werde hier noch der Fall einer multiplen quadratischen Regression vorgestellt:

Y (x 1 , . . . , x k ) = b 0 + b 1 x 1 + . . . + b k x k

+ b 12 x 1 x 2 + . . . + b k−1,k x k−1 x k + b 11 x 1 2 + . . . + b kk x k 2

+ ε.

I Auch h¨ ohere Polynomgrade oder andere Funktionen der Variablen x 1 , . . . , x k sind m¨ oglich und werden auch verwendet.

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 8

(9)

Regressionsansatz in Vektorschreibweise

I Es ist vorteilhaft, die Vektorschreibweise zu nutzen. Es seien

x = (x 1 , . . . , x k ) T =

 x 1

.. . x k

 , a = (a 1 , . . . , a r ) T =

 a 1

.. . a r

 ,

f (x) = (f 1 (x), . . . , f r (x)) T =

 f 1 (x)

.. . f r (x)

 .

I Der parameterlineare Ansatz kann dann geschrieben werden als

Y (x) = a T f (x) + ε , (1)

wobei die Definition der Multiplikation von Vektoren (als Spezialfall

der Matrixmultiplikation oder als Skalarprodukt) genutzt wird.

(10)

Die Methode der kleinsten Quadrate

I Sind die (zufallsbeeinflussten)

” Wirkungen“ y i f¨ ur i = 1, . . . , n an den ” Einflussstellen“ x i = (x 1i , . . . , x ki ) T durch Messungen

bestimmt worden, kann man mit Hilfe der Methode der kleinsten Quadrate eine geeignete Sch¨ atzung ˆ a des Vektors a der Regressionskoeffizienten im parameterlinearen Ansatz (1) finden.

I Die Sch¨ atzung ˆ a ist ein Vektor von Regressionskoeffizienten a , f¨ ur den

n

X

i=1

y i − a T f (x i ) 2

minimal wird.

I Die gesch¨ atzte Regressionsfunktion ist dann ˆ

y(x) = ˆ a 1 f 1 (x) + . . . + ˆ a r f r (x) = ˆ a T f (x) = f (x) T ˆ a .

I Im Weiteren genutzte Bezeichnungen sind y = (y 1 , . . . , y n ) T und

F = (f (x 1 ), . . . , f (x n )) T =

f 1 (x 1 ) . . . f r (x 1 ) .. . . .. .. . f 1 (x n ) . . . f r (x n )

 .

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 10

(11)

Das Normalgleichungssystem

I Die Sch¨ atzung ˆ a des Vektors a der Regressionskoeffizienten kann dann mit Hilfe des sogenannten Normalgleichungssystems gefunden werden:

F T F a ˆ = F T y . (2)

Dies ist ein lineares Gleichungssystem zur Bestimmung der Komponenten von ˆ a .

I Ist die Matrix F T F regul¨ ar, dann ist (2) eindeutig aufl¨ osbar und es gilt

ˆ a =

F T F

−1

F T y . (3)

(12)

Eigenschaften der Sch¨ atzung

I Unter der Annahme, dass die beobachteten Werte y i

Realisierungen der Zufallsgr¨ oßen

Y i = a 1 f 1 (x i ) + . . . + a r f r (x i ) + ε i

sind, wobei die zuf¨ alligen Fehler ε i unabh¨ angige normalverteilte Zufallsgr¨ oßen mit Erwartungswert 0 und konstanter Varianz σ 2 sind, ist die Sch¨ atzung ˆ a aus (3) erwartungstreu und konsistent.

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 12

(13)

Beispiel 7.2 Jahresumsatz

I Fortsetzung Beispiel 6.4 (und 7.1)

Daten aus Bleym¨ uller et al , Statistik f¨ ur Wirtschaftswissenschaftler, 2004, Kap. 20 .

I i Filiale

x 1i Verkaufsfl¨ ache in Tsd. qm

x 2i Passantenfrequenz in Tsd. Passanten pro Tag y i Jahresumsatz in Mio. e

i 1 2 3 4 5 6

x 1i 0.31 0.98 1.21 1.29 1.12 1.49 x 2i 10.24 7.51 10.81 9.89 13.72 13.92

y i 2.93 5.27 6.85 7.01 7.02 8.35

i 7 8 9 10 11 12

x 1i 0.78 0.94 1.29 0.48 0.24 0.55

x 2i 8.54 12.36 12.27 11.01 8.25 9.31

y i 4.33 5.77 7.68 3.16 1.52 3.15

(14)

Fortsetzung Beispiel 7.2 Jahresumsatz

I Wir w¨ ahlen als Ansatz mit x = (x 1 , x 2 ) T

Y (x ) = a 1 + a 2 x 1 + a 3 x 2 + ε = (a 1 , a 2 , a 3 )

 1 x 1 x 2

 + ε.

I Dann erh¨ alt man

F T =

1 1 1 . . .

0.31 0.98 1.21 . . .

10.24 7.51 10.81 . . .

 ,

F T F =

12.00 10.68 127.83 10.68 11.41 118.97 127.83 118.97 1410.14

 ,

ˆ

a T = (−0.83 , 4.74 , 0.175) und so y ˆ (x 1 , x 2 ) = −0.83 + 4.74 x 1 + 0.175 x 2

als gesch¨ atzte Regressionsfunktion.

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 14

(15)

Beispiel 7.2 in Statgraphics

Multiple Regression - Jahresumsatz

Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value

Model 52,8765 2 26,4383 384,18 0,0000

Residual 0,619359 9 0,0688177 Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

Multiple Regression - Jahresumsatz

Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value

Model 52,8765 2 26,4383 384,18 0,0000

Residual 0,619359 9 0,0688177 Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 15

(16)

Streuungszerlegung und Bestimmtheitsmaß

I Wie im Fall der einfachen linearen Regression gilt f¨ ur den parameterlinearen Ansatz die Quadratsummenzerlegung (Streuungszerlegung) SST = SSE + SSR (bei Sch¨ atzung der Regressionskoeffizienten mit der Methode der kleinsten Quadrate).

I Dabei sind wieder SST =

n

X

i =1

(y i − y ) 2 , die Totalvariabilit¨ at (Totalvarianz);

SSE =

n

X

i=1

(ˆ y i − y) 2 , die

” erkl¨ arte“ Variabilit¨ at (erkl¨ arte Varianz);

SSR =

n

X

i=1

(y i − y ˆ i ) 2 , die Restvariabilit¨ at (Restvarianz).

I Das Bestimmtheitsmaß ist B = SSE

SST = 1 − SSR

SST = r Y 2 |(f

1

(X ),...,f

r

(X )) .

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 16

(17)

Streuungszerlegung und Bestimmtheitsmaß im Beispiel 7.2 in Statgraphics

Multiple Regression - Jahresumsatz Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value Model 52,8765 2 26,4383 384,18 0,0000 Residual 0,619359 9 0,0688177

Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

Multiple Regression - Jahresumsatz Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value

Model 52,8765 2 26,4383 384,18 0,0000

Residual 0,619359 9 0,0688177 Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331 I SSE = 52.8765

I SSR = 0.619359

I SST = 53.4959

I

B = SSE

SST = 52.8765

53.4959 = 0.9884215

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 17

(18)

Sch¨ atzung der Fehlervarianz

I Eine konstante Varianz der zuf¨ alligen Fehler ε i (und damit der Zufallsgr¨ oßen Y (x i ) kann analog zum Fall der einfachen linearen Regression durch

ˆ

σ 2 = s Rest 2 = SSR n − r

gesch¨ atzt werden. Der Nenner n − r ist durch die Sch¨ atzung von r Parametern bedingt.

I Im Beispiel 7.2:

ˆ

σ 2 = s Rest 2 = SSR

n − r = 0.619359

12 − 3 = 0.0688177 ˆ

σ =

0.0688177 = 0.262331

I Statgraphics im Beispiel 7.2:

Multiple Regression - Jahresumsatz

Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value Model 52,8765 2 26,4383 384,18 0,0000 Residual 0,619359 9 0,0688177

Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

Multiple Regression - Jahresumsatz

Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value

Model 52,8765 2 26,4383 384,18 0,0000

Residual 0,619359 9 0,0688177 Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 18

(19)

Konfidenzsch¨ atzungen I

I F¨ ur die folgenden Aussagen zu Konfidenzsch¨ atzungen und Tests setzen wir wieder voraus, dass die zuf¨ alligen Fehler ε i unabh¨ angige normalverteilte Zufallsgr¨ oßen mit Erwartungswert 0 und konstanter Varianz σ 2 sind.

I Mit m i wird das i−te Diagonalelement der Matrix (F T F ) −1 bezeichnet.

I Die Sch¨ atzung f¨ ur die Varianz von ˆ a i ist damit: s a 2

i

= s Rest 2 m i .

I Konfidenzintervall zum Niveau 1 − α f¨ ur die Komponente a i von a : I =

ˆ

a i − s a

i

t n−r ;1−α/2 ; ˆ a i + s a

i

t n−r ;1−α/2 , .

I Konfidenzintervall zum Niveau 0.95 f¨ ur a 3 (vgl. Folie 15):

ˆ

a 3 = 0.175 ; s a

3

= 0.0448676 ;

t 9;0.975 = 2.26 ⇒ I = [ 0.074; 0.276 ] .

(20)

Konfidenzsch¨ atzungen II

I Ein Konfidenzintervall f¨ ur die Fehlervarianz σ 2 ist

"

(n − r )ˆ σ 2

χ 2 n−r ;1−α/2 ; (n − r)ˆ σ 2 χ 2 n−r;α/2

#

=

"

SSR

χ 2 n−r ;1−α/2 ; SSR χ 2 n−r;α/2

# .

I Konfidenzintervall zum Niveau 1 − α f¨ ur die Regressionsfunktion f (x) T a :

I =

f (x) T a ˆ − t n−r ;1−α/2

q

s Rest 2 f (x) T (F T F ) −1 f (x) ; f (x) T a ˆ + t n−r ;1−α/2

q

s Rest 2 f (x) T (F T F ) −1 f (x)

.

I Auch Prognoseintervalle k¨ onnen konstruiert werden.

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 20

(21)

t− Test f¨ ur einzelne Parameter

I Hypothesen: H 0 : a i = a (0) i , H A : a i 6= a (0) i .

I Testgr¨ oße: T = a ˆ i − a (0) i s a

i

.

Diese Testgr¨ oße ist unter H 0 t−verteilt mit n − r Freiheitsgraden.

I Kritischer Bereich zum Niveau α : K = {t ∈ R : |t| > t n−r ;1−α/2 } .

I Analog k¨ onnen einseitige Tests durchgef¨ uhrt werden.

I Test mit H 0 : a 3 = 0 , H A : a 3 6= 0 , α = 0.05 im Beispiel 7.2.

t = 0.175

0.0448676 = 3.9 > 2.26 = t 9;0.975

⇒ H 0 wird abgelehnt, d.h. der Koeffizient a 3 (der die

Abh¨ angigkeit des Umsatzes von der Passantenfrequenz beschreibt)

ist signifikant verschieden von 0 .

(22)

F − Test f¨ ur das Modell (Varianzanalyse)

I Wir setzen voraus, dass f 1 (x) = 1 gilt, d.h. a 1 die Konstante im Modell ist.

I Hypothesen: H 0 : a 2 = . . . = a r = 0 , H A : a i 6= 0 f¨ ur ein i > 1 .

I Testgr¨ oße: T = MSE

MSR mit MSE = SSE

r − 1 , MSR = SSR n − r . Diese Testgr¨ oße ist unter H 0 F −verteilt mit (r − 1; n − r ) Freiheitsgraden.

I Kritischer Bereich zum Niveau α : K = {t ∈ R : t > F r −1;n−r ;1−α } .

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 22

(23)

t− und F −Tests in Statgraphics im Beispiel 7.2

t−Test f¨ ur a 3 hervorgehoben:

Multiple Regression - Jahresumsatz

Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value

Model 52,8765 2 26,4383 384,18 0,0000

Residual 0,619359 9 0,0688177 Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

Multiple Regression - Jahresumsatz

Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value

Model 52,8765 2 26,4383 384,18 0,0000

Residual 0,619359 9 0,0688177 Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

F −Test:

Multiple Regression - Jahresumsatz Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value

Model 52,8765 2 26,4383 384,18 0,0000

Residual 0,619359 9 0,0688177 Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

Multiple Regression - Jahresumsatz Dependent variable: Jahresumsatz (Mio Euro) Independent variables:

Verkaufsfläche (1000 qm) Passantenfrequenz (1000/Tag)

Standard T

Parameter Estimate Error Statistic P-Value CONSTANT -0,831946 0,412663 -2,01604 0,0746 Verkaufsfläche 4,74295 0,226498 20,9403 0,0000 Passantenfrequenz 0,174988 0,0448676 3,90009 0,0036

Analysis of Variance

Source Sum of Squares Df Mean Square F-Ratio P-Value Model 52,8765 2 26,4383 384,18 0,0000 Residual 0,619359 9 0,0688177

Total (Corr.) 53,4959 11

R-squared = 98,8422 percent Standard Error of Est. = 0,262331

Dr. Andreas W¨unsche Statistik II f¨ur Betriebswirte Vorlesung 9 Version: 3. Dezember 2019 23

Referenzen

ÄHNLICHE DOKUMENTE

Prädiktoren: (Konstante), Anspruch, Lohn, Kreativität, Leistungsstreben, Arbeitsbedingungen, Vielfalt, Lernpotential, Hierarchie, Ehrgeiz ca. Prädiktoren: (Konstante), Anspruch,

I Es k¨ onnen H¨ aufigkeitsangaben verarbeitet werden (wie hier bisher im Beispiel 7.6), aber auch die einzelnen dichotomen Merkmalswerte (0 und 1) direkt.. I Im Folgenden

I Ein ideales Pr¨ ufverfahren (bei dem keine Fehlentscheidungen getroffen werden) w¨ are eine fehlerfreie Totalkontrolle (d.h. eine fehlerfreie Kontrolle aller Teile des Postens)..

I Bisher wurden attributive Stichprobenpl¨ ane behandelt, bei denen nur festgestellt wird, ob die ¨ uberpr¨ uften St¨ ucke brauchbar oder unbrauchbar sind. I Trifft man

I Weiterhin gibt es Kontrollkarten mit Ged¨ achtnis, bei denen eine Entscheidung ¨ uber einen Eingriff auch aufgrund der Ergebnisse vergangener Stichproben getroffen wird. I

I Sind zus¨ atzliche Informationen zu einem Zufallsexperiment verf¨ ugbar (oder werden diese hypothetisch angenommen), k¨ onnen sich die Wahrscheinlichkeiten f¨ ur die zuf¨

I Oft sind Ergebnisse von Zufallsversuchen in Form von Zahlen gegeben oder es ist f¨ ur eine mathematische Behandlung g¨ unstig, den elementaren Versuchsausg¨ angen Zahlen

I Die wichtigste Kenngr¨ oße f¨ ur die Variabilit¨ at von Zufallsgr¨ oßen ist die Varianz der Zufallsgr¨ oße, auch Streuung oder Dispersion genannt.. Diese Eigenschaft gilt aber