Statistische Analyseverfahren
Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Dr. Andreas W¨ unsche
TU Bergakademie Freiberg Institut f¨ur Stochastik
Oktober 2019
2.1 Zufallsvektoren und mehrdimensionale Verteilungen
I
Eine endliche Familie X
1, . . . , X
nvon Zufallsgr¨ oßen kann als ein Zufallsvektor (ZV)
X = (X
1, . . . , X
n)
Tangesehen werden.
I
Eine doppelt indizierte Familie X
ij, i = 1, . . . , n ; j = 1, . . . , m , von Zufallsgr¨ oßen kann als eine Zufallsmatrix (ZM)
X = (X
ij)
i=1,...,n;j=1,...,m= (X
ij) angesehen werden.
I
Zufallsvariable werden hier im Allgemeinen mit Großbuchstaben bezeichnet, z.B. X , deren Realisierungen durch Angabe von ω oder durch Kleinbuchstaben, z.B. X(ω) = x .
I
Vektoren werden hier durch einen Unterstrich, Matrizen durch zwei
Unterstriche gekennzeichnet.
Bezeichnungen aus der linearen Algebra
I
Verwendet werden ¨ ubliche Bezeichnungen aus der linearen Algebra.
I
Vektoren werden als Spaltenvektoren angesehen, ·
Tbezeichnet die Transponierung eines Vektors oder einer Matrix.
I
0
n, 0
n×m. . . n−dim. Nullvektor, Nullmatrix vom Typ n × m .
I
1
n, 1
n×m. . . n−dim. Vektor bzw. n × m−Matrix aus Einsen.
I
Analog ∞
n, −∞
n= −∞
n.
I
M
n×m, M
n. . . Menge aller n × m− bzw. n × n−Matrizen.
I
M
≥n, M
>n. . . Menge aller positiv semidefiniten bzw. positiv definiten n × n−Matrizen,
∀ 0 6= x ∈ R
n: x
Ta x ≥ 0 (a ∈ M
≥n) bzw. x
Ta x > 0 (a ∈ M
>n) .
I
I
n. . . n × n−Einheitsmatrix.
I
k · k bezeichnet die euklidische Norm.
Verteilung eines Zufallsvektors
I
Ein Zufallsvektor X wird im Allgemeinen durch seine Verteilung gegeben.
I
Die Verteilung P
Xeines n-dimensionalen Zufallsvektors X
definiert die Wahrscheinlichkeiten daf¨ ur, dass die Realisierungen des Zufallsvektors in geeigneten Teilmengen des R
nliegen,
P
X(B) = P (X ∈ B), B ⊆ R
n, geeignet.
I
Analog kann die Verteilung einer n × m−Zufallsmatrix f¨ ur geeignete Teilmengen des Raumes R
n·mgenutzt werden. Formal kann dies durch die Vektorisierung der Matrix realisiert werden
(Hintereinanderschreiben der Spalten der Matrix zu einem langen
Spaltenvektor).
Definition Verteilungsfunktion n−dim. Zufallsvektor
I
Bez.
x = (x
1, . . . , x
n)
T< y = (y
1, . . . , y
n)
T, falls x
i< y
if¨ ur i = 1, . . . , n ;
x = (x
1, . . . , x
n)
T≤ y = (y
1, . . . , y
n)
T, falls x
i≤ y
if¨ ur i = 1, . . . , n .
I
F¨ ur einen n−dimensionalen Zufallsvektor X wird die Verteilung eindeutig durch die zugeh¨ orige Verteilungsfunktion F
X: R
n→ [0, 1]
definiert:
F
X(x) = P
X((−∞
n, x)) = P (X < x) , x ∈ R
n.
I
Bem.
Oft wird die Verteilungsfunktion von X auch definiert durch
F ˜
X(x) = P
X((−∞
n, x]) = P (X ≤ x) , x ∈ R
n.
Eigenschaften Verteilungsfunktion n−dim. Zufallsvektor
I
Bez.: f¨ ur i ∈ {1, . . . , n} , a < b ∈ R sei
∆
i;a,bF
X(x) :=
F
X(x
1, . . . x
i−1, b, x
i+1, . . . , x
n) − F
X(x
1, . . . x
i−1, a, x
i+1, . . . , x
n) .
I
Eine Verteilungsfunktion F
Xbesitzt die Eigenschaften
(i) lim
xi→−∞,i∈{1,...,n}
F
X(x) = 0 ; lim
xi→∞,i=1,...,n
F
X(x) = 1 ; (ii) f¨ ur beliebige a < b gilt
∆
1;a1,b1. . . ∆
n;an,bnF
X(x) ≥ 0 , = P
X([a, b))
⇒ F
Xist monoton nichtfallend bez¨ uglich jeder Variablen;
(iii) F
Xist linksseitig stetig bzgl. aller Variablen, d.h. aus x
(k)↑ x folgt
F
X(x
(k)) ↑ F
X(x) , k → ∞ .
Verteilungsdichte eines n−dimensionalen Zufallsvektors
I
F¨ ur absolut stetige Zufallsvektoren wird die Verteilung auch eindeutig durch die Verteilungsdichte (auch Dichtefunktion) f
X: R
n→ R gegeben:
F
X(x) = P (X < x) = Z
x−∞n
f
X(u) du , x ∈ R
n.
I
Eigenschaften von Dichtefunktionen (etwas vereinfacht):
I
f¨ ur alle x ∈ R
n: f
X(x) ≥ 0 ;
I
Z
Rn
f
X(x) dx = 1 .
I
Dann gilt f¨ ur geeignete B ⊆ R
nP (X ∈ B) = Z
B
f
X(x) dx .
I
Die Dichtefunktion wird im statistischen Kontext, inbesondere bei
unbekannten Parametern und einer gegebenen Realisierung
(Stichprobe) als Likelihood-Funktion bezeichnet.
Dichte einer zweidimensionalen Normalverteilung
H¨ ohenlinien einer zweidimensionalen
Normalverteilungsdichte
Randverteilungen
I
Die Verteilungsfunktion eines Teilvektors eines Zufallsvektors (die Randverteilungsfunktion) kann mit Hilfe der Verteilungsfunktion des Zufallsvektors berechnet werden.
I
Bsp.: X = (X
1, . . . , X
n)
T⇒
∀ x
1∈ R : F
X1(x
1) = P (X
1< x
1) = F
X(x
1, ∞, . . . , ∞) .
I
Analoges gilt im Fall von absolut stetigen Zufallsvektoren f¨ ur die Randverteilungsdichten.
I
Bsp.: X = (X
1, . . . , X
n)
T⇒ (etwas vereinfacht)
∀ x
1∈ R : f
X1(x
1) = Z
Rn−1
f
X(x
1, x
2, . . . , x
n) dx
2. . . dx
n.
I
Aus den Randverteilungsfunktionen bzw. -dichten kann man nur in
Spezialf¨ allen die Verteilungsfunktion bzw. -dichte des gesamten
Zufallsvektors bestimmen.
Satz von Cram´ er-Wold
Satz von Cram´ er-Wold
Die Verteilung des n−dimensionalen Zufallsvektors X ist vollst¨ andig
bestimmt durch die Familie der (eindimensionalen) Verteilungen der
Zufallsgr¨ oßen t
TX , wobei t die Menge R
ndurchl¨ auft.
Erwartungswert eines Zufallsvektors
I
Erwartungswerte von Zufallsvektoren und Zufallsmatrizen werden komponentenweise definiert und existieren, falls von jeder
Komponente der skalare Erwartungswert existiert.
I
Erwartungswert des Zufallsvektors X = (X
1, . . . , X
n)
T: E X := ( E X
1, . . . , E X
n)
T.
I
Erwartungswert der Zufallsmatrix X = (X
ij) :
E X := ( E X
ij) .
Kovarianzmatrix eines Zufallsvektors
I
Ein Analogon der Varianz f¨ ur Zufallsvektoren, deren Komponenten endliche zweite Momente besitzen, ist die Kovarianzmatrix (oder auch Varianz-Kovarianz-Matrix) des Zufallsvektors.
I
Kovarianzmatrix des Zufallsvektors X = (X
1, . . . , X
n)
T: VarX := E
h
[X − EX] [X − EX]
Ti
.
I
Auf der Hauptdiagonale der Kovarianzmatrix von X stehen die Varianzen V arX
ider Komponenten, an der Stelle (i , j ) , i 6= j , jeweils die Kovarianz der Zufallsgr¨ oßen X
iund X
j: C ov[X
i, X
j] .
I
Eigenschaften einer Kovarianzmatrix Σ = V arX
I
Σ = Σ
T(Σ ist symmetrisch) ;
I
∀ x ∈ R
n: x
TΣ x ≥ 0 (Σ ist positiv semidefinit) .
Korrelationsmatrix eines Zufallsvektors
I
Gilt f¨ ur alle Komponenten eines Zufallsvektors X = (X
1, . . . , X
n)
T0 < V arX
i< ∞ , kann man die Korrelationsmatrix definieren:
CorrX := (Corr[X
i, X
j])
i,j=1,...,nmit Corr[X
i, X
j] := C ov[X
i, X
j]
p V arX
iV arX
j.
I
Die Elemente auf der Hauptdiagonale sind 1, das Element an der Stelle (i, j ) ist der Korrelationskoeffizient von X
iund X
j.
I
Die Korrelationsmatrix des Zufallsvektors X = (X
1, . . . , X
n)
Tist die Kovarianzmatrix der standardisierten Komponenten von X .
I
Es gilt immer −1 ≤ C orr[X
i, X
j] ≤ 1 .
I
Im Fall von | Corr[X
i, X
j] | = 1 besteht eine lineare Beziehung
zwischen den Zufallsgr¨ oßen X
iund X
j.
Kreuzkovarianz zweier Zufallsvektoren
I
Sind X = (X
1, . . . , X
n)
Tund Y = (Y
1, . . . , Y
m)
Tzwei Zufallsvektoren, deren Komponenten endliche zweite Momente besitzen, definiert man die Kreuzkovarianzmatrix dieser
Zufallsvektoren als n × m−Matrix C ov[X, Y] := E
h
[X − E X] [Y − E Y]
Ti .
I
An der Stelle (i , j ) der Kreuzkovarianzmatrix steht die Kovarianz Cov[X
i, Y
j] der Zufallsgr¨ oßen X
iund Y
j.
I
F¨ ur einen Zufallsvektor X gilt V arX = C ov[X, X] =: C ovX .
I
Es gilt Cov[X, Y] = Cov[Y, X]
T.
I
Analog kann man die Kreuzkorrelationsmatrix C orr[X, Y] zweier Zufallsvektoren X und Y definieren.
I
Gilt C ov[X, Y] = 0
n×m, nennt man X und Y unkorreliert.
Eigenschaften bei linearen Operationen I
I
Geg.: X , Y n−dim. ZV, E kXk < ∞ , E kYk < ∞ .
I
a, b ∈ R ⇒ E [aX + bY] = a E X + b E Y ;
I
d ∈ M
m×n, c ∈ R
m⇒ E
d X + c
= d E X + c .
I
Geg.: X n−dim. ZV, E kXk
2< ∞ .
I
V arX = E h
X X
Ti
− ( E X) ( E X)
T;
I
a ∈ R
n⇒ V ar a
TX
= a
TV ar[X] a ;
I
a ∈ M
m×n, b ∈ R
m⇒ V ar
a X + b
= a V ar[X] a
T.
I
Geg.: X
(1), X
(2)n−dim. ZV, Y m−dim. ZV, E kX
(i)k
2< ∞ , i = 1, 2 , E kYk
2< ∞
⇒ C ov h
X
(1)+ X
(2), Y i
= C ov h
X
(1), Y i
+ C ov h
X
(2), Y i
.
Eigenschaften bei linearen Operationen II
I
Geg.: X , Y n−dim. ZV, E kXk
2< ∞ , E kYk
2< ∞
⇒ V ar[X + Y] = V arX + C ov[X, Y] + C ov[Y, X] + V arY .
I
Geg.: X n
1−dim. ZV, Y n
2−dim. ZV, E kXk
2< ∞ , E kYk
2< ∞ , a ∈ M
m1×n1, b ∈ M
m2×n2⇒ C ov
a X, b Y
= a C ov[X, Y] b
T.
Stochastische Unabh¨ angigkeit von Zufallsvektoren
Geg.: X n−dim. ZV, Y m−dim. ZV, Z = (X
T, Y
T)
T.
Die Zufallsvektoren X und Y sind (stochastisch) unabh¨ angig, wenn eine der folgenden ¨ aquivalenten Bedingungen erf¨ ullt ist (Bedingung (iii) nur, falls der (n + m)−dimensionale Zufallsvektor Z (absolut) stetig ist).
(i) ∀ B
1⊆ R
n, ∀ B
2⊆ R
m, geeignet:
P ({X ∈ B
1} ∩ {Y ∈ B
2}) = P (X ∈ B
1) · P (Y ∈ B
2) . (ii) ∀ x ∈ R
n, ∀ y ∈ R
m: F
Z(x, y) = F
X(x) · F
Y(y) . (iii) ∀ x ∈ R
n, ∀ y ∈ R
m: f
Z(x, y) = f
X(x) · f
Y(y) .
Aus der Unabh¨ angigkeit folgt die Unkorreliertheit, falls die zweiten
Momente existieren.
2.2 Mehrdimensionale Normalverteilung (Multinormalverteilung)
I
Def. 2.2.1
Ein m−dimensionaler Zufallsvektor X = (X
1, . . . , X
m)
Tbesitzt eine m−dimensionale Standardnormalverteilung, falls X
i∼ N(0, 1) , i = 1, . . . , m , i.i.d.
I
Bez. X ∼ N
m(0
m, I
m) oder X ∼ N(0
m, I
m) .
I
Satz 2.2.2
Geg.: Zufallsvektor X ∼ N
m(0
m, I
m)
⇒ X ist ein stetiger Zufallsvektor mit Dichtefunktion
f
X(x) = (2π)
−m/2e
−12xTx= (2π)
−m/2e
−12kxk2, x ∈ R
m.
Außerdem gelten E X = 0
mund V arX = I
m.
Dichte der zweidimensionalen Standardnormalverteilung
H¨ ohenlinien der 2-dim. Standardnormalverteilungsdichte
Allgemeine normalverteilte Zufallsvektoren
I
Def. 2.2.3
Ein p−dimensionaler ZV X = (X
1, . . . , X
p)
Tbesitzt eine
p−dimensionale Normalverteilung, falls f¨ ur einen m−dimensionalen standardnormalverteilten Zufallsvektor Z , einen Vektor µ ∈ R
pund eine p × m−Matrix a gilt
X = µ + a Z .
I
Satz 2.2.4
F¨ ur den Zufallsvektor X aus Def. 2.2.3 gelten EX = µ und VarX = a a
T=: Σ .
I
Bez. X ∼ N
p(µ, Σ) oder X ∼ N(µ, Σ) . Man spricht auch von Gaußschen Zufallsvektoren.
I
Bem. Die p × p−Matrix a a
T= Σ ist (z.B. als Kovarianzmatrix)
symmetrisch und positiv semidefinit.
Spektraldarstellung reeller symmetrischer Matrizen
Satz 2.2.5
Ist b eine reelle symmetrische p × p−Matrix, dann kann sie geschrieben werden als
b = Γ Λ Γ
T=
p
X
k=1
λ
kγ
kγ
kT,
wobei Λ die Diagonalmatrix der Eigenwerte von b ist und Γ die zugeh¨ orige orthogonale Matrix, deren Spalten die standardisierten Eigenvektoren enthalten (es gilt Γ Γ
T= Γ
TΓ = I
p).
Ist die Matrix b positiv semidefinit, dann sind alle Eigenwerte nichtnegativ und es gilt
b = Γ Λ
1/2Λ
1/2TΓ
T=
Γ Λ
1/2Γ Λ
1/2T.
Der Rang dieser Matrix ist gleich der Anzahl der Eigenwerte 6= 0 .
Weitere Eigenschaften
I
Satz 2.2.6
Ein p−dimensionaler Zufallsvektor X = (X
1, . . . , X
p)
Tist genau dann normalverteilt, wenn f¨ ur jeden Vektor t ∈ R
pdie skalare Zufallsgr¨ oße t
TX normalverteilt (oder eine Konstante) ist.
I
Satz 2.2.7
Sei X = (X
1, . . . , X
p)
T∼ N
p(µ, Σ) .
(i) F¨ ur b ∈ R
d, a ∈ M
d×pgilt Y := b + a X ∼ N
d(b + a µ, a Σ a
T) . (ii) Jeder Teilvektor bzw. jede Komponente von X ist ein
normalverteilter Zufallsvektor bzw. eine normalverteilte Zufallsgr¨ oße.
I
Bem.
Ist jede Komponente eines Zufallsvektors eine normalverteilte (oder konstante) Zufallsgr¨ oße, dann muss der Zufallsvektor nicht
unbedingt ein normalverteilter Zufallsvektor sein!
Regul¨ ar normalverteilte Zufallsvektoren
Def. und Satz 2.2.8
Gilt f¨ ur einen normalverteilten Zufallsvektor X aus Definition 2.2.3 p = m , V arX = a a
T=: Σ mit det Σ 6= 0 , dann besitzt X eine regul¨ are Normalverteilung N
p(µ, Σ) und X ist ein (absolut) stetiger Zufallsvektor mit Dichtefunktion
f
X(x) = 1 q
(2π)
pdet Σ
e
−12(x−µ)TΣ−1(x−µ), x ∈ R
p.
Der Normierungsfaktor kann auch als det(2πΣ)
−1/2geschrieben
werden, Σ ist eine reelle, symmetrische und positiv definite
p × p−Matrix.
Zweidimensionale regul¨ ar normalverteilte Zufallsvektoren
Spezialfall m = p = 2 , X = (X
1, X
2)
T∼ N
2(µ, Σ) mit µ = (µ
1, µ
2)
T∈ R
2, Σ =
σ
12% σ
1σ
2% σ
1σ
2σ
22, σ
2i= V arX
i> 0 , i = 1, 2 , % = C orr[X
1, X
2] ∈ (−1, 1)
⇒ det Σ = σ
12σ
22(1 − %
2) ,
Σ
−1= 1 det Σ
σ
22−% σ
1σ
2−% σ
1σ
2σ
21! ,
f
(X1,X2)(x
1, x
2) = c · e
−1 2(1−%2)
(x1−µ1)2
σ2 1
−2%(x1−µσ1)(x2−µ2)
1σ2 +(x2−µ2)
2 σ2
2