• Keine Ergebnisse gefunden

3.6 Zusammenfassung

4.1.1 Zufallsvariablen

Eine Zufallsvariable, die in dieser Arbeit in der Form {x}r

geschrieben wird, hat die Eigenschaft, dass sie bei jeder Wiederholung eines Experiments einen anderen Wertxannehmen kann, der nicht vorhersagbar ist. Der Wertx, den eine Zufallsvariable{x}rbei einer be-stimmten Ausführung des Experiments annimmt, wird als Realisierung der Zufallsvariablen bezeichnet1 und auch als

x={x}ωr

geschrieben2, wenn in einem Ausdruck die Realisierungen von Zufallsvariablen deutlich gemacht werden sollen.3

Die Wahrscheinlichkeit, dass eine Realisierungxbzw.{x}ωr einer Zufallsvariablen{x}reinen Wert kleiner oder gleich einer Konstantenaannimmt, wird hier als

P({x}ωra)

geschrieben.4 Falls, was hier meist der Fall ist, mit reellen (und nicht diskreten) Zufallsvariablen mit stetigen Verteilungsfunktionen gearbeitet wird, istP({x}ωr =a) =0und damit gilt auchP({x}ωr <a) = P({x}ωra).

1 Genauer ist die Realisierung der Wert, den die Zufallsvariable bei Eintreten eines bestimmten Elementarereignisses ωannimmt. Und bei verschiedenen Ausführungen eines Experiments kann das gleiche Elementarereignis auftreten.

[HÄNSLER, 2001, S. 15, 19]

2 Zwischen dieser und der Notation von [HÄNSLER, 2001] gilt damit:{x}rx und{x}ωr x(η).

3 Teilweise wird im Fließtext auch „x“ geschrieben, wenn eigentlich die Zufallsvariable{x}rgemeint ist und dies aus dem Kontext hervorgeht.

4 Dies wird hier als etwas kompaktere Schreibweise fürP({ω| {x}ωr a})verwendet.

27

Wahrscheinlichkeitsverteilung

Die Verteilungsfunktion oder kurz Verteilung einer Zufallsvariablen {x}r wird mit F{x}r(x) bezeichnet, wobei das Argument hier nicht eine Realisierung von {x}r, sondern einen bestimmten, vorgegebenen Wert meint. Dieser kann daher natürlich auch anders benannt werden, z. B. F{x}r(a). Die Verteilung F{x}r(a) gibt an, mit welcher Wahrscheinlichkeit eine Realisierung x der Zufallsvariablen {x}r einen Wert annimmt, der kleiner oder gleichaist,

F{x}r(a) =P({x}ωra)

[HÄNSLER, 2001, S. 21]. In Abbildung 4.1a sind die Verteilungsfunktionen für die Standardnormalvertei-lung und für eine GleichverteiStandardnormalvertei-lung auf dem Intervall[−1, 3]dargestellt.

−4 −2 2 4

0,5 1

x Φ(x),FG(1, 2)(x) ΦFG(1, 2)

(a)Verteilungsfunktionen −4 −2 2 4

0,5

x ϕ(x), fG(1, 2)(x) ϕ

fG(1, 2)

(b)Verteilungsdichtefunktionen

Abbildung 4.1:StandardnormalverteilungΦ∼N(0, 1)und GleichverteilungG(1, 2) Die Verteilungsdichtefunktion ist die Ableitung der Verteilungsfunktion,

f{x}r(x) = dF{x}r(x) dx

[HÄNSLER, 2001, S. 22]. In Abbildung 4.1b sind die Verteilungsdichtefunktionen zu den Verteilungen aus Abbildung 4.1a gezeigt.

Besitzen zwei Zufallsvariablen{x}rund{y}r die gleiche Verteilung, so wird dies hier über {x}r∼ {y}r

ausgedrückt. Dagegen soll die Schreibweise {x}r={y}r

bedeuten, dass für jedes Experiment bzw. jedes Elementarereignis die Realisierungen {x}ωr und {y}ωr von {x}r bzw.{y}r den gleichen Wert annehmen, d. h.{x}ωr ={y}ωrω. Damit impliziert {x}r ={y}r

auch{x}r∼ {y}r.

Gemeinsame Verteilungen

Betrachtet man zwei Zufallsvariablen{x}r und{y}r, so kann man eine gemeinsame Verteilung F{x}r,{y}r(x, y) =P(({x}ωr <x)∧({y}ωr < y))

angeben. Für die gemeinsame Verteilungsdichte gilt f{x}r,{y}r(x, y) = 2F{x}r,{y}r(x, y)

∂x∂ y .

Integriert man über eine der Variablen, so erhält man die Randdichte der anderen Variablen, f{x}r(x) =

Z

−∞

f{x}r,{y}r(x, y)·dy. [HÄNSLER, 2001, S. 25ff]

Erwartungswert

Der Erwartungswert ist der Mittelwert aller Realisierungen und kann über E{x}r=

Z

−∞

x·f{x}r(x)·dx

berechnet werden [HÄNSLER, 2001, S. 34]. In dieser Arbeit wird der Erwartungswert teils auch mit µx=E{x}r

abgekürzt.

Eine wesentliche Eigenschaft der Erwartungswertbildung ist, dass diese linear ist, d. h. mit zwei beliebi-gen Zufallsvariablen{x}rund{y}r sowie der Konstantenagilt

E{ax}r=a·E{x}r

und

E{x+y}r=E{x}r+E{y}r

[HÄNSLER, 2001, S. 35], [HOFFMANNet al., 2006, S. 706ff]. Hierbei ist hervorzuheben, dass diese Bezie-hungen immer gelten, unabhängig davon, welche Verteilungen{x}r und{y}r besitzen, oder in welcher Beziehung diese zueinander stehen.

Varianz

Die Varianz einer Zufallsvariablen{x}r ist über Var{x}r=E{(x−E{x}r)2}r

definiert. Es wird in dieser Arbeit für die Varianz auch häufig die Abkürzung Var{x}r=σ2x

verwendet. [RINNE, 2008, S. 191]

Betrachtet man zwei Zufallsvariablen{x}r und{y}r, so kann auch die Kovarianz Cov({x}r,{y}r) =E{(x−E{x}r)·(y−E{y}r)}r

definiert werden.

Für die Varianz der Zufallsvariablen{ax}r und{x+y}r ergibt sich damit Var{ax}r=a2·Var{x}r

und

Var{x+y}r=Var{x}r+Var{y}r+2·Cov({x}r,{y}r). [RINNE, 2008, S. 191]5

5 Var{ax}r=E{(axx)2}r=a2·E{(xµx)2}r=a2·Var{x}r

Var{x+y}r=E{(x+yµxµy)2}r=E{(x−µx)2+(y−µy)2+2·(x−µx)·(y−µy)}r=Var{x}r+Var{y}r+2·Cov({x}r,{y}r)

4.1 Stochastik 29

Unkorrelierte und unabhängige Variablen

Kann man die Erwartungswertbildung und die Multiplikation zweier Zufallsvariablen {x}r und {y}r

vertauschen,

E{x·y}r=E{x}r·E{y}r,

so nennt man{x}r und{y}r unkorreliert. [HÄNSLER, 2001, S. 39]

Aus dieser Festlegung folgt, dass für unkorrelierte Zufallsvariablen {x}r und {y}r die Kovarianz ver-schwindet,Cov({x}r,{y}r) =0. Damit folgt weiter

Var{x+y}r=Var{x}r+Var{y}r. Der Korrelationskoeffizient ist über

%xy= Cov({x}r,{y}r) pVar{x}r·Var{y}r

gegeben und ist Null, wenn{x}r und{y}r unkorreliert sind. Sind beide Zufallsvariablen ideal (negativ) korreliert, so ist der Korellationskoeffizient 1 (bzw.−1). [HÄNSLER, 2001, S. 41f]

Zwei Zufallsvariablen werden statistisch unabhängig genannt, wenn f{x}r,{y}r(x, y) = f{x}r(xf{y}r(y)

gilt. Unabhängigkeit ist eine stärkere Eigenschaft als Unkorreliertheit, d. h. zwei unabhängige Zufallsva-riablen sind immer unkorreliert, die Umkehrung gilt aber nicht. [HÄNSLER, 2001, S. 28, 39]

Normalverteilung

Die NormalverteilungN(µ,σ2)wird über deren Erwartungswertµund Varianzσ2 vollständig beschrie-ben. Deren Verteilungs- und Dichtefunktion sind in Anhang A.1 angegebeschrie-ben.

Für die Verteilungs- und Dichtefunktion einer Normalverteilung werden auch die Schreibweisen Φ(x; µ,σ2) =FN(µ,σ2)(x) und ϕ(x; µ,σ2) = fN(µ,σ2)(x)

verwendet. Eine besondere Stellung nimmt die StandardnormalverteilungN(0, 1)ein, bei der auch kurz

Φ(x) = FN(0, 1)(x) und ϕ(x) = fN(0, 1)(x)

geschrieben wird.

Eine wesentliche Eigenschaft der Normalverteilung ist, dass das Produkt einer normalverteilten Zufalls-variablen mit einer Konstanten sowie die Summe von zwei normalverteilten ZufallsZufalls-variablen jeweils wieder eine normalverteilte Zufallsvariable ergibt [HÄNSLER, 2001, S. 98]. Mit den oben angegebenen allgemeinen Beziehungen für den Erwartungswert und die Varianz ergibt sich Folgendes:

• Wenn{x}r∼N(µx,σ2x), dann gilt

{a·x}r∼N(a·µx,a2·σ2x). (4.1)

• Wenn{x}r∼N(µx,σ2x)und{y}r∼N(µy,σ2y), dann gilt {x+y}r∼N(µx+µz,σ2x+2σxσyρxy+σy2),

mit dem Korrelationskoeffizientenρxy. Für unkorrelierte Zufallsvariablen giltρxy=0und damit

{x+y}r∼N(µx+µz,σ2x+σ2y). (4.2)

Gleichverteilung

Bei einer Gleich- oder Rechtecksverteilung{x}r∼G(µ,∆)kannx nur Werte im Intervall[µ−∆,µ+ ∆]

annehmen, wobei die Wahrscheinlichkeitsdichte innerhalb dieses Intervalls konstant ist. [RINNE, 2008, S. 237]

In dem in Abbildung 4.1 dargestellten Beispiel ist{x}r∼G(1, 2), und damit hat die Wahrscheinlichkeits-dichte im Intervall[−1, 3]den konstanten Wert1/4, und sie ist Null außerhalb dieses Intervalls.

Bedingte Verteilungen

Es seien die Zufallsvariablen{x}rund{y}r gegeben, die im Allgemeinen korreliert sind. Wenn die Vertei-lung von{x}rbetrachtet wird, die unter der Bedingung vorliegt, dass die Realisierung der Zufallsvariable {y}r den (festen) Wert y0 annimmt, so wird diese Verteilung ausführlich als

{x|{y}ωr = y0}r

bezeichnet. Um eine etwas kürzere Notation zu erhalten und da Verwechselungen hier ausgeschlossen sind, wird im Weiteren kurz

{x|y0}r

geschrieben. Dies ist besonders zu beachten, wenn für die Zufallsvariable und Wert der speziellen Reali-sierung derselbe Name verwendet wird, d. h.{x|{y}ωr = y}r={x|y}r.

Für die abkürzenden Schreibweisen für Mittelwerte und Varianzen gilt dieselbe Notation entsprechend, d. h.E{x|y}r=µx|yundVar{x|y}r=σx|y2 .

Die bedingte Dichte der Verteilung{x|y0}r ist über f{x|y0}r= f{x}r,{y}r(x, y0)

f{y}r(y0)

gegeben. Sind{x}r und{y}runabhängig, dann gilt {x|y}r={x}r.

[RINNE, 2008, S. 200]

Vektorielle Zufallsvariablen

Eine vektorielle Zufallsvariable ist zunächst eine einfache Zusammenfassung mehrerer Zufallsvariablen in einem Vektor.

Für einen-dimensionale vektorielle Zufallsvariable{x}r ist die Kovarianzmatrix Cov({x}r,{x}r) =E{(x−E{x}r)·(x−E{x}r)T}r=



Var{x1}r · · · Cov({x1}r,{xn}r)

... ... ...

Cov({xn}r,{x1}r) · · · Var{xn}r



 definiert [BRAMMERund SIFFLING, 1975, S. 142]. FürCov({x}r,{x}r)kann auch kürzer Cov{x}r oder Cxx geschrieben werden. Sind die einzelnen in x zusammengefassten Zufallsvariablen unkorreliert, so ist Cov{x}r eine Diagonalmatrix.

Allgemein kann die Kovarianzmatrix auch für zwei vektorielle Zufallsvariablen angegeben werden, Cov({x}r,{y}r) =E{(x−E{x}r)·(y−E{y}r)T}r=



Cov({x1}r,{y1}r) · · · Cov({x1}r,{ym}r)

... ... ...

Cov({xn}r,{y1}r) · · · Cov({xn}r,{ym}r)



 . Hierbei ist {y}r eine m-dimensionale vektorielle Zufallsvariable. [BRAMMERund SIFFLING, 1975, S. 145]

Eine alternative Schreibweise istCov({x}r,{y}r) =Cxy.

4.1 Stochastik 31