3.6 Zusammenfassung
4.1.1 Zufallsvariablen
Eine Zufallsvariable, die in dieser Arbeit in der Form {x}r
geschrieben wird, hat die Eigenschaft, dass sie bei jeder Wiederholung eines Experiments einen anderen Wertxannehmen kann, der nicht vorhersagbar ist. Der Wertx, den eine Zufallsvariable{x}rbei einer be-stimmten Ausführung des Experiments annimmt, wird als Realisierung der Zufallsvariablen bezeichnet1 und auch als
x={x}ωr
geschrieben2, wenn in einem Ausdruck die Realisierungen von Zufallsvariablen deutlich gemacht werden sollen.3
Die Wahrscheinlichkeit, dass eine Realisierungxbzw.{x}ωr einer Zufallsvariablen{x}reinen Wert kleiner oder gleich einer Konstantenaannimmt, wird hier als
P({x}ωr ≤a)
geschrieben.4 Falls, was hier meist der Fall ist, mit reellen (und nicht diskreten) Zufallsvariablen mit stetigen Verteilungsfunktionen gearbeitet wird, istP({x}ωr =a) =0und damit gilt auchP({x}ωr <a) = P({x}ωr ≤a).
1 Genauer ist die Realisierung der Wert, den die Zufallsvariable bei Eintreten eines bestimmten Elementarereignisses ωannimmt. Und bei verschiedenen Ausführungen eines Experiments kann das gleiche Elementarereignis auftreten.
[HÄNSLER, 2001, S. 15, 19]
2 Zwischen dieser und der Notation von [HÄNSLER, 2001] gilt damit:{x}r⇔x und{x}ωr ⇔x(η).
3 Teilweise wird im Fließtext auch „x“ geschrieben, wenn eigentlich die Zufallsvariable{x}rgemeint ist und dies aus dem Kontext hervorgeht.
4 Dies wird hier als etwas kompaktere Schreibweise fürP({ω| {x}ωr ≤a})verwendet.
27
Wahrscheinlichkeitsverteilung
Die Verteilungsfunktion oder kurz Verteilung einer Zufallsvariablen {x}r wird mit F{x}r(x) bezeichnet, wobei das Argument hier nicht eine Realisierung von {x}r, sondern einen bestimmten, vorgegebenen Wert meint. Dieser kann daher natürlich auch anders benannt werden, z. B. F{x}r(a). Die Verteilung F{x}r(a) gibt an, mit welcher Wahrscheinlichkeit eine Realisierung x der Zufallsvariablen {x}r einen Wert annimmt, der kleiner oder gleichaist,
F{x}r(a) =P({x}ωr ≤a)
[HÄNSLER, 2001, S. 21]. In Abbildung 4.1a sind die Verteilungsfunktionen für die Standardnormalvertei-lung und für eine GleichverteiStandardnormalvertei-lung auf dem Intervall[−1, 3]dargestellt.
−4 −2 2 4
0,5 1
x Φ(x),FG(1, 2)(x) ΦFG(1, 2)
(a)Verteilungsfunktionen −4 −2 2 4
0,5
x ϕ(x), fG(1, 2)(x) ϕ
fG(1, 2)
(b)Verteilungsdichtefunktionen
Abbildung 4.1:StandardnormalverteilungΦ∼N(0, 1)und GleichverteilungG(1, 2) Die Verteilungsdichtefunktion ist die Ableitung der Verteilungsfunktion,
f{x}r(x) = dF{x}r(x) dx
[HÄNSLER, 2001, S. 22]. In Abbildung 4.1b sind die Verteilungsdichtefunktionen zu den Verteilungen aus Abbildung 4.1a gezeigt.
Besitzen zwei Zufallsvariablen{x}rund{y}r die gleiche Verteilung, so wird dies hier über {x}r∼ {y}r
ausgedrückt. Dagegen soll die Schreibweise {x}r={y}r
bedeuten, dass für jedes Experiment bzw. jedes Elementarereignis die Realisierungen {x}ωr und {y}ωr von {x}r bzw.{y}r den gleichen Wert annehmen, d. h.{x}ωr ={y}ωr ∀ω. Damit impliziert {x}r ={y}r
auch{x}r∼ {y}r.
Gemeinsame Verteilungen
Betrachtet man zwei Zufallsvariablen{x}r und{y}r, so kann man eine gemeinsame Verteilung F{x}r,{y}r(x, y) =P(({x}ωr <x)∧({y}ωr < y))
angeben. Für die gemeinsame Verteilungsdichte gilt f{x}r,{y}r(x, y) = ∂2F{x}r,{y}r(x, y)
∂x∂ y .
Integriert man über eine der Variablen, so erhält man die Randdichte der anderen Variablen, f{x}r(x) =
Z ∞
−∞
f{x}r,{y}r(x, y)·dy. [HÄNSLER, 2001, S. 25ff]
Erwartungswert
Der Erwartungswert ist der Mittelwert aller Realisierungen und kann über E{x}r=
Z ∞
−∞
x·f{x}r(x)·dx
berechnet werden [HÄNSLER, 2001, S. 34]. In dieser Arbeit wird der Erwartungswert teils auch mit µx=E{x}r
abgekürzt.
Eine wesentliche Eigenschaft der Erwartungswertbildung ist, dass diese linear ist, d. h. mit zwei beliebi-gen Zufallsvariablen{x}rund{y}r sowie der Konstantenagilt
E{ax}r=a·E{x}r
und
E{x+y}r=E{x}r+E{y}r
[HÄNSLER, 2001, S. 35], [HOFFMANNet al., 2006, S. 706ff]. Hierbei ist hervorzuheben, dass diese Bezie-hungen immer gelten, unabhängig davon, welche Verteilungen{x}r und{y}r besitzen, oder in welcher Beziehung diese zueinander stehen.
Varianz
Die Varianz einer Zufallsvariablen{x}r ist über Var{x}r=E{(x−E{x}r)2}r
definiert. Es wird in dieser Arbeit für die Varianz auch häufig die Abkürzung Var{x}r=σ2x
verwendet. [RINNE, 2008, S. 191]
Betrachtet man zwei Zufallsvariablen{x}r und{y}r, so kann auch die Kovarianz Cov({x}r,{y}r) =E{(x−E{x}r)·(y−E{y}r)}r
definiert werden.
Für die Varianz der Zufallsvariablen{ax}r und{x+y}r ergibt sich damit Var{ax}r=a2·Var{x}r
und
Var{x+y}r=Var{x}r+Var{y}r+2·Cov({x}r,{y}r). [RINNE, 2008, S. 191]5
5 Var{ax}r=E{(ax−aµx)2}r=a2·E{(x−µx)2}r=a2·Var{x}r
Var{x+y}r=E{(x+y−µx−µy)2}r=E{(x−µx)2+(y−µy)2+2·(x−µx)·(y−µy)}r=Var{x}r+Var{y}r+2·Cov({x}r,{y}r)
4.1 Stochastik 29
Unkorrelierte und unabhängige Variablen
Kann man die Erwartungswertbildung und die Multiplikation zweier Zufallsvariablen {x}r und {y}r
vertauschen,
E{x·y}r=E{x}r·E{y}r,
so nennt man{x}r und{y}r unkorreliert. [HÄNSLER, 2001, S. 39]
Aus dieser Festlegung folgt, dass für unkorrelierte Zufallsvariablen {x}r und {y}r die Kovarianz ver-schwindet,Cov({x}r,{y}r) =0. Damit folgt weiter
Var{x+y}r=Var{x}r+Var{y}r. Der Korrelationskoeffizient ist über
%xy= Cov({x}r,{y}r) pVar{x}r·Var{y}r
gegeben und ist Null, wenn{x}r und{y}r unkorreliert sind. Sind beide Zufallsvariablen ideal (negativ) korreliert, so ist der Korellationskoeffizient 1 (bzw.−1). [HÄNSLER, 2001, S. 41f]
Zwei Zufallsvariablen werden statistisch unabhängig genannt, wenn f{x}r,{y}r(x, y) = f{x}r(x)·f{y}r(y)
gilt. Unabhängigkeit ist eine stärkere Eigenschaft als Unkorreliertheit, d. h. zwei unabhängige Zufallsva-riablen sind immer unkorreliert, die Umkehrung gilt aber nicht. [HÄNSLER, 2001, S. 28, 39]
Normalverteilung
Die NormalverteilungN(µ,σ2)wird über deren Erwartungswertµund Varianzσ2 vollständig beschrie-ben. Deren Verteilungs- und Dichtefunktion sind in Anhang A.1 angegebeschrie-ben.
Für die Verteilungs- und Dichtefunktion einer Normalverteilung werden auch die Schreibweisen Φ(x; µ,σ2) =FN(µ,σ2)(x) und ϕ(x; µ,σ2) = fN(µ,σ2)(x)
verwendet. Eine besondere Stellung nimmt die StandardnormalverteilungN(0, 1)ein, bei der auch kurz
Φ(x) = FN(0, 1)(x) und ϕ(x) = fN(0, 1)(x)
geschrieben wird.
Eine wesentliche Eigenschaft der Normalverteilung ist, dass das Produkt einer normalverteilten Zufalls-variablen mit einer Konstanten sowie die Summe von zwei normalverteilten ZufallsZufalls-variablen jeweils wieder eine normalverteilte Zufallsvariable ergibt [HÄNSLER, 2001, S. 98]. Mit den oben angegebenen allgemeinen Beziehungen für den Erwartungswert und die Varianz ergibt sich Folgendes:
• Wenn{x}r∼N(µx,σ2x), dann gilt
{a·x}r∼N(a·µx,a2·σ2x). (4.1)
• Wenn{x}r∼N(µx,σ2x)und{y}r∼N(µy,σ2y), dann gilt {x+y}r∼N(µx+µz,σ2x+2σxσyρxy+σy2),
mit dem Korrelationskoeffizientenρxy. Für unkorrelierte Zufallsvariablen giltρxy=0und damit
{x+y}r∼N(µx+µz,σ2x+σ2y). (4.2)
Gleichverteilung
Bei einer Gleich- oder Rechtecksverteilung{x}r∼G(µ,∆)kannx nur Werte im Intervall[µ−∆,µ+ ∆]
annehmen, wobei die Wahrscheinlichkeitsdichte innerhalb dieses Intervalls konstant ist. [RINNE, 2008, S. 237]
In dem in Abbildung 4.1 dargestellten Beispiel ist{x}r∼G(1, 2), und damit hat die Wahrscheinlichkeits-dichte im Intervall[−1, 3]den konstanten Wert1/4, und sie ist Null außerhalb dieses Intervalls.
Bedingte Verteilungen
Es seien die Zufallsvariablen{x}rund{y}r gegeben, die im Allgemeinen korreliert sind. Wenn die Vertei-lung von{x}rbetrachtet wird, die unter der Bedingung vorliegt, dass die Realisierung der Zufallsvariable {y}r den (festen) Wert y0 annimmt, so wird diese Verteilung ausführlich als
{x|{y}ωr = y0}r
bezeichnet. Um eine etwas kürzere Notation zu erhalten und da Verwechselungen hier ausgeschlossen sind, wird im Weiteren kurz
{x|y0}r
geschrieben. Dies ist besonders zu beachten, wenn für die Zufallsvariable und Wert der speziellen Reali-sierung derselbe Name verwendet wird, d. h.{x|{y}ωr = y}r={x|y}r.
Für die abkürzenden Schreibweisen für Mittelwerte und Varianzen gilt dieselbe Notation entsprechend, d. h.E{x|y}r=µx|yundVar{x|y}r=σx|y2 .
Die bedingte Dichte der Verteilung{x|y0}r ist über f{x|y0}r= f{x}r,{y}r(x, y0)
f{y}r(y0)
gegeben. Sind{x}r und{y}runabhängig, dann gilt {x|y}r={x}r.
[RINNE, 2008, S. 200]
Vektorielle Zufallsvariablen
Eine vektorielle Zufallsvariable ist zunächst eine einfache Zusammenfassung mehrerer Zufallsvariablen in einem Vektor.
Für einen-dimensionale vektorielle Zufallsvariable{x}r ist die Kovarianzmatrix Cov({x}r,{x}r) =E{(x−E{x}r)·(x−E{x}r)T}r=
Var{x1}r · · · Cov({x1}r,{xn}r)
... ... ...
Cov({xn}r,{x1}r) · · · Var{xn}r
definiert [BRAMMERund SIFFLING, 1975, S. 142]. FürCov({x}r,{x}r)kann auch kürzer Cov{x}r oder Cxx geschrieben werden. Sind die einzelnen in x zusammengefassten Zufallsvariablen unkorreliert, so ist Cov{x}r eine Diagonalmatrix.
Allgemein kann die Kovarianzmatrix auch für zwei vektorielle Zufallsvariablen angegeben werden, Cov({x}r,{y}r) =E{(x−E{x}r)·(y−E{y}r)T}r=
Cov({x1}r,{y1}r) · · · Cov({x1}r,{ym}r)
... ... ...
Cov({xn}r,{y1}r) · · · Cov({xn}r,{ym}r)
. Hierbei ist {y}r eine m-dimensionale vektorielle Zufallsvariable. [BRAMMERund SIFFLING, 1975, S. 145]
Eine alternative Schreibweise istCov({x}r,{y}r) =Cxy.
4.1 Stochastik 31