Systemtheorie III – WS 05/06
Prof. Dr.-Ing. habil. Hoffmann, TU Dresden Mitschrift
Fabian Kurz http://fkurz.net/
Zuletzt aktualisiert:
15. Januar 2006
Inhaltsverzeichnis
Teil 4: Stochastische Signale und Systeme 1
8 Stochastische Signale . . . . 1
8.1 Grundlagen . . . . 1
8.1.1 Eindimensionale Zufallsgr¨ oßen . . . . 1
8.1.2 Mehrdimensionale Zufallsgr¨ oßen . . . . 3
8.2 Zuf¨ allige Prozesse . . . . 9
8.2.1 Prozess und Realisierung . . . . 9
8.2.2 Verteilungs- und Dichtefunktion . . . . 10
8.2.3 Vektorprozesse . . . . 10
8.2.4 Spezielle Momente (einfache Prozesse) . . . . 10
8.3 Station¨ are Prozesse . . . . 12
8.3.1 Definitionen und Eigenschaften . . . . 12
8.3.2 Korrelationsfunktionen . . . . 12
8.3.3 Leistungsdichtespektrum . . . . 13
8.3.4 Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrum . . 14
8.4 Spezielle Prozesse . . . . 14
8.4.1 Gauß-Prozesse . . . . 14
8.4.2 Markov-Prozesse . . . . 14
9 Statische Systeme . . . . 16
9.1 Abbildung von Zufallsgr¨ oßen . . . . 16
9.1.1 Determinierte Systemabbildung . . . . 16
9.1.2 Transformation der Dichtefunktion . . . . 16
9.1.3 Vorgeschriebene Verteilungsfunktion . . . . 19
9.1.4 Erwartungswert am Systemausgang . . . . 20
9.2 Abbildungen zuf¨ alliger Prozesse . . . . 20
9.2.1 Determinierte Prozessabbildung . . . . 20
9.2.2 Transformation der Dichtefunktion . . . . 21
9.2.3 Mittelwert und Korrelationskoeffizient am Systemausgang . . . . 22
9.3 Stochastische statische Systeme . . . . 22
9.3.1 Stochastische Systemabbildung . . . . 22
9.3.2 Erwartungswert und bedingter Erwartungswert . . . . 23
9.3.3 Stochastische Prozessabbildung . . . . 24
10 Dynamische Systeme . . . . 24
10.1 Analysis zuf¨ alliger Prozesse . . . . 24
10.1.1 Konvergenz im quadratischen Mittel . . . . 24
10.1.2 Stetigkeit im quadratischen Mittel . . . . 25
10.1.3 Differentiation im quadratischen Mittel . . . . 25
10.1.4 Integration im quadratischen Mittel . . . . 26
10.2 Lineare dynamische Systeme . . . . 27
10.2.1 Grundgleichungen . . . . 27
10.2.2 Mittelwert, Korrelationsfunktion und Leistungsdichtespektrum . 28
10.2.3 Korrelationsfunktion am Systemausgang . . . . 29
10.2.4 Station¨ are Gaußprozesse . . . . 30
10.3 Anwendungen station¨ arer Prozesse . . . . 32
10.3.1 Ergodizit¨ at . . . . 32
10.3.2 Sch¨ atzung von s
X(τ ) bzw. S
X(ω) . . . . 32
Teil 4: Stochastische Signale und Systeme
- x(t) 6
t a System a ?
8 Stochastische Signale
8.1 Grundlagen
8.1.1 Eindimensionale Zufallsgr¨ oßen Voraussetzungen:
zuf¨ allige Ereignisse
Wahrscheinlichkeit
bedingte Wahrscheinlichkeit
Bayessche Formel
eindimensionale Zufallsgr¨ oße
'
&
$
% Ω
@
ω r
R
X - x = X(ω) Ω: Ereignisraum
ω: Elementarereignis X: Zufallsgr¨ oße
x: Wert der Zufallsgr¨ oße X : Ω −→ R , x = X(ω)
Zufallsgr¨ oße *
H H j stetig (z.B. Lebensdauer)
diskret (z.B. Ergebnis des W¨ urfelns)
M¨ oglichkeiten zur Beschreibung der Zufallsgr¨ oße X:
a) Verteilungsfunktion F
XF
X(ξ) = P {X < ξ}
F
Xgibt die Wahrscheinlichkeit daf¨ ur an, daß die Zu- fallsgr¨ oße X einen Wert annimmt, der kleiner als ξ ist.
Beispiel f¨ ur diskrete ZG:
6
- F
X(ξ)
1 2 3 4 5 6 ξ
1
P(ξ=4)Beispiel f¨ ur stetige ZG:
6
- F
X(ξ)
ξ 1
Eigenschaften von F
X: 1) 0 ≤ F
X(ξ) ≤ 1
2) F
X(−∞) = 0, F
X(+∞) = 1
3) F
Xist linksseitig stetig und nicht fallend b) Dichtefunktion f
XGibt es eine integrierbare Funktion f
Xderart, daß
F
X(ξ) =
ξ
Z
−∞
f
X(x) dx
dann heißt f
XDichtefunktion (Dichte ) der Zufallsgr¨ oße X.
Beispiel f¨ ur diskrete ZG:
6
- f
X(x)
6 6 6 6 6 6
1 6
1 6
1 6
1 6
1 6
1 6
1 2 3 4 5 6 x
Beispiel f¨ ur stetige ZG:
6
- f
X(x)
x
a b
Eigenschaften von f
X: 1) f
X(x) ≥ 0 2)
∞
R
−∞
f
X(x) dx = 1 3)
dFXdξ(ξ)= f
X(ξ)
Wichtige Gleichung:
P (a ≤ X ≤ b) = F
X(b) − F
X(a) =
b
Z
a
f
X(x) dx
c) Mittelwerte, Momente, Erwartungswert
Ord. Symbol X stetig X diskret Bezeichnung
Gew¨ ohnliche Momente
1. E(X )
∞
R
−∞
x · f
Xdx P
i
x
i· P {X = x
i} Mittelwert, Erwartungswert, Gleichanteil 2. E(X
2)
∞
R
−∞
x
2· f
Xdx P
i
x
i2· P {X = x
i} Quadratischer Mittelwert, Effek- tivwertquadrat .. .
n. E(X
n)
∞
R
−∞
x
n· f
Xdx P
i
x
in· P {X = x
i} Gew¨ ohnliches Moment n-ter Ordnung Zentrale Momente
1. E(X − E(X)) 0 0
2. E[(X − E(X))
2]
∞
R
−∞
(X − E(X ))
2f
X(x) dx P
i
(X − E(X ))
2P {X = x
i} Dispersion, Varianz .. .
n. E[(X −E(X ))
n]
∞
R
−∞
(X −E(X))
nf
X(x) dx P
i
(X − E(X))
nP {X = x
i} Zentr. Moment n-ter Ordnung Diskussion:
E(X) ist ein zentraler Wert der Zufallsgr¨ oße X, um den sich die Werte von X gruppieren.
Der Effektivwert p
E(x
2) ist die Norm der Zufallsgr¨ oße.
Die Varianz E[(X − E(X))
2] = Var(X) = D
2(X) beschreibt die Streuung der Werte von X um den Erwartungswert
8.1.2 Mehrdimensionale Zufallsgr¨ oßen Beispiel: Scheibenschießen → Zahlenpaar (x
1, x
2)
Definition: Bezeichnen X
1, X
2, . . . , X
neindimensionale Zufallsgr¨ oßen, so heißt X = (X
1, X
2, . . . , X
n) n-dimensionale Zufallsgr¨ oße oder zuf¨ alliger Vektor.
'
&
$
% Ω
@
ω r
R R R
X - x
1x
2· · ·
x
nX : Ω −→ R
nX(ω) = (X
1, X
2, . . . , X
n)
Im Weiteren meist Beschr¨ ankung auf n = 2, d.h. X = (X
1, X
2).
Mathematische Beschreibung zweidimensionaler Zufallsgr¨ oßen a) Verteilungsfunktion F
X6
- R
R ξ
2ξ
1F
X(ξ
1, ξ
2) = P {X
1< ξ
1, X
2< ξ
2}
Eigenschaften von F
X: 1) 0 ≤ F
X(ξ
1, ξ
2) ≤ 1
2) F
X(−∞, ξ
2) = F
X(ξ
1, −∞) = F
X(−∞, −∞) = 0, F
X(+∞, +∞) = 1
3) F
Xist linksseitig stetig und nichtfallend in jeder der Komponenten ξ
1und ξ
2. b) Dichtefunktion f
XGibt es eine Funktion f
X, so daß
F
X(ξ
1, ξ
2) =
ξ2
Z
−∞
ξ1
Z
−∞
f
X(x
1, x
2) dx
1dx
2,
so heißt f
X(x
1, x
2) Dichtefunktion des zuf¨ alligen Vektors X = (X
1, X
2).
Beispiel: Normalverteilung
6
Q Q
Q Q
Q Q
Q Q s 1 f
X(x
1, x
2)
x
1m
1x
2m
2X = (X
1X
2) heißt normalverteilt, wenn gilt:
f
X(x
1, x
2) = 1 2πσ
1σ
2p
1 − %
2· exp
− 1
2(1 − %
2)
(x
1− m
1)
2σ
12− 2% (x
1− m
1)(x
2− m
2) σ
1σ
2+ (x
2− m
2)
2σ
22mit m
1, m
2∈ R , σ
1,2> 0, |%| ≤ 1
Eigenschaften von f
X: 1) f
X(x
1, x
2) ≥ 0 2)
∞
R
−∞
∞
R
−∞
f
X(x
1, x
2) dx
1dx
2= 1 3)
∂F∂ξX(ξ1,ξ2)1∂ξ2
= f
X(ξ
1, ξ
2)
R
a
1b
1R b
2a
2B
P {X ∈ B} = P {a
1≤ X
1≤ b
1, a
2≤ X
2≤ b
2}
= F
X(b
1, b
2) − F
X(b
1, a
2) − F
X(a
1, b
2) + F
X(a
1, a
2) =
b2
Z
a2
b1
Z
a1
f
X(x
1, x
2) dx
1dx
2Verallgemeinerung: P {X ∈ B} = x
(B)
f
X(x
1, x
2) dx
1dx
2c) Randverteilungsfunktionen
Gegeben sei X = (X
1, X
2). Wir bilden
F
X(ξ
1, ∞) = P {X
1< ξ
1, X
2< ∞
| {z }
sicheres Ereignis
} = P {X
1< ξ
1} = F
X1(ξ
1) =
ξ1
Z
−∞
f
X1(x
1) dx
1(1)
F
X1heißt Randverteilungsfunktion von X
1in X = (X
1, X
2). f
X1heißt Randdichtefunktion von X
1in X = (X
1, X
2).
F
X(ξ
1, ∞) =
∞
Z
−∞
ξ1
Z
−∞
f
X(x
1, x
2) dx
1dx
2=
ξ1
Z
−∞
∞
Z
−∞
f
X(x
1, x
2) dx
2| {z }
= Integrand von (1)b
dx
1f
X1(x
1) =
∞
Z
−∞
f
X(x
1, x
2) dx
Analog gilt: F
X2(ξ
2) = F
X(∞, ξ
2) bzw. f
X2(x
2) =
∞
R
−∞
f
X(x
1, x
2) dx
1d) Bedingte Verteilungsfunktion
gegeben: X = (X
1, X
2) mit F
Xbzw. f
Xgesucht: P{X ∈ B
1|X ∈ B
2}
R
R B
2B
1'
&
$
%
P {X ∈ B
1|X ∈ B
2} = P {X ∈ B
1, X ∈ B
2}
P {X ∈ B
2} = P {X ∈ B
1∩ B
2} P {X ∈ B
2}
= s
(B1∩B2)
f
X(x
1, x
2) dx
1dx
2s
(B2)
f
X(x
1, x
2) dx
1dx
2Sonderfall: gesucht: P {X
1< ξ
1|X
2= x
2} = F
X1{ξ
1|x
2} =
ξ1
R
−∞
f
X1(x
1|x
2) dx
1mit
f
X1(x
1|x
2) = f
X(x
1, x
2) f
X(x
2)
F
X1(ξ
1|x
2) heißt bedingte Verteilungsfunktion, f
X1(x
1|x
2) heißt bedingte Dichtefunktion.
R
R x
2ξ
1Analog gilt:
P {X
2< ξ
2|X
1= x
1} = F
X2{ξ
2|x
1} =
ξ2
R
−∞
f
X2(x
2|x
1) dx
2mit f
X2(x
2|x
1) = f
X(x
1, x
2) f
X(x
1)
Beachte: Die Zufallsgr¨ oßen X
1und X
2in einem zuf¨ alligen Vektor X mit X = (X
1, X
2) sind unabh¨ angig, falls
f
X1(x
1|x
2) = f
X(x
1, x
2)
f
X2(x
2) = f
X1(x
1) ⇔ X
1unabh¨ angig von X
2und
f
X2(x
2|x
1) = f
X(x
1, x
2)
f
X1(x
1) = f
X2(x
2) ⇔ X
2unabh¨ angig von X
1. F¨ ur unabh¨ angige X
1, X
2des Vektors X = (X
1, X
2) gilt also:
f
X(x
1, x
2) = f
X1(x
1) · f
X2(x
2)
Definition (Verallgemeinerung): Die Zufallsgr¨ oßen X
1, X
2, . . . , X
nin einem zuf¨ alli- gen Vektor X = (X
1, X
2, . . . , X
n) sind genau dann unabh¨ angig, falls gilt:
f
X(x
1, x
2, . . . , x
n) = f
X1(x
1) · f
X2(x
2) · . . . · f
Xn(x
n) bzw.
F
X(ξ
1, ξ
2, . . . , ξ
n) = F
X1(ξ
1) · F
X2(ξ
2) · . . . · F
Xn(ξ
n).
Beispiel: Normalverteilung Die Dichtefunktion f
X(x
1, x
2) =
12πσ1σ2
√
1−%2
· exp h
−
2(1−%1 2)·
(x1−m1)2
σ12
−
2%(x1−mσ1)(x2−m2)1σ2
+
(x2−mσ 2)222
i der Normalverteilung liefert f¨ ur den Sonderfall % = 0:
f
X(x
1, x
2) = 1 2πσ
1σ
2· exp
− 1 2
(x
1− m
1)
2σ
12+ (x
2− m
2)
2σ
22= 1
√ 2πσ
1exp
− 1 2
(x
1− m
1)
2σ
12| {z }
fX1(x1)
· 1
√ 2πσ
2exp
− 1 2
(x
2− m
2)
2σ
22| {z }
fX2(x2)
Es gilt also % = 0 ist gleichbedeutend mit der Unabh¨ angigkeit von X
1und X
2.
e) Spezielle Momente
1) Erwartungswert eines zuf¨ alligen Vektors X = (X
1, X
2, . . . , X
n)
E(X) = (E(X
1), E(X
2), . . . , E(X
n)) definiert als n-Tupel der Erwartungswerte der Komponenten mit E(X
i) =
∞
R
−∞
x
i· f
Xi(x
i) dx
i(i = 1, 2, . . . , n).
Regel:
E(X
1+ X
2) =
∞
Z
−∞
∞
Z
−∞
(x
1+ x
2)f
X(x
1, x
2) dx
2dx
1=
∞
Z
−∞
x
1∞
Z
−∞
f
X(x
1, x
2) dx
2| {z }
fX1(x1)
dx
1+
∞
Z
−∞
x
2∞
Z
−∞
f
X(x
1, x
2) dx
1| {z }
fX2(x2)
dx
2=
∞
Z
−∞
x
1f
X1(x
1) dx
1+
∞
Z
−∞
x
2f
X2(x
2) dx
2= E(X
1) + E (X
2)
Damit gilt E(X
1+ X
2) = E(X
1) + E(X
2) bzw. verallgemeinert
E(X
1+ X
2+ . . . + X
n) = E(X
1) + E(X
2) + · · · + E(X
n) 2) Skalarprodukt von X
1und X
2E(X
1· X
2) =
∞
Z
−∞
∞
Z
−∞
x
1· x
2· f
X(x
1, x
2) dx
2dx
1Sonderfall: X
1und X
2seien unabh¨ angig:
E(X
1· X
2) =
∞
Z
−∞
∞
Z
−∞
x
1· x
2· f
X1(x
1) · f
X2(x
2) dx
2dx
1=
∞
Z
−∞
x
1· f
X1(x
1) dx
1·
∞
Z
−∞
x
2· f
X2(x
2) dx
2= E(X
1) · E(X
2)
Damit gilt nur f¨ ur unabh¨ angige X
1und X
2: E(X
1· X
2) = E(X
1) · E(X
2) bzw.
verallgemeinert:
E(X
1· X
2· . . . · X
n) = E(X
1) · E(X
2) · . . . · E(X
n) 3) Kovarianz von X
1und X
2(Gemischtes Zentralmoment)
E((X
1− E(X
1))(X
2− E(X
2))) =
∞
Z
−∞
∞
Z
−∞
(x
1− E(X
1))(x
2− E(X
2)) · f
X(x
1, x
2) dx
2dx
1= Cov (X
1, X
2)
Regel: (mit E(a · X) = a · E(X), E(a) = a f¨ ur a ∈ R ) Cov (X
1, X
2) = E((X
1− E(X
1))(X
2− E(X
2)))
= E(X
1· X
2− X
1E(X
2) − X
2E(X
1) + E (X
1)E(X
2))
= E(X
1· X
2) − E(X
1) · E(X
2) −
(( E(X ((
2)E(X (( (
1) +
(( E(X ((
1)E(X (( (
2) Sonderfall: X
1und X
2sind unabh¨ angig, also E(X
1) · E(X
2) = E(X
1· X
2):
Cov (X
1, X
2) = E(X
1)E(X
2) − E(X
2)E(X
1) = 0 Beachte:
a) Cov (X
1, X
2) kann zur Untersuchung der Abh¨ angigkeit von Zufallsgr¨ oßen dienen b) Cov (X
1, X
1) = Var (X
1)
4) Korrelationskoeffizient (normiertes Maß f¨ ur die Abh¨ angigkeit zon Zufallsgr¨ oßen):
% = %(X
1, X
2) = Cov (X
1, X
2) p Var (X
1) · Var (X
2) Eigenschaften von %: (Beweis: siehe Lehrbuch)
a) %
2≤ 1 oder −1 ≤ % ≤ 1
b) % = 0 ⇔ Cov (X
1, X
2) = 0 d.h. X
1und X
2sind unkorreliert
Beachte: Unabh¨ angige Zufallsgr¨ oßen X
1und X
2sind auch stets unkorreliert, aber nicht notwendigerweise umgekehrt. Sonderfall: Wenn X
1und X
2normal- verteilt sind ist unabh¨ angig gleichbedeutend mit unkorreliert.
c) %
2= 1 ⇔ P{X
2= aX
1+ b} = 1 mit a, b ∈ R dann sind X
1und X
2maximal korreliert.
Wahrscheinlichkeit 1 heißt nur: fast sicher, Wahrscheinlichkeit 0 heißt nur: fast unm¨ oglich.
R
R
R
R
% = 1
x2=ax1+b
% = 0
p p p p p pp p p p
p
p p
pp p p p p p p
p p p p
p p p p p p
p p p p
pp p pp p
p pp p p p
p p p
p p p p
R
R
R
R
% ≈ 0,7
p ppppp pp p pppppp p p p pp ppppp pp pppp ppp p ppppp pppp pp pppp ppppp pp pppp pp ppp p p pppppp ppppp p p p pppp pp ppp pppp p p pppp % ≈ −0,7
pppppp p ppp pp p ppppp pp pp p pp pp p p p pp p pp p ppppp p pp pp pp p ppp ppppppppp pp pp pppp pppppp pppp pp p ppp pppppppp p ppp pppp
5) Kovarianzmatrix des zuf¨ alligen Vektors X = (X
1, X
2, . . . , X
n)
Cov (X
1, X
1) Cov (X
1, X
2) · · · Cov (X
1, X
n) Cov (X
2, X
1) Cov (X
2, X
2) · · · Cov (X
2, X
n)
.. . .. . . .. .. .
Cov (X
n, X
1) Cov (X
n, X
2) · · · Cov (X
n, X
n)
= Cov X
In der Hauptdiagonalen stehen die Varianzen Cov (X
i, X
i) = Var (X
i), (mit i = 1, 2, . . . , n).
Regel (ohne Beweis): det Cov (X) = 0 ⇔ P
nP
i=1
a
ix
i+ k = 0
= 1
Mit der Wahrscheinlichkeit 1 (also fast sicher) besteht zwischen den Komponenten von X eine lineare Beziehung.
8.2 Zuf¨ allige Prozesse
8.2.1 Prozess und Realisierung
Beispiele zuf¨ alliger Signale in Natur und Technik:
Temperatur, Luftdruck in Abh¨ angigkeit von der Zeit in einem bestimmten Punkt der Erdoberfl¨ ache
Neigungswinkel eines Schiffes bei Seegang
Durchmesser eines Webfadens in Abh¨ angigkeit von der L¨ ange
Strom und Spannung in einer Fernsprechleitung
Thermisches Rauschen eines Ohmschen Widerstandes
Die Wiederholung eines Experiments liefert unterschiedlichen Realisierungen.
Gesucht ist ein mathematisches Modell zur Beschreibung dieser zuf¨ alligen Signale.
Ausgangspunkt:
1 2 3 4 5 6
1 2 3 t
s s
s
s
@
@
@
s s
s s
H H H
H H H
H H H H
H H
−→ T
Zuf¨ alliger Vektor
X = (X
1, X
2, . . . , X
n) = (X
i)
i∈II : Indexmenge, hier: Zeitskala T
Es gilt:
a) Die Indexmenge erh¨ alt die Bedeutung einer Zeitskala T .
b) Die Familie (X
t)
t∈Tmit T ⊂ Z von Zufallsgr¨ oßen X
theißt zuf¨ alliger Prozess mit diskreter Zeit.
c) Die Folge x = (x
t)
t∈Tder auftretenden Werte heißt Realisierung des zuf¨ alligen Prozesses mit diskreter Zeit.
d) Verallgemeinerung: Die Familie X = (X
t)
t∈Tmit T ⊂ R von Zufallsgr¨ oßen X
theißt zuf¨ alliger Prozess mit stetiger Zeit.
e) Die Realisierungen eines zuf¨ alligen Prozesses mit stetiger Zeit sind (reelle) Zeitfunktionen.
T ⊂ R Realisierung r
r
t X
tWird ein Prozess zu einem festen Zeitpunkt t be-
trachtet, erh¨ alt man eine Zufallsgr¨ oße X
t= X(t).
Beispiel:
X(t) = U · ( 1 (t − V ) − 1 (t − W )) U, V , W : ZGen mit bekannter Verteilungsfunktion x(t) = u · ( 1 (t − v) − 1 (t − w)) u, v, w : Werte der obigen Zufallsgr¨ oßen
Schema:
6
- X(t)
t U
V W
Realisierungen:
6
- x(t)
t
8.2.2 Verteilungs- und Dichtefunktion
T ⊂ R X(t) t
2X(t
2) r t
1X(t
1)
r r
t
nX(t
n)
Wird ein zuf¨ alliger Prozess X zu festen Zeitpunkten t
1, t
2, . . . , t
nbetrachtet, erh¨ alt man einen zuf¨ alli- gen Vektor (X(t
1), X(t
2), . . . , X (t
n)).
Ubertragung der Definitionen aus 8.1.2: ¨ a) Verteilungsfunktion
zuf. Vektor: F
X(ξ
1, ξ
2, . . . , ξ
n) = P (X
1< ξ
1, X
2< ξ
2, . . . , X
n< ξ
n)
zuf. Prozess: F
X(ξ
1, t
1; ξ
2, t
2; . . . ; ξ
n, t
n) = P (X
1(t
1) < ξ
1, X
2(t
2) < ξ
2, . . . , X
n(t
n) < ξ
n)
→ n-dimensionale Verteilungsfunktion des Prozesses X Sonderf¨ alle:
n = 1 F
X(ξ, t) = P (X(t) < ξ) eindimensionale Vfkt n = 2 F
X(ξ
1, t
1; ξ
2, t
2) = P (X(t
1) < ξ
1; X(t
2) < ξ
2) zweidimensionale Vfkt b) Dichtefunktion: Wenn sich die n-dimensionale Verteilungsfunktion F
Xals
F
X(ξ
1, t
1; ξ
2, t
2; . . . ; ξ
n, t
n) =
ξ1
Z
−∞
· · ·
ξn
Z
−∞
f
X(x
1, t
1; x
2, t
2; . . . ; x
n, t
n) dx
n· · · dx
1darstellen l¨ aßt, heißt f
Xn-dimensionale Dichtefunktion dieses Prozesses X.
8.2.3 Vektorprozesse
Sind X
1, X
2, . . . , X
nzuf¨ allige Prozesse, dann heißt X = (X
1, X
2, . . . , X
n) n-dimensionaler Vektorprozess.
8.2.4 Spezielle Momente (einfache Prozesse) (1) Erwartungswert
E[X(t)] =
∞
Z
−∞
xf
X(x, t) dx = m
X(t) zeitabh¨ angig!
T ⊂ R - t
X(t) r m
X(t)
Beachte: Der Erwartungswert m
X(t) [dicke Linie]
hat im Allgemeinen nichts zu tun mit dem zeitlichen Mittelwert einer Realisierung
(2) Varianz
E
(X(t) − m
X(t))
2=
∞
Z
−∞
(x − m
X(t))
2f
X(x, t) dx = Var (x)
(3) Korrelationsfunktion (Autokorrelationsfunktion, AKF)
E [X(t
1)X(t
2)] =
∞
Z
−∞
∞
Z
−∞
x
1x
2· f
X(x
1, t
1; x
2, t
2) dx
2dx
1= s
X(t
1, t
2) = ψ
XX(t
1, t
2) Eigenschaften:
a) s
X(t
1, t
2) = s
X(t
2, t
1) b) s
X(t, t) = E
X
2(t)
≥ 0 (4) Kovarianzfunktion
E [(X(t
1) − m
X(t
1))(X(t
2) − m
X(t
2))] =
∞
Z
−∞
∞
Z
−∞
(x
1− m
X(t
1))(x
2− m
X(t
2))f
X(x
1, t
1; x
2, t
2) dx
2dx
1= Cov (X(t
1), X(t
2)) Eigenschaften:
a) Cov (X(t
1), X(t
2)) = E [X(t
1)X(t
2)] − E [X(t
1)] E[X(t
2)] = s
X(t
1, t
2) − m
X(t
1) · m
X(t
2) b) Cov (X(t), X(t)) = Var (X(t))
(5) Kovarianzmatrix
Cov (X) =
Cov (X(t
1), X(t
1)) Cov (X(t
1), X(t
2)) · · · Cov (X(t
1), X(t
n)) Cov (X(t
2), X(t
1)) Cov (X(t
2), X(t
2)) · · · Cov (X(t
2), X(t
n))
.. . .. . . .. .. .
Cov (X(t
n), X(t
1)) Cov (X(t
n), X(t
2)) · · · Cov (X(t
n), X(t
n))
(6) Kreuzkorrelationsfunktion (zwei Prozesse X und Y ) E[X(t
1)Y (t
2)] =
∞
Z
−∞
∞
Z
−∞
xy · f
(XY)(x, t
1; y, t
2) dy dx = s
XY(t
1, t
2) = ψ
XY(t
1, t
2) Eigenschaften:
a) s
XY(t
1, t
2) = s
Y X(t
2, t
1)
b) s
XX(t
1, t
2) = s
X(t
1, t
2) (AKF)
8.3 Station¨ are Prozesse
8.3.1 Definitionen und Eigenschaften
T ⊂ R -
∆
t1 t2 tn t1+∆ t2+∆ tn+∆
x
Definition: Der zuf¨ allige Prozess X heißt station¨ ar, wenn f¨ ur beliebige n uund ∆ gilt:
F
X(ξ
1, t
1; ξ
2, t
2; . . . ; ξ
n, t
n) = F
X(ξ
1, t
1+ ∆; ξ
2, t
2+ ∆; . . . ; ξ
n, t
n+ ∆) Entsprechendes gilt f¨ ur die Dichtefunktion.
Folgerungen
n=1: In f
X(x, t + ∆) = f
X(x, t) ist ∆ beliebig, also auch ∆ = −t.
⇒ f
X(x, t) = f
X(x, 0) zeitunabh¨ angig
⇒ E[X(t)] =
∞
R
−∞
xf
X(x, 0) dx = m
X(0) = m
X= const
n=2: In f
X(x
1, t
1+ ∆; x
2, t
2+ ∆) = f
X(x
1, t
1; x
2, t
2) ist ∆ beliebig, also auch ∆ = −t
1.
⇒ f
X(x
1, t
1; x
2, t
2) = f
X(x
1, 0; x
2, t
2− t
1| {z }
τ
)
⇒ s
X(t
1, t
2) = E[X(t
1)X(t
2)] = s
X(t
2− t
1) = s
X(τ ) = E[X(t) · X(t + τ )]
Definition: X heißt schwach station¨ ar (station¨ ar im weiteren Sinne), wenn a) e[x(t)] = m
x= const
b) e[x(t
1)x(t
2)] = s
x(t
1, t
2) = s
x(t
2− t
1) = s
x(τ ) c) e
x
2(t)
< ∞
Im weiteren werden in 8.3 station¨ are Prozesse mit m
X= 0 betrachtet.
8.3.2 Korrelationsfunktionen Eigenschaften:
a) s
X(τ ) = s
X(−τ ) (gerade Funktion) b) |s
X(τ )| ≤ s
X(0) (s. Aufgabe 8.21) Typische Verl¨ aufe:
6
- s
X(τ )
τ
6
- s
X(τ )
τ
6
- s
X(τ )
τ
Anschauliche Erkl¨ arung der AKF
T ⊂ R
t t+τ1 t+τ2
3 r r 2 r 1
3 r r 2 r 1
r rr
1 3 2
6
- x(t + τ )
x(t) 1 r 2
3
r
r
τ = 0 maximal korreliert
6
- x(t + τ )
x(t) r 1 2
3
r
r
τ = τ
1stark korreliert
6
- x(t + τ )
r x(t) 1 2 3
r r
τ = τ
2schwach korreliert 8.3.3 Leistungsdichtespektrum
Sei s
X(τ ) ¨ uberall stetig und absolut integrierbar. Dann sei S
X(ω) =
∞
Z
−∞
s
X(τ ) · e
jωτdτ, s
X(τ ) = 1 2π
∞
Z
−∞
S
X(ω) · e
jωτdω.
Die Bildfunktion S
X(ω) heißt Leistungsdichtespektrum (Theorem von Wiener und Hinqin ).
Bedeutung von S
X(ω):
leicht messtechnisch erfassbar
einfache Zusammenh¨ ange bei linearen Systemen Eigenschaften von S
X(ω):
(1) S
X(ω) = S
X(−ω) (gerade Funktion) (2) S
X(ω) ≥ 0 (reell)
(3) E[X
2(t)] = S
X(0) =
12∞
R
−∞
S
X(ω) e
−jωτ| {z }
1
dω =
2π1∞
R
−∞
S
X(ω) dω ≥ 0
Typische Verl¨ aufe: (1–3, 4: AKF von 3., weißes Rauschen) 6
-
SX(ω)
ω
6
-
SX(ω)
ω
6
-
SX(ω)
ω S
06
-
sX(τ)
τ 6 S
0· δ(τ )
Definition: Ein zuf¨ alliger Prozess mit S
X(ω) = S
0= const heißt weißes Rauschen. Idealisie-
rung, weil E[X
2(t)] → ∞.
8.3.4 Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrum Zwei station¨ are Prozesse X und Y .
f
(X,Y)(x, t
1; y, t
2) = f
(X,Y)(x, t
1+ ∆; y; t
2+ ∆) (station¨ ar verbundene Prozesse). Dann gilt analog zu 8.3.1:
s
XY(t
1, t
2) = E[X(t
1)Y (t
2)] = s
XY(0, t
2− t
1) = s
XY(τ ) mit den Eigenschaften: s
XY(τ ) = s
Y X(−τ ) und s
XY(−τ ) = s
Y X(τ ) Definition: Kreuzleistungsdichtespektrum
S
XY(ω) =
∞
Z
−∞
s
XY(τ )e
−jωτdτ, s
XY(τ ) = 1 2π
∞
Z
−∞
S
XY(ω)e
jωτdω
8.4 Spezielle Prozesse
8.4.1 Gauß-Prozesse
Ein zuf¨ alliger Prozess heißt Gauß-Prozess oder normaler Prozess, falls:
f
X(x
1, t
1; . . . ; x
n, t
n) = 1
p (2π)
ndet C exp
− 1
2 (x − m)C
−1(x − m)
0(x − m) = x
1− m
X(t
1) x
2− m
X(t
2) · · · x
n− m
X(t
n)
Zeilenvektor
(x − m)
0= (x − m)
T=
x
1− m
X(t
1) x
2− m
X(t
2)
· · · x
n− m
X(t
n)
Spaltenvektor
C =
Cov (X(t
1), X(t
1)) · · · Cov (X(t
1), X (t
n)) Cov (X(t
2), X(t
1)) · · · Cov (X(t
2), X (t
n))
.. . . .. .. .
Cov (X(t
n), X(t
1)) · · · Cov (X(t
n), X(t
n))
Kovarianzmatrix
Cov (X(t
i), X(t
j)) = s
X(t
i, t
j) − m
X(t
i) · m
X(t
j)
Beachte: Der Gauß-Prozess ist durch m
X(t) und s
X(t
1, t
2) vollst¨ andig charakterisiert.
8.4.2 Markov-Prozesse
Folge aufeinanderfolgender Zeitpunkte: t
1< t
2< t
3< · · · < t
nDefinition 1: Ein Prozess X heißt rein stochastisch (ohne Ged¨ achtnis), falls f
X(x
nt
n| x
1, t
1; x
2, t
2; . . . ; x
n−1, t
n−1| {z }
bekannte Vergangenheit
) = f
X(x
nt
n)
z.B. W¨ urfeln.
Definition 2: Ein Prozess heißt Markov-Prozess, wenn
f
X(x
nt
n|x
1, t
1; x
2, t
2; . . . ; x
n−1, t
n−1) = f
X(x
nt
n|x
n−1, t
n−1) z.B. Automat
Beispiel: Wiener-Prozess (Brausche Bewegung); T = [0, ∞) f
X(x, t) =
( δ(x) t = 0
√1 2π
exp
−
x2t2t > 0
f
X(x
2, t
2|x
1, t
1) =
( δ(x
2− x
1) t
2= t
1√
12π(t2−t1)
exp h
−
(x2(t2−x1)22−t1)
i
sonst
9 Statische Systeme
9.1 Abbildung von Zufallsgr¨ oßen 9.1.1 Determinierte Systemabbildung
X
X
1X
2.. . X
lY
1Y
2.. . Y
m
Y a
a a
a a a
.. . .. .
Φ
y = Φ(x)
Definition: Ein statistisches System heißt de- terminiert, falls f¨ ur alle ω ∈ Ω gilt, daß mit y = Y (ω) und x = X(ω) gilt:
y = Φ(x) [Stochastische Systemabbildung → 9.3.1]
9.1.2 Transformation der Dichtefunktion
gegeben: Zuf¨ alliger Vektor X mit F
Xoder f
X, Systemabbildung Φ gesucht: F
Yoder f
ydes zuf¨ alligen Vektors Y am Systemausgang Zun¨ achst: L¨ osung f¨ ur den Sonderfall l = m = 2 und Φ bijektiv.
Φ
bijektiv a
a
a a X
X
1X
2Y
1Y
2
Y
Y = Φ(X) bestehe aus den Teilabbildungen Y
1= ϕ
1(X
1, X
2)
Y
2= ϕ
2(X
1, X
2) Dann gilt f¨ ur die Werte der Zufallsgr¨ oßen Y
1= ϕ(x
1, x
2) und Y
2= ϕ(x
1, x
2):
6
- R
R
6
- R
R X
2X
1X q '
&
$
% Φ
−1(B)
@
Y
2Y
1q Y '
&
$
% z
Φ
Da Φ bijektiv sein soll, folgt:
X
1= ϕ
1−1(Y
1, Y
2) X
2= ϕ
2−1(Y
1, Y
2)
X = Φ
−1(Y )
Ansatz: P (Y ∈ B) = P(X ∈ Φ
−1(B)), mit Variablentransformation (→ Analysis) x
(B)
f
Y(y
1, y
2)
| {z }
gesucht
dy
2dy
1= x
(Φ−1(B))
f
X(x
1, x
2)
| {z }
bekannt
dx
2dx
1= x f
X(ϕ
1−1(y
1, y
2), ϕ
2−1(y
1, y
2))
∂(ϕ1,ϕ2)
∂(x1,x2)
dy
2dy
1mit der sogenannten Funktionaldeterminante:
∂(ϕ
1, ϕ
2)
∂(x
1, x
2)
=
det
∂ϕ1(x1,x2)
∂x1
∂ϕ1(x1,x2)
∂x2
∂ϕ2(x1,x2)
∂x1
∂ϕ2(x1,x2)
∂x2
Dann gilt umso genauer, je kleiner B, aber auch allgemein:
f
Y(y
1, y
2) =
f
X(x
1, x
2)
∂ϕ1(x1,x2)
∂(x1,x2)
x1=ϕ1−1(y1,y2) x2=ϕ2−1(y1,y2)
Sonderfall l = m = 1:
f
Y(y) =
f
X(x)
∂ϕ
∂x
x=ϕ−1(y)
Beispiele
1. Beispiel: l = m = 1 X a (...)
3a Y Y = ϕ(X) = X
3gegeben:
f
X(x) =
1b−1
a ≤ x ≤ b 0 sonst
6
-
1 b−a fX(x)
a b x
gesucht: f
Y(y) 1. y = ϕ(x) = x
32. Funktionaldeterminante:
dϕ(x) dx
= 3x
23. Umkehrfunktion: x = ϕ
−1(y) = √
3y 4. Einsetzen → Dichte
⇒ f
Y(y) = (
1b−a 1 3(√3
y)2
a
3≤ y ≤ b
30 sonst
6
-
fY(y)
a b x
2. Beispiel: l = 2, m = 1. Y
1= ϕ
1(X
1, X
2) = X
1+ X
2, Y
2= ϕ
2(X
1, X
2) = X
2gegeben: f
X(x
1, x
2), gesucht: f
Y(y)
1. Werte: y
1= ϕ
1(x
1, x
2) = x
1+ x
2, y
2= ϕ
2(x
1, x
2) = x
22. Funktionaldeterminante
∂(ϕ
1, ϕ
2)
∂(x
1, x
2) =
∂ϕ1
∂x1
∂ϕ2
∂x2
∂ϕ2
∂x1
∂ϕ2
∂x2
=
1 1 0 1
= 1 3. Umkehrfunktion
x
1= ϕ
1−1(y
1, y
2) = y
1− y
2x
2= ϕ
2−1(y
1, y
2) = y
24. Einsetzen → Dichte
f
Y(y
1, y
2) =
f
X(x
1, x
2) 1
x1=y1−y2
x2=y2
= f
X(y
1− y
2, y
2)
5. ¨ Ubergang zur Randdichte f
Y(y) = f
Y1(y) =
∞
Z
−∞
f
Y(y
1, y
2) dy
2=
∞
Z
−∞
f
X(y
1− y
2, y
2) dy
2Sonderfall: x
1, x
2unabh¨ angig → f
X(x
1, x
2) = f
X1(x
1) · f
X2(x
2) f
Y(y) =
∞
Z
−∞
f
X1(y
1− y
2) · f
X2(y
2) dy
2= (f
X1∗ f
X2)(y)
Bei der Summation unabh¨ angiger ZGen werden ihre Dichtefunktionen gefaltet.
Konkreter Fall:
6
- 6
-
1 a
fX2(x2)
x2
a
1 a
fX1(x1)
x1
a
X
2X
1a a
6
? n
+ a Y
- f
Y(y) 6
1 a
Q
Q Q
Q Q
a Q 2a y
z.B. Fertigungstoleranzen von Widerst¨ anden, Ann¨ aherung an die Normalverteilung
a R a
R = (100 ± 10) Ω 90 100 110 R/Ω -
a R R a
R = (200 ± 20) Ω 180 200 220 R/Ω -
Q
Q Q
Q Q
a R R R a
R = (300 ± 30) Ω 270 300 330 R/Ω -
3. Beispiel: l = m = 1, aber ϕ nicht bijektiv.
X a a Y
- 6
x0
Einweggleichrichter mit Vorspannung
Y = ϕ(X) =
0 X ≤ x
0aX − b X > x
0mit a, b > 0
gegeben: f
X(x) =
√12π
e
−12x2gesucht: f
Y(y)
Betrachtung der Kennlinie:
1. P {Y < 0} = 0
2. P {Y = 0} = P {X < x
0} =
∞
R
−∞
f
X(x) dx =
√12π
∞
R
−∞
e
−12x2dx = p
0(Tabelle) 3. P {Y > 0} : ϕ ist bijektiv
Werte: y = ϕ(x) = a · x + b
Funktionaldeterminante:
∂ϕ∂x= a
Umkehrfunktion: x = ϕ
−1(y) =
1a(y + b)
Dichte: f
Y(y) =
√12π 1
a
e
−12·a12(y+b)2y > 0, sonst 0.
Ergebnis ist eine gemischte Dichte.
9.1.3 Vorgeschriebene Verteilungsfunktion
F
X(x) a ϕ = ? a F
Y(y)
l = m = 1. Gegeben: F
X(x), gew¨ unscht: F
Y(y).
L¨ osung unter der Voraussetzung, dass Systemabbil- dung bijektiv ist.
- 6
R R
y x
P {X < x} = P {Y < y}
F
X(x) = F
Y(y) F
X(x) = F
Y(ϕ(x)) ϕ(x) = F
Y−1(F
X(x))
Beispiel:
- f
X(x) 6
1 x 1
- f
Y(y) 6
y 1
f
X(x) =
1 0 < x < 1
0 sonst f
Y(y) =
e
−yy > 0
0 y ≤ 0
- F
X(x) 6
1 x 1
"
"
"
"
"
- F
Y(y) 6
y 1
F
X(x) =
0 x ≤ 0
x 0 < x < 1
1 x ≥ 1
F
Y(y) =
0 y ≤ 0
1 − e
−yy > 0
Berechnung der Umkehrfunktion F
Y(y) = 1 − e
−y= z
e
−y= 1 − z y = ln 1
1 − z = F
Y−1(z)
ϕ(x) = F
Y−1(F
X(x)) = ln 1 1 − F
X(x)
Praktisch kommt nur vor: 0 < x < 1, d.h. F
X(x) = x ϕ(x) = ln 1
1 − x , 0 < x < 1 9.1.4 Erwartungswert am Systemausgang
Φ
gegeben a
a
a a X
X
1.. . X
lY
1.. . Y
m
Y
gegeben: f
X, Φ, Y = (Y
1, Y
2, . . . , Y
m) gesucht: E(Y ) = (E(Y
1), E(Y
2), . . . , E(Y
m))
Y
i= ϕ
i(X) = ϕ
i(X
1, X
2, . . . , X
l) (i = 1, . . . , m) E(Y
1) =
∞
Z
−∞
y
i· f
Yi(y
i) dy
i⇒ m¨ uhsam, da f
Yiberechnet werden muss.
Einfacher gilt:
E(Y
i) = E(ϕ(X
1, . . . , X
l)) =
∞
Z
−∞
· · ·
∞
Z
−∞
ϕ
i(x
1, . . . , x
l) · f
X(x
1, . . . , x
l) dx
1. . . dx
lBekannte Sonderf¨ alle
ϕ(X) = X E(ϕ(X)) = E(X) =
∞
R
−∞
xf
X(x) dx s. 8.1.1
ϕ(X) = X
2E(ϕ(X)) = E(X
2) =
∞
R
−∞
x
2f
X(x) dx s. 8.1.1
ϕ(X) = X
1X
2E(ϕ(X
1, X
2)) = E(X
1X
2) =
∞
R
−∞
∞
R
−∞
x
1x
2f
X(x
1, x
2) dx
1dx
2s. 8.1.2 9.2 Abbildungen zuf¨ alliger Prozesse
9.2.1 Determinierte Prozessabbildung Definitionen:
1. X : Menge aller l-dimensionalen Eingabevektorprozesse, X = (X
1, X
2, . . . , X
l) Y : Menge aller m-dimensionalen Ausgabevektorprozesse, Y = (Y
1, Y
2, . . . , Y
m) 2. Prozessabbildung: Φ : X → Y, Φ(X) = Y
3. Determinierte Prozessabbildung: Φ(x) = y
(Ausgaberealisierung ist durch Eingaberealisierung festgelegt)
4. Statische determinierte Prozessabbildung: Φ(X(t)) = Y (t) oder Φ(x(t)) = y(t)
⇒ Rechenmethoden aus 9.1 k¨ onnen auf Prozesse ¨ ubertragen werden
9.2.2 Transformation der Dichtefunktion
Prozess X
mit f
XY Prozess
mit f
Y= ?
a ϕ a
Sei zun¨ achst l = m = 1.
Y = ϕ(X), ϕ sei bijektiv 1. Schritt: eindimensionale Dichte f
Y(y, t) = ?. t fest: Y (t)
| {z }
ZG
= ϕ(X(t)
| {z }
ZG
), y(t) = ϕ(x(t)).
Damit Situation wie in 9.1.2: f
Y(y) =
˛fX(x)˛
˛
dϕ(x) dx
˛
˛
˛
!
x=ϕ−1(y)
⇒ f
Y(y, t) =
f˛X(x,t)˛
˛
dϕ(x) dx
˛
˛
˛
!
x=ϕ−1(y)
Schritt 2: f
Y(y
1, t
1; y
2, t
2) = ?
t
2fest:
t
1fest:
X(t
2) X(t
1) a a
ϕ ϕ
a a
Y (t
2) Y (t
1)
y
1= ϕ(x
1) = ϕ
1(x
1, x
2) y
2= ϕ(x
2) = ϕ
2(x
1, x
2)
Mit 9.1.2.:
f
Y(y
1, y
2) =
f
X(x
1, x
2)
∂(ϕ1,ϕ2)
∂(x1,x2)
x1=ϕ1−1(y1,y2) x2=ϕ2−1(y1,y2)
, wobei
∂(ϕ
1, ϕ
2)
∂(x
1, x
2) =
∂ϕ1
∂x1
∂ϕ1
∂x2
∂ϕ2
∂x1
∂ϕ2
∂x2
=
∂ϕ1
∂x1
0 0
∂ϕ∂x22
= ∂ϕ
1∂x
1· ∂ϕ
2∂x
2⇒ f
Y(y
1, t
1; y
2, t
2) =
f
X(x
1, t
1; x
2, t
2)
∂ϕ(x1)
∂x1
·
∂ϕ(x∂x2)2
x1=ϕ−1(y1) x2=ϕ−1(y2)
Schritt 3:
f
Y(y
1, t
1; . . . ; y
n, t
n) =
f
X(x
1, t
1; . . . ; x
n, t
n)
∂ϕ(x1)
∂x1
· · ·
∂ϕ(x∂xn)n
xi=ϕ−1(yi) i=1,...,n
Beispiel: (Fortsetzung von 9.1.2)
X a (...)
3a Y Y = ϕ(X) = X
3ist bijektiv 1. t fest: y = ϕ(x) = x
3Funktionaldeterminante:
dϕ(x)dx= 3x
2Umkehrfunktion: x = ϕ
−1(y) = √
3y
⇒ Dichte: f
Y(y, t) =
f˛X(x,t)˛
˛
dϕ(x) dx
˛
˛
˛
!
x=ϕ−1(y)
=
fX(x,t) 3x2x=√3
y
=
fX(3√y,t) 33
√
y2
2. t
1, t
2fest.
y
1= ϕ(x
1) = x
13 ∂ϕ(x1)∂x1
= 3x
12x
1= ϕ
−1(y
1) = √
3y
1y
2= ϕ(x
2) = x
23 ∂ϕ(x2)∂x2
= 3x
22x
2= ϕ
−1(y
2) = √
3y
2f
y(y
1, t
1; y
2, t
2) =
f
X(x
1, t
1; y
2, t
2) 3x
12· 3x
22x1=√3 y1
x2=√3 y2
= f
X( √
3y
1, t
1; √
3y
2, t
2) 9( √
3y
1y
2)
2n-dimensionale Dichte analog.
9.2.3 Mittelwert und Korrelationskoeffizient am Systemausgang
Prozess X a ϕ a Prozess Y gesucht: m
Y(t), s
Y(t
1, t
2)
Unter 9.1.4:
E(Y
i) = E(ϕ(X
1, . . . , X
l)) =
∞
Z
−∞
· · ·
∞
Z
−∞
ϕ
i(x
1, . . . , x
l) · f
X(x
1, . . . , x
l) dx
1. . . dx
lDaraus folgt speziell:
m
Y(t) = E(Y (t)) = E(ϕ(X(t))) =
∞
Z
−∞
ϕ(x)f
X(x, t) dx
s
Y(t
1, t
2) = E(Y (t
1)Y (t
2)) = E(ϕ(X(t
1))ϕ(X(t
2)))
=
∞
Z
−∞
∞
Z
−∞
ϕ(x
1)ϕ(x
2) · f
X(x
1, t
1; x
2, t
2) dx
1dx
29.3 Stochastische statische Systeme 9.3.1 Stochastische Systemabbildung
ZG X
stochastischeZG Y
Systemabb.
a a
Eingabe x (fest) ⇒ ZG Y mit von x abh.
Dichte f (y|x)
Die Systemabbildung ϕ heißt stochastisch, wenn f(y|x) = f
(X,Y)(x, y)
f
X(x) .
Folgerungen:
1. Dichte am Ausgang:
f
Y(y) =
∞
Z
−∞
f
(X,Y)(x, y) dx =
∞
Z
−∞