• Keine Ergebnisse gefunden

Systemtheorie III – WS 05/06 Prof. Dr.-Ing. habil. Hoffmann, TU Dresden Mitschrift

N/A
N/A
Protected

Academic year: 2021

Aktie "Systemtheorie III – WS 05/06 Prof. Dr.-Ing. habil. Hoffmann, TU Dresden Mitschrift"

Copied!
35
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Systemtheorie III – WS 05/06

Prof. Dr.-Ing. habil. Hoffmann, TU Dresden Mitschrift

Fabian Kurz http://fkurz.net/

Zuletzt aktualisiert:

15. Januar 2006

(2)

Inhaltsverzeichnis

Teil 4: Stochastische Signale und Systeme 1

8 Stochastische Signale . . . . 1

8.1 Grundlagen . . . . 1

8.1.1 Eindimensionale Zufallsgr¨ oßen . . . . 1

8.1.2 Mehrdimensionale Zufallsgr¨ oßen . . . . 3

8.2 Zuf¨ allige Prozesse . . . . 9

8.2.1 Prozess und Realisierung . . . . 9

8.2.2 Verteilungs- und Dichtefunktion . . . . 10

8.2.3 Vektorprozesse . . . . 10

8.2.4 Spezielle Momente (einfache Prozesse) . . . . 10

8.3 Station¨ are Prozesse . . . . 12

8.3.1 Definitionen und Eigenschaften . . . . 12

8.3.2 Korrelationsfunktionen . . . . 12

8.3.3 Leistungsdichtespektrum . . . . 13

8.3.4 Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrum . . 14

8.4 Spezielle Prozesse . . . . 14

8.4.1 Gauß-Prozesse . . . . 14

8.4.2 Markov-Prozesse . . . . 14

9 Statische Systeme . . . . 16

9.1 Abbildung von Zufallsgr¨ oßen . . . . 16

9.1.1 Determinierte Systemabbildung . . . . 16

9.1.2 Transformation der Dichtefunktion . . . . 16

9.1.3 Vorgeschriebene Verteilungsfunktion . . . . 19

9.1.4 Erwartungswert am Systemausgang . . . . 20

9.2 Abbildungen zuf¨ alliger Prozesse . . . . 20

9.2.1 Determinierte Prozessabbildung . . . . 20

9.2.2 Transformation der Dichtefunktion . . . . 21

9.2.3 Mittelwert und Korrelationskoeffizient am Systemausgang . . . . 22

9.3 Stochastische statische Systeme . . . . 22

9.3.1 Stochastische Systemabbildung . . . . 22

9.3.2 Erwartungswert und bedingter Erwartungswert . . . . 23

9.3.3 Stochastische Prozessabbildung . . . . 24

10 Dynamische Systeme . . . . 24

10.1 Analysis zuf¨ alliger Prozesse . . . . 24

10.1.1 Konvergenz im quadratischen Mittel . . . . 24

10.1.2 Stetigkeit im quadratischen Mittel . . . . 25

10.1.3 Differentiation im quadratischen Mittel . . . . 25

10.1.4 Integration im quadratischen Mittel . . . . 26

10.2 Lineare dynamische Systeme . . . . 27

10.2.1 Grundgleichungen . . . . 27

10.2.2 Mittelwert, Korrelationsfunktion und Leistungsdichtespektrum . 28

(3)

10.2.3 Korrelationsfunktion am Systemausgang . . . . 29

10.2.4 Station¨ are Gaußprozesse . . . . 30

10.3 Anwendungen station¨ arer Prozesse . . . . 32

10.3.1 Ergodizit¨ at . . . . 32

10.3.2 Sch¨ atzung von s

X

(τ ) bzw. S

X

(ω) . . . . 32

(4)

Teil 4: Stochastische Signale und Systeme

- x(t) 6

t a System a ?

8 Stochastische Signale

8.1 Grundlagen

8.1.1 Eindimensionale Zufallsgr¨ oßen Voraussetzungen:

ˆ zuf¨ allige Ereignisse

ˆ Wahrscheinlichkeit

ˆ bedingte Wahrscheinlichkeit

ˆ Bayessche Formel

ˆ eindimensionale Zufallsgr¨ oße

'

&

$

% Ω

@

ω r

R

X - x = X(ω) Ω: Ereignisraum

ω: Elementarereignis X: Zufallsgr¨ oße

x: Wert der Zufallsgr¨ oße X : Ω −→ R , x = X(ω)

Zufallsgr¨ oße *

H H j stetig (z.B. Lebensdauer)

diskret (z.B. Ergebnis des W¨ urfelns)

(5)

M¨ oglichkeiten zur Beschreibung der Zufallsgr¨ oße X:

a) Verteilungsfunktion F

X

F

X

(ξ) = P {X < ξ}

F

X

gibt die Wahrscheinlichkeit daf¨ ur an, daß die Zu- fallsgr¨ oße X einen Wert annimmt, der kleiner als ξ ist.

Beispiel f¨ ur diskrete ZG:

6

- F

X

(ξ)

1 2 3 4 5 6 ξ

1

P(ξ=4)

Beispiel f¨ ur stetige ZG:

6

- F

X

(ξ)

ξ 1

Eigenschaften von F

X

: 1) 0 ≤ F

X

(ξ) ≤ 1

2) F

X

(−∞) = 0, F

X

(+∞) = 1

3) F

X

ist linksseitig stetig und nicht fallend b) Dichtefunktion f

X

Gibt es eine integrierbare Funktion f

X

derart, daß

F

X

(ξ) =

ξ

Z

−∞

f

X

(x) dx

dann heißt f

X

Dichtefunktion (Dichte ) der Zufallsgr¨ oße X.

Beispiel f¨ ur diskrete ZG:

6

- f

X

(x)

6 6 6 6 6 6

1 6

1 6

1 6

1 6

1 6

1 6

1 2 3 4 5 6 x

Beispiel f¨ ur stetige ZG:

6

- f

X

(x)

x

a b

Eigenschaften von f

X

: 1) f

X

(x) ≥ 0 2)

R

−∞

f

X

(x) dx = 1 3)

dFX(ξ)

= f

X

(ξ)

Wichtige Gleichung:

P (a ≤ X ≤ b) = F

X

(b) − F

X

(a) =

b

Z

a

f

X

(x) dx

(6)

c) Mittelwerte, Momente, Erwartungswert

Ord. Symbol X stetig X diskret Bezeichnung

Gew¨ ohnliche Momente

1. E(X )

R

−∞

x · f

X

dx P

i

x

i

· P {X = x

i

} Mittelwert, Erwartungswert, Gleichanteil 2. E(X

2

)

R

−∞

x

2

· f

X

dx P

i

x

i2

· P {X = x

i

} Quadratischer Mittelwert, Effek- tivwertquadrat .. .

n. E(X

n

)

R

−∞

x

n

· f

X

dx P

i

x

in

· P {X = x

i

} Gew¨ ohnliches Moment n-ter Ordnung Zentrale Momente

1. E(X − E(X)) 0 0

2. E[(X − E(X))

2

]

R

−∞

(X − E(X ))

2

f

X

(x) dx P

i

(X − E(X ))

2

P {X = x

i

} Dispersion, Varianz .. .

n. E[(X −E(X ))

n

]

R

−∞

(X −E(X))

n

f

X

(x) dx P

i

(X − E(X))

n

P {X = x

i

} Zentr. Moment n-ter Ordnung Diskussion:

ˆ E(X) ist ein zentraler Wert der Zufallsgr¨ oße X, um den sich die Werte von X gruppieren.

ˆ Der Effektivwert p

E(x

2

) ist die Norm der Zufallsgr¨ oße.

ˆ Die Varianz E[(X − E(X))

2

] = Var(X) = D

2

(X) beschreibt die Streuung der Werte von X um den Erwartungswert

8.1.2 Mehrdimensionale Zufallsgr¨ oßen Beispiel: Scheibenschießen → Zahlenpaar (x

1

, x

2

)

Definition: Bezeichnen X

1

, X

2

, . . . , X

n

eindimensionale Zufallsgr¨ oßen, so heißt X = (X

1

, X

2

, . . . , X

n

) n-dimensionale Zufallsgr¨ oße oder zuf¨ alliger Vektor.

'

&

$

% Ω

@

ω r

R R R

X - x

1

x

2

· · ·

x

n

X : Ω −→ R

n

X(ω) = (X

1

, X

2

, . . . , X

n

)

Im Weiteren meist Beschr¨ ankung auf n = 2, d.h. X = (X

1

, X

2

).

(7)

Mathematische Beschreibung zweidimensionaler Zufallsgr¨ oßen a) Verteilungsfunktion F

X

6

- R

R ξ

2

ξ

1

F

X

1

, ξ

2

) = P {X

1

< ξ

1

, X

2

< ξ

2

}

Eigenschaften von F

X

: 1) 0 ≤ F

X

1

, ξ

2

) ≤ 1

2) F

X

(−∞, ξ

2

) = F

X

1

, −∞) = F

X

(−∞, −∞) = 0, F

X

(+∞, +∞) = 1

3) F

X

ist linksseitig stetig und nichtfallend in jeder der Komponenten ξ

1

und ξ

2

. b) Dichtefunktion f

X

Gibt es eine Funktion f

X

, so daß

F

X

1

, ξ

2

) =

ξ2

Z

−∞

ξ1

Z

−∞

f

X

(x

1

, x

2

) dx

1

dx

2

,

so heißt f

X

(x

1

, x

2

) Dichtefunktion des zuf¨ alligen Vektors X = (X

1

, X

2

).

Beispiel: Normalverteilung

6

Q Q

Q Q

Q Q

Q Q s 1 f

X

(x

1

, x

2

)

x

1

m

1

x

2

m

2

X = (X

1

X

2

) heißt normalverteilt, wenn gilt:

f

X

(x

1

, x

2

) = 1 2πσ

1

σ

2

p

1 − %

2

· exp

− 1

2(1 − %

2

)

(x

1

− m

1

)

2

σ

12

− 2% (x

1

− m

1

)(x

2

− m

2

) σ

1

σ

2

+ (x

2

− m

2

)

2

σ

22

mit m

1

, m

2

∈ R , σ

1,2

> 0, |%| ≤ 1

Eigenschaften von f

X

: 1) f

X

(x

1

, x

2

) ≥ 0 2)

R

−∞

R

−∞

f

X

(x

1

, x

2

) dx

1

dx

2

= 1 3)

∂F∂ξX12)

1∂ξ2

= f

X

1

, ξ

2

)

R

a

1

b

1

R b

2

a

2

B

(8)

P {X ∈ B} = P {a

1

≤ X

1

≤ b

1

, a

2

≤ X

2

≤ b

2

}

= F

X

(b

1

, b

2

) − F

X

(b

1

, a

2

) − F

X

(a

1

, b

2

) + F

X

(a

1

, a

2

) =

b2

Z

a2

b1

Z

a1

f

X

(x

1

, x

2

) dx

1

dx

2

Verallgemeinerung: P {X ∈ B} = x

(B)

f

X

(x

1

, x

2

) dx

1

dx

2

c) Randverteilungsfunktionen

Gegeben sei X = (X

1

, X

2

). Wir bilden

F

X

1

, ∞) = P {X

1

< ξ

1

, X

2

< ∞

| {z }

sicheres Ereignis

} = P {X

1

< ξ

1

} = F

X1

1

) =

ξ1

Z

−∞

f

X1

(x

1

) dx

1

(1)

F

X1

heißt Randverteilungsfunktion von X

1

in X = (X

1

, X

2

). f

X1

heißt Randdichtefunktion von X

1

in X = (X

1

, X

2

).

F

X

1

, ∞) =

Z

−∞

ξ1

Z

−∞

f

X

(x

1

, x

2

) dx

1

dx

2

=

ξ1

Z

−∞

Z

−∞

f

X

(x

1

, x

2

) dx

2

| {z }

= Integrand von (1)b

dx

1

f

X1

(x

1

) =

Z

−∞

f

X

(x

1

, x

2

) dx

Analog gilt: F

X2

2

) = F

X

(∞, ξ

2

) bzw. f

X2

(x

2

) =

R

−∞

f

X

(x

1

, x

2

) dx

1

d) Bedingte Verteilungsfunktion

gegeben: X = (X

1

, X

2

) mit F

X

bzw. f

X

gesucht: P{X ∈ B

1

|X ∈ B

2

}

R

R B

2

B

1

'

&

$

%

P {X ∈ B

1

|X ∈ B

2

} = P {X ∈ B

1

, X ∈ B

2

}

P {X ∈ B

2

} = P {X ∈ B

1

∩ B

2

} P {X ∈ B

2

}

= s

(B1∩B2)

f

X

(x

1

, x

2

) dx

1

dx

2

s

(B2)

f

X

(x

1

, x

2

) dx

1

dx

2

(9)

Sonderfall: gesucht: P {X

1

< ξ

1

|X

2

= x

2

} = F

X1

1

|x

2

} =

ξ1

R

−∞

f

X1

(x

1

|x

2

) dx

1

mit

f

X1

(x

1

|x

2

) = f

X

(x

1

, x

2

) f

X

(x

2

)

F

X1

1

|x

2

) heißt bedingte Verteilungsfunktion, f

X1

(x

1

|x

2

) heißt bedingte Dichtefunktion.

R

R x

2

ξ

1

Analog gilt:

P {X

2

< ξ

2

|X

1

= x

1

} = F

X2

2

|x

1

} =

ξ2

R

−∞

f

X2

(x

2

|x

1

) dx

2

mit f

X2

(x

2

|x

1

) = f

X

(x

1

, x

2

) f

X

(x

1

)

Beachte: Die Zufallsgr¨ oßen X

1

und X

2

in einem zuf¨ alligen Vektor X mit X = (X

1

, X

2

) sind unabh¨ angig, falls

f

X1

(x

1

|x

2

) = f

X

(x

1

, x

2

)

f

X2

(x

2

) = f

X1

(x

1

) ⇔ X

1

unabh¨ angig von X

2

und

f

X2

(x

2

|x

1

) = f

X

(x

1

, x

2

)

f

X1

(x

1

) = f

X2

(x

2

) ⇔ X

2

unabh¨ angig von X

1

. F¨ ur unabh¨ angige X

1

, X

2

des Vektors X = (X

1

, X

2

) gilt also:

f

X

(x

1

, x

2

) = f

X1

(x

1

) · f

X2

(x

2

)

Definition (Verallgemeinerung): Die Zufallsgr¨ oßen X

1

, X

2

, . . . , X

n

in einem zuf¨ alli- gen Vektor X = (X

1

, X

2

, . . . , X

n

) sind genau dann unabh¨ angig, falls gilt:

f

X

(x

1

, x

2

, . . . , x

n

) = f

X1

(x

1

) · f

X2

(x

2

) · . . . · f

Xn

(x

n

) bzw.

F

X

1

, ξ

2

, . . . , ξ

n

) = F

X1

1

) · F

X2

2

) · . . . · F

Xn

n

).

Beispiel: Normalverteilung Die Dichtefunktion f

X

(x

1

, x

2

) =

1

2πσ1σ2

1−%2

· exp h

2(1−%1 2)

·

(x1−m1)2

σ12

2%(x1−mσ1)(x2−m2)

1σ2

+

(x2−mσ 2)2

22

i der Normalverteilung liefert f¨ ur den Sonderfall % = 0:

f

X

(x

1

, x

2

) = 1 2πσ

1

σ

2

· exp

− 1 2

(x

1

− m

1

)

2

σ

12

+ (x

2

− m

2

)

2

σ

22

= 1

√ 2πσ

1

exp

− 1 2

(x

1

− m

1

)

2

σ

12

| {z }

fX1(x1)

· 1

√ 2πσ

2

exp

− 1 2

(x

2

− m

2

)

2

σ

22

| {z }

fX2(x2)

Es gilt also % = 0 ist gleichbedeutend mit der Unabh¨ angigkeit von X

1

und X

2

.

(10)

e) Spezielle Momente

1) Erwartungswert eines zuf¨ alligen Vektors X = (X

1

, X

2

, . . . , X

n

)

E(X) = (E(X

1

), E(X

2

), . . . , E(X

n

)) definiert als n-Tupel der Erwartungswerte der Komponenten mit E(X

i

) =

R

−∞

x

i

· f

Xi

(x

i

) dx

i

(i = 1, 2, . . . , n).

Regel:

E(X

1

+ X

2

) =

Z

−∞

Z

−∞

(x

1

+ x

2

)f

X

(x

1

, x

2

) dx

2

dx

1

=

Z

−∞

x

1

Z

−∞

f

X

(x

1

, x

2

) dx

2

| {z }

fX1(x1)

dx

1

+

Z

−∞

x

2

Z

−∞

f

X

(x

1

, x

2

) dx

1

| {z }

fX2(x2)

dx

2

=

Z

−∞

x

1

f

X1

(x

1

) dx

1

+

Z

−∞

x

2

f

X2

(x

2

) dx

2

= E(X

1

) + E (X

2

)

Damit gilt E(X

1

+ X

2

) = E(X

1

) + E(X

2

) bzw. verallgemeinert

E(X

1

+ X

2

+ . . . + X

n

) = E(X

1

) + E(X

2

) + · · · + E(X

n

) 2) Skalarprodukt von X

1

und X

2

E(X

1

· X

2

) =

Z

−∞

Z

−∞

x

1

· x

2

· f

X

(x

1

, x

2

) dx

2

dx

1

Sonderfall: X

1

und X

2

seien unabh¨ angig:

E(X

1

· X

2

) =

Z

−∞

Z

−∞

x

1

· x

2

· f

X1

(x

1

) · f

X2

(x

2

) dx

2

dx

1

=

Z

−∞

x

1

· f

X1

(x

1

) dx

1

·

Z

−∞

x

2

· f

X2

(x

2

) dx

2

= E(X

1

) · E(X

2

)

Damit gilt nur f¨ ur unabh¨ angige X

1

und X

2

: E(X

1

· X

2

) = E(X

1

) · E(X

2

) bzw.

verallgemeinert:

E(X

1

· X

2

· . . . · X

n

) = E(X

1

) · E(X

2

) · . . . · E(X

n

) 3) Kovarianz von X

1

und X

2

(Gemischtes Zentralmoment)

E((X

1

− E(X

1

))(X

2

− E(X

2

))) =

Z

−∞

Z

−∞

(x

1

− E(X

1

))(x

2

− E(X

2

)) · f

X

(x

1

, x

2

) dx

2

dx

1

= Cov (X

1

, X

2

)

(11)

Regel: (mit E(a · X) = a · E(X), E(a) = a f¨ ur a ∈ R ) Cov (X

1

, X

2

) = E((X

1

− E(X

1

))(X

2

− E(X

2

)))

= E(X

1

· X

2

− X

1

E(X

2

) − X

2

E(X

1

) + E (X

1

)E(X

2

))

= E(X

1

· X

2

) − E(X

1

) · E(X

2

) −

(( E(X ((

2

)E(X (( (

1

) +

(( E(X ((

1

)E(X (( (

2

) Sonderfall: X

1

und X

2

sind unabh¨ angig, also E(X

1

) · E(X

2

) = E(X

1

· X

2

):

Cov (X

1

, X

2

) = E(X

1

)E(X

2

) − E(X

2

)E(X

1

) = 0 Beachte:

a) Cov (X

1

, X

2

) kann zur Untersuchung der Abh¨ angigkeit von Zufallsgr¨ oßen dienen b) Cov (X

1

, X

1

) = Var (X

1

)

4) Korrelationskoeffizient (normiertes Maß f¨ ur die Abh¨ angigkeit zon Zufallsgr¨ oßen):

% = %(X

1

, X

2

) = Cov (X

1

, X

2

) p Var (X

1

) · Var (X

2

) Eigenschaften von %: (Beweis: siehe Lehrbuch)

a) %

2

≤ 1 oder −1 ≤ % ≤ 1

b) % = 0 ⇔ Cov (X

1

, X

2

) = 0 d.h. X

1

und X

2

sind unkorreliert

Beachte: Unabh¨ angige Zufallsgr¨ oßen X

1

und X

2

sind auch stets unkorreliert, aber nicht notwendigerweise umgekehrt. Sonderfall: Wenn X

1

und X

2

normal- verteilt sind ist unabh¨ angig gleichbedeutend mit unkorreliert.

c) %

2

= 1 ⇔ P{X

2

= aX

1

+ b} = 1 mit a, b ∈ R dann sind X

1

und X

2

maximal korreliert.

Wahrscheinlichkeit 1 heißt nur: fast sicher, Wahrscheinlichkeit 0 heißt nur: fast unm¨ oglich.

R

R

R

R

% = 1

x2=ax1+b

% = 0

p p p p p pp p p p

p

p p

pp p p p p p p

p p p p

p p p p p p

p p p p

pp p pp p

p pp p p p

p p p

p p p p

R

R

R

R

% ≈ 0,7

p ppppp pp p pppppp p p p pp ppppp pp pppp ppp p ppppp pppp pp pppp ppppp pp pppp pp ppp p p pppppp ppppp p p p pppp pp ppp pppp p p pppp % ≈ −0,7

pppppp p ppp pp p ppppp pp pp p pp pp p p p pp p pp p ppppp p pp pp pp p ppp ppppppppp pp pp pppp pppppp pppp pp p ppp pppppppp p ppp pppp

5) Kovarianzmatrix des zuf¨ alligen Vektors X = (X

1

, X

2

, . . . , X

n

)

Cov (X

1

, X

1

) Cov (X

1

, X

2

) · · · Cov (X

1

, X

n

) Cov (X

2

, X

1

) Cov (X

2

, X

2

) · · · Cov (X

2

, X

n

)

.. . .. . . .. .. .

Cov (X

n

, X

1

) Cov (X

n

, X

2

) · · · Cov (X

n

, X

n

)

= Cov X

(12)

In der Hauptdiagonalen stehen die Varianzen Cov (X

i

, X

i

) = Var (X

i

), (mit i = 1, 2, . . . , n).

Regel (ohne Beweis): det Cov (X) = 0 ⇔ P

n

P

i=1

a

i

x

i

+ k = 0

= 1

Mit der Wahrscheinlichkeit 1 (also fast sicher) besteht zwischen den Komponenten von X eine lineare Beziehung.

8.2 Zuf¨ allige Prozesse

8.2.1 Prozess und Realisierung

Beispiele zuf¨ alliger Signale in Natur und Technik:

ˆ Temperatur, Luftdruck in Abh¨ angigkeit von der Zeit in einem bestimmten Punkt der Erdoberfl¨ ache

ˆ Neigungswinkel eines Schiffes bei Seegang

ˆ Durchmesser eines Webfadens in Abh¨ angigkeit von der L¨ ange

ˆ Strom und Spannung in einer Fernsprechleitung

ˆ Thermisches Rauschen eines Ohmschen Widerstandes

Die Wiederholung eines Experiments liefert unterschiedlichen Realisierungen.

Gesucht ist ein mathematisches Modell zur Beschreibung dieser zuf¨ alligen Signale.

Ausgangspunkt:

1 2 3 4 5 6

1 2 3 t

s s

s

s

@

@

@

s s

s s

H H H

H H H

H H H H

H H

−→ T

Zuf¨ alliger Vektor

X = (X

1

, X

2

, . . . , X

n

) = (X

i

)

i∈I

I : Indexmenge, hier: Zeitskala T

Es gilt:

a) Die Indexmenge erh¨ alt die Bedeutung einer Zeitskala T .

b) Die Familie (X

t

)

t∈T

mit T ⊂ Z von Zufallsgr¨ oßen X

t

heißt zuf¨ alliger Prozess mit diskreter Zeit.

c) Die Folge x = (x

t

)

t∈T

der auftretenden Werte heißt Realisierung des zuf¨ alligen Prozesses mit diskreter Zeit.

d) Verallgemeinerung: Die Familie X = (X

t

)

t∈T

mit T ⊂ R von Zufallsgr¨ oßen X

t

heißt zuf¨ alliger Prozess mit stetiger Zeit.

e) Die Realisierungen eines zuf¨ alligen Prozesses mit stetiger Zeit sind (reelle) Zeitfunktionen.

T ⊂ R Realisierung r

r

t X

t

Wird ein Prozess zu einem festen Zeitpunkt t be-

trachtet, erh¨ alt man eine Zufallsgr¨ oße X

t

= X(t).

(13)

Beispiel:

X(t) = U · ( 1 (t − V ) − 1 (t − W )) U, V , W : ZGen mit bekannter Verteilungsfunktion x(t) = u · ( 1 (t − v) − 1 (t − w)) u, v, w : Werte der obigen Zufallsgr¨ oßen

Schema:

6

- X(t)

t U

V W

Realisierungen:

6

- x(t)

t

8.2.2 Verteilungs- und Dichtefunktion

T ⊂ R X(t) t

2

X(t

2

) r t

1

X(t

1

)

r r

t

n

X(t

n

)

Wird ein zuf¨ alliger Prozess X zu festen Zeitpunkten t

1

, t

2

, . . . , t

n

betrachtet, erh¨ alt man einen zuf¨ alli- gen Vektor (X(t

1

), X(t

2

), . . . , X (t

n

)).

Ubertragung der Definitionen aus 8.1.2: ¨ a) Verteilungsfunktion

zuf. Vektor: F

X

1

, ξ

2

, . . . , ξ

n

) = P (X

1

< ξ

1

, X

2

< ξ

2

, . . . , X

n

< ξ

n

)

zuf. Prozess: F

X

1

, t

1

; ξ

2

, t

2

; . . . ; ξ

n

, t

n

) = P (X

1

(t

1

) < ξ

1

, X

2

(t

2

) < ξ

2

, . . . , X

n

(t

n

) < ξ

n

)

→ n-dimensionale Verteilungsfunktion des Prozesses X Sonderf¨ alle:

n = 1 F

X

(ξ, t) = P (X(t) < ξ) eindimensionale Vfkt n = 2 F

X

1

, t

1

; ξ

2

, t

2

) = P (X(t

1

) < ξ

1

; X(t

2

) < ξ

2

) zweidimensionale Vfkt b) Dichtefunktion: Wenn sich die n-dimensionale Verteilungsfunktion F

X

als

F

X

1

, t

1

; ξ

2

, t

2

; . . . ; ξ

n

, t

n

) =

ξ1

Z

−∞

· · ·

ξn

Z

−∞

f

X

(x

1

, t

1

; x

2

, t

2

; . . . ; x

n

, t

n

) dx

n

· · · dx

1

darstellen l¨ aßt, heißt f

X

n-dimensionale Dichtefunktion dieses Prozesses X.

8.2.3 Vektorprozesse

Sind X

1

, X

2

, . . . , X

n

zuf¨ allige Prozesse, dann heißt X = (X

1

, X

2

, . . . , X

n

) n-dimensionaler Vektorprozess.

8.2.4 Spezielle Momente (einfache Prozesse) (1) Erwartungswert

E[X(t)] =

Z

−∞

xf

X

(x, t) dx = m

X

(t) zeitabh¨ angig!

(14)

T ⊂ R - t

X(t) r m

X

(t)

Beachte: Der Erwartungswert m

X

(t) [dicke Linie]

hat im Allgemeinen nichts zu tun mit dem zeitlichen Mittelwert einer Realisierung

(2) Varianz

E

(X(t) − m

X

(t))

2

=

Z

−∞

(x − m

X

(t))

2

f

X

(x, t) dx = Var (x)

(3) Korrelationsfunktion (Autokorrelationsfunktion, AKF)

E [X(t

1

)X(t

2

)] =

Z

−∞

Z

−∞

x

1

x

2

· f

X

(x

1

, t

1

; x

2

, t

2

) dx

2

dx

1

= s

X

(t

1

, t

2

) = ψ

XX

(t

1

, t

2

) Eigenschaften:

a) s

X

(t

1

, t

2

) = s

X

(t

2

, t

1

) b) s

X

(t, t) = E

X

2

(t)

≥ 0 (4) Kovarianzfunktion

E [(X(t

1

) − m

X

(t

1

))(X(t

2

) − m

X

(t

2

))] =

Z

−∞

Z

−∞

(x

1

− m

X

(t

1

))(x

2

− m

X

(t

2

))f

X

(x

1

, t

1

; x

2

, t

2

) dx

2

dx

1

= Cov (X(t

1

), X(t

2

)) Eigenschaften:

a) Cov (X(t

1

), X(t

2

)) = E [X(t

1

)X(t

2

)] − E [X(t

1

)] E[X(t

2

)] = s

X

(t

1

, t

2

) − m

X

(t

1

) · m

X

(t

2

) b) Cov (X(t), X(t)) = Var (X(t))

(5) Kovarianzmatrix

Cov (X) =

Cov (X(t

1

), X(t

1

)) Cov (X(t

1

), X(t

2

)) · · · Cov (X(t

1

), X(t

n

)) Cov (X(t

2

), X(t

1

)) Cov (X(t

2

), X(t

2

)) · · · Cov (X(t

2

), X(t

n

))

.. . .. . . .. .. .

Cov (X(t

n

), X(t

1

)) Cov (X(t

n

), X(t

2

)) · · · Cov (X(t

n

), X(t

n

))

(6) Kreuzkorrelationsfunktion (zwei Prozesse X und Y ) E[X(t

1

)Y (t

2

)] =

Z

−∞

Z

−∞

xy · f

(XY)

(x, t

1

; y, t

2

) dy dx = s

XY

(t

1

, t

2

) = ψ

XY

(t

1

, t

2

) Eigenschaften:

a) s

XY

(t

1

, t

2

) = s

Y X

(t

2

, t

1

)

b) s

XX

(t

1

, t

2

) = s

X

(t

1

, t

2

) (AKF)

(15)

8.3 Station¨ are Prozesse

8.3.1 Definitionen und Eigenschaften

T ⊂ R -

t1 t2 tn t1+∆ t2+∆ tn+∆

x

Definition: Der zuf¨ allige Prozess X heißt station¨ ar, wenn f¨ ur beliebige n uund ∆ gilt:

F

X

1

, t

1

; ξ

2

, t

2

; . . . ; ξ

n

, t

n

) = F

X

1

, t

1

+ ∆; ξ

2

, t

2

+ ∆; . . . ; ξ

n

, t

n

+ ∆) Entsprechendes gilt f¨ ur die Dichtefunktion.

Folgerungen

n=1: In f

X

(x, t + ∆) = f

X

(x, t) ist ∆ beliebig, also auch ∆ = −t.

⇒ f

X

(x, t) = f

X

(x, 0) zeitunabh¨ angig

⇒ E[X(t)] =

R

−∞

xf

X

(x, 0) dx = m

X

(0) = m

X

= const

n=2: In f

X

(x

1

, t

1

+ ∆; x

2

, t

2

+ ∆) = f

X

(x

1

, t

1

; x

2

, t

2

) ist ∆ beliebig, also auch ∆ = −t

1

.

⇒ f

X

(x

1

, t

1

; x

2

, t

2

) = f

X

(x

1

, 0; x

2

, t

2

− t

1

| {z }

τ

)

⇒ s

X

(t

1

, t

2

) = E[X(t

1

)X(t

2

)] = s

X

(t

2

− t

1

) = s

X

(τ ) = E[X(t) · X(t + τ )]

Definition: X heißt schwach station¨ ar (station¨ ar im weiteren Sinne), wenn a) e[x(t)] = m

x

= const

b) e[x(t

1

)x(t

2

)] = s

x

(t

1

, t

2

) = s

x

(t

2

− t

1

) = s

x

(τ ) c) e

x

2

(t)

< ∞

Im weiteren werden in 8.3 station¨ are Prozesse mit m

X

= 0 betrachtet.

8.3.2 Korrelationsfunktionen Eigenschaften:

a) s

X

(τ ) = s

X

(−τ ) (gerade Funktion) b) |s

X

(τ )| ≤ s

X

(0) (s. Aufgabe 8.21) Typische Verl¨ aufe:

6

- s

X

(τ )

τ

6

- s

X

(τ )

τ

6

- s

X

(τ )

τ

(16)

Anschauliche Erkl¨ arung der AKF

T ⊂ R

t t+τ1 t+τ2

3 r r 2 r 1

3 r r 2 r 1

r rr

1 3 2

6

- x(t + τ )

x(t) 1 r 2

3

r

r

τ = 0 maximal korreliert

6

- x(t + τ )

x(t) r 1 2

3

r

r

τ = τ

1

stark korreliert

6

- x(t + τ )

r x(t) 1 2 3

r r

τ = τ

2

schwach korreliert 8.3.3 Leistungsdichtespektrum

Sei s

X

(τ ) ¨ uberall stetig und absolut integrierbar. Dann sei S

X

(ω) =

Z

−∞

s

X

(τ ) · e

jωτ

dτ, s

X

(τ ) = 1 2π

Z

−∞

S

X

(ω) · e

jωτ

dω.

Die Bildfunktion S

X

(ω) heißt Leistungsdichtespektrum (Theorem von Wiener und Hinqin ).

Bedeutung von S

X

(ω):

ˆ leicht messtechnisch erfassbar

ˆ einfache Zusammenh¨ ange bei linearen Systemen Eigenschaften von S

X

(ω):

(1) S

X

(ω) = S

X

(−ω) (gerade Funktion) (2) S

X

(ω) ≥ 0 (reell)

(3) E[X

2

(t)] = S

X

(0) =

12

R

−∞

S

X

(ω) e

−jωτ

| {z }

1

dω =

1

R

−∞

S

X

(ω) dω ≥ 0

Typische Verl¨ aufe: (1–3, 4: AKF von 3., weißes Rauschen) 6

-

SX(ω)

ω

6

-

SX(ω)

ω

6

-

SX(ω)

ω S

0

6

-

sX(τ)

τ 6 S

0

· δ(τ )

Definition: Ein zuf¨ alliger Prozess mit S

X

(ω) = S

0

= const heißt weißes Rauschen. Idealisie-

rung, weil E[X

2

(t)] → ∞.

(17)

8.3.4 Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrum Zwei station¨ are Prozesse X und Y .

f

(X,Y)

(x, t

1

; y, t

2

) = f

(X,Y)

(x, t

1

+ ∆; y; t

2

+ ∆) (station¨ ar verbundene Prozesse). Dann gilt analog zu 8.3.1:

s

XY

(t

1

, t

2

) = E[X(t

1

)Y (t

2

)] = s

XY

(0, t

2

− t

1

) = s

XY

(τ ) mit den Eigenschaften: s

XY

(τ ) = s

Y X

(−τ ) und s

XY

(−τ ) = s

Y X

(τ ) Definition: Kreuzleistungsdichtespektrum

S

XY

(ω) =

Z

−∞

s

XY

(τ )e

−jωτ

dτ, s

XY

(τ ) = 1 2π

Z

−∞

S

XY

(ω)e

jωτ

8.4 Spezielle Prozesse

8.4.1 Gauß-Prozesse

Ein zuf¨ alliger Prozess heißt Gauß-Prozess oder normaler Prozess, falls:

f

X

(x

1

, t

1

; . . . ; x

n

, t

n

) = 1

p (2π)

n

det C exp

− 1

2 (x − m)C

−1

(x − m)

0

(x − m) = x

1

− m

X

(t

1

) x

2

− m

X

(t

2

) · · · x

n

− m

X

(t

n

)

Zeilenvektor

(x − m)

0

= (x − m)

T

=

x

1

− m

X

(t

1

) x

2

− m

X

(t

2

)

· · · x

n

− m

X

(t

n

)

Spaltenvektor

C =

Cov (X(t

1

), X(t

1

)) · · · Cov (X(t

1

), X (t

n

)) Cov (X(t

2

), X(t

1

)) · · · Cov (X(t

2

), X (t

n

))

.. . . .. .. .

Cov (X(t

n

), X(t

1

)) · · · Cov (X(t

n

), X(t

n

))

Kovarianzmatrix

Cov (X(t

i

), X(t

j

)) = s

X

(t

i

, t

j

) − m

X

(t

i

) · m

X

(t

j

)

Beachte: Der Gauß-Prozess ist durch m

X

(t) und s

X

(t

1

, t

2

) vollst¨ andig charakterisiert.

8.4.2 Markov-Prozesse

Folge aufeinanderfolgender Zeitpunkte: t

1

< t

2

< t

3

< · · · < t

n

Definition 1: Ein Prozess X heißt rein stochastisch (ohne Ged¨ achtnis), falls f

X

(x

n

t

n

| x

1

, t

1

; x

2

, t

2

; . . . ; x

n−1

, t

n−1

| {z }

bekannte Vergangenheit

) = f

X

(x

n

t

n

)

z.B. W¨ urfeln.

(18)

Definition 2: Ein Prozess heißt Markov-Prozess, wenn

f

X

(x

n

t

n

|x

1

, t

1

; x

2

, t

2

; . . . ; x

n−1

, t

n−1

) = f

X

(x

n

t

n

|x

n−1

, t

n−1

) z.B. Automat

Beispiel: Wiener-Prozess (Brausche Bewegung); T = [0, ∞) f

X

(x, t) =

( δ(x) t = 0

√1 2π

exp

x2t2

t > 0

f

X

(x

2

, t

2

|x

1

, t

1

) =

( δ(x

2

− x

1

) t

2

= t

1

1

2π(t2−t1)

exp h

(x2(t2−x1)2

2−t1)

i

sonst

(19)

9 Statische Systeme

9.1 Abbildung von Zufallsgr¨ oßen 9.1.1 Determinierte Systemabbildung

X

 

 

 

  X

1

X

2

.. . X

l

Y

1

Y

2

.. . Y

m

 

 

 

  Y a

a a

a a a

.. . .. .

Φ

y = Φ(x)

Definition: Ein statistisches System heißt de- terminiert, falls f¨ ur alle ω ∈ Ω gilt, daß mit y = Y (ω) und x = X(ω) gilt:

y = Φ(x) [Stochastische Systemabbildung → 9.3.1]

9.1.2 Transformation der Dichtefunktion

gegeben: Zuf¨ alliger Vektor X mit F

X

oder f

X

, Systemabbildung Φ gesucht: F

Y

oder f

y

des zuf¨ alligen Vektors Y am Systemausgang Zun¨ achst: L¨ osung f¨ ur den Sonderfall l = m = 2 und Φ bijektiv.

Φ

bijektiv a

a

a a X

 X

1

X

2

Y

1

Y

2

 Y

Y = Φ(X) bestehe aus den Teilabbildungen Y

1

= ϕ

1

(X

1

, X

2

)

Y

2

= ϕ

2

(X

1

, X

2

) Dann gilt f¨ ur die Werte der Zufallsgr¨ oßen Y

1

= ϕ(x

1

, x

2

) und Y

2

= ϕ(x

1

, x

2

):

6

- R

R

6

- R

R X

2

X

1

X q '

&

$

% Φ

−1

(B)

@

Y

2

Y

1

q Y '

&

$

% z

Φ

Da Φ bijektiv sein soll, folgt:

X

1

= ϕ

1−1

(Y

1

, Y

2

) X

2

= ϕ

2−1

(Y

1

, Y

2

)

X = Φ

−1

(Y )

Ansatz: P (Y ∈ B) = P(X ∈ Φ

−1

(B)), mit Variablentransformation (→ Analysis) x

(B)

f

Y

(y

1

, y

2

)

| {z }

gesucht

dy

2

dy

1

= x

−1(B))

f

X

(x

1

, x

2

)

| {z }

bekannt

dx

2

dx

1

= x f

X

1−1

(y

1

, y

2

), ϕ

2−1

(y

1

, y

2

))

∂(ϕ12)

∂(x1,x2)

dy

2

dy

1

mit der sogenannten Funktionaldeterminante:

∂(ϕ

1

, ϕ

2

)

∂(x

1

, x

2

)

=

det

∂ϕ1(x1,x2)

∂x1

∂ϕ1(x1,x2)

∂x2

∂ϕ2(x1,x2)

∂x1

∂ϕ2(x1,x2)

∂x2

(20)

Dann gilt umso genauer, je kleiner B, aber auch allgemein:

f

Y

(y

1

, y

2

) =

f

X

(x

1

, x

2

)

∂ϕ1(x1,x2)

∂(x1,x2)

x11−1(y1,y2) x22−1(y1,y2)

Sonderfall l = m = 1:

f

Y

(y) =

 f

X

(x)

∂ϕ

∂x

x=ϕ−1(y)

Beispiele

1. Beispiel: l = m = 1 X a (...)

3

a Y Y = ϕ(X) = X

3

gegeben:

f

X

(x) =

1

b−1

a ≤ x ≤ b 0 sonst

6

-

1 b−a fX(x)

a b x

gesucht: f

Y

(y) 1. y = ϕ(x) = x

3

2. Funktionaldeterminante:

dϕ(x) dx

= 3x

2

3. Umkehrfunktion: x = ϕ

−1

(y) = √

3

y 4. Einsetzen → Dichte

⇒ f

Y

(y) = (

1

b−a 1 3(√3

y)2

a

3

≤ y ≤ b

3

0 sonst

6

-

fY(y)

a b x

2. Beispiel: l = 2, m = 1. Y

1

= ϕ

1

(X

1

, X

2

) = X

1

+ X

2

, Y

2

= ϕ

2

(X

1

, X

2

) = X

2

gegeben: f

X

(x

1

, x

2

), gesucht: f

Y

(y)

1. Werte: y

1

= ϕ

1

(x

1

, x

2

) = x

1

+ x

2

, y

2

= ϕ

2

(x

1

, x

2

) = x

2

2. Funktionaldeterminante

∂(ϕ

1

, ϕ

2

)

∂(x

1

, x

2

) =

∂ϕ1

∂x1

∂ϕ2

∂x2

∂ϕ2

∂x1

∂ϕ2

∂x2

=

1 1 0 1

= 1 3. Umkehrfunktion

x

1

= ϕ

1−1

(y

1

, y

2

) = y

1

− y

2

x

2

= ϕ

2−1

(y

1

, y

2

) = y

2

4. Einsetzen → Dichte

f

Y

(y

1

, y

2

) =

f

X

(x

1

, x

2

) 1

x1=y1−y2

x2=y2

= f

X

(y

1

− y

2

, y

2

)

(21)

5. ¨ Ubergang zur Randdichte f

Y

(y) = f

Y1

(y) =

Z

−∞

f

Y

(y

1

, y

2

) dy

2

=

Z

−∞

f

X

(y

1

− y

2

, y

2

) dy

2

Sonderfall: x

1

, x

2

unabh¨ angig → f

X

(x

1

, x

2

) = f

X1

(x

1

) · f

X2

(x

2

) f

Y

(y) =

Z

−∞

f

X1

(y

1

− y

2

) · f

X2

(y

2

) dy

2

= (f

X1

∗ f

X2

)(y)

Bei der Summation unabh¨ angiger ZGen werden ihre Dichtefunktionen gefaltet.

Konkreter Fall:

6

- 6

-

1 a

fX2(x2)

x2

a

1 a

fX1(x1)

x1

a

X

2

X

1

a a

6

? n

+ a Y

- f

Y

(y) 6

1 a

Q

Q Q

Q Q

a Q 2a y

z.B. Fertigungstoleranzen von Widerst¨ anden, Ann¨ aherung an die Normalverteilung

a R a

R = (100 ± 10) Ω 90 100 110 R/Ω -

a R R a

R = (200 ± 20) Ω 180 200 220 R/Ω -

Q

Q Q

Q Q

a R R R a

R = (300 ± 30) Ω 270 300 330 R/Ω -

3. Beispiel: l = m = 1, aber ϕ nicht bijektiv.

X a a Y

- 6

x0

Einweggleichrichter mit Vorspannung

Y = ϕ(X) =

0 X ≤ x

0

aX − b X > x

0

mit a, b > 0

(22)

gegeben: f

X

(x) =

1

e

12x2

gesucht: f

Y

(y)

Betrachtung der Kennlinie:

1. P {Y < 0} = 0

2. P {Y = 0} = P {X < x

0

} =

R

−∞

f

X

(x) dx =

1

R

−∞

e

12x2

dx = p

0

(Tabelle) 3. P {Y > 0} : ϕ ist bijektiv

Werte: y = ϕ(x) = a · x + b

Funktionaldeterminante:

∂ϕ∂x

= a

Umkehrfunktion: x = ϕ

−1

(y) =

1a

(y + b)

Dichte: f

Y

(y) =

1

2π 1

a

e

12·a12(y+b)2

y > 0, sonst 0.

Ergebnis ist eine gemischte Dichte.

9.1.3 Vorgeschriebene Verteilungsfunktion

F

X

(x) a ϕ = ? a F

Y

(y)

l = m = 1. Gegeben: F

X

(x), gew¨ unscht: F

Y

(y).

L¨ osung unter der Voraussetzung, dass Systemabbil- dung bijektiv ist.

- 6

R R

y x

P {X < x} = P {Y < y}

F

X

(x) = F

Y

(y) F

X

(x) = F

Y

(ϕ(x)) ϕ(x) = F

Y−1

(F

X

(x))

Beispiel:

- f

X

(x) 6

1 x 1

- f

Y

(y) 6

y 1

f

X

(x) =

1 0 < x < 1

0 sonst f

Y

(y) =

e

−y

y > 0

0 y ≤ 0

- F

X

(x) 6

1 x 1

"

"

"

"

"

- F

Y

(y) 6

y 1

F

X

(x) =

0 x ≤ 0

x 0 < x < 1

1 x ≥ 1

F

Y

(y) =

0 y ≤ 0

1 − e

−y

y > 0

(23)

Berechnung der Umkehrfunktion F

Y

(y) = 1 − e

−y

= z

e

−y

= 1 − z y = ln 1

1 − z = F

Y−1

(z)

ϕ(x) = F

Y−1

(F

X

(x)) = ln 1 1 − F

X

(x)

Praktisch kommt nur vor: 0 < x < 1, d.h. F

X

(x) = x ϕ(x) = ln 1

1 − x , 0 < x < 1 9.1.4 Erwartungswert am Systemausgang

Φ

gegeben a

a

a a X

 

  X

1

.. . X

l

Y

1

.. . Y

m

 

  Y

gegeben: f

X

, Φ, Y = (Y

1

, Y

2

, . . . , Y

m

) gesucht: E(Y ) = (E(Y

1

), E(Y

2

), . . . , E(Y

m

))

Y

i

= ϕ

i

(X) = ϕ

i

(X

1

, X

2

, . . . , X

l

) (i = 1, . . . , m) E(Y

1

) =

Z

−∞

y

i

· f

Yi

(y

i

) dy

i

⇒ m¨ uhsam, da f

Yi

berechnet werden muss.

Einfacher gilt:

E(Y

i

) = E(ϕ(X

1

, . . . , X

l

)) =

Z

−∞

· · ·

Z

−∞

ϕ

i

(x

1

, . . . , x

l

) · f

X

(x

1

, . . . , x

l

) dx

1

. . . dx

l

Bekannte Sonderf¨ alle

ϕ(X) = X E(ϕ(X)) = E(X) =

R

−∞

xf

X

(x) dx s. 8.1.1

ϕ(X) = X

2

E(ϕ(X)) = E(X

2

) =

R

−∞

x

2

f

X

(x) dx s. 8.1.1

ϕ(X) = X

1

X

2

E(ϕ(X

1

, X

2

)) = E(X

1

X

2

) =

R

−∞

R

−∞

x

1

x

2

f

X

(x

1

, x

2

) dx

1

dx

2

s. 8.1.2 9.2 Abbildungen zuf¨ alliger Prozesse

9.2.1 Determinierte Prozessabbildung Definitionen:

1. X : Menge aller l-dimensionalen Eingabevektorprozesse, X = (X

1

, X

2

, . . . , X

l

) Y : Menge aller m-dimensionalen Ausgabevektorprozesse, Y = (Y

1

, Y

2

, . . . , Y

m

) 2. Prozessabbildung: Φ : X → Y, Φ(X) = Y

3. Determinierte Prozessabbildung: Φ(x) = y

(Ausgaberealisierung ist durch Eingaberealisierung festgelegt)

4. Statische determinierte Prozessabbildung: Φ(X(t)) = Y (t) oder Φ(x(t)) = y(t)

⇒ Rechenmethoden aus 9.1 k¨ onnen auf Prozesse ¨ ubertragen werden

(24)

9.2.2 Transformation der Dichtefunktion

Prozess X

mit f

X

Y Prozess

mit f

Y

= ?

a ϕ a

Sei zun¨ achst l = m = 1.

Y = ϕ(X), ϕ sei bijektiv 1. Schritt: eindimensionale Dichte f

Y

(y, t) = ?. t fest: Y (t)

| {z }

ZG

= ϕ(X(t)

| {z }

ZG

), y(t) = ϕ(x(t)).

Damit Situation wie in 9.1.2: f

Y

(y) =

˛fX(x)

˛

˛

dϕ(x) dx

˛

˛

˛

!

x=ϕ−1(y)

⇒ f

Y

(y, t) =

f˛X(x,t)

˛

˛

dϕ(x) dx

˛

˛

˛

!

x=ϕ−1(y)

Schritt 2: f

Y

(y

1

, t

1

; y

2

, t

2

) = ?

t

2

fest:

t

1

fest:

X(t

2

) X(t

1

) a a

ϕ ϕ

a a

Y (t

2

) Y (t

1

)

y

1

= ϕ(x

1

) = ϕ

1

(x

1

, x

2

) y

2

= ϕ(x

2

) = ϕ

2

(x

1

, x

2

)

Mit 9.1.2.:

f

Y

(y

1

, y

2

) =

f

X

(x

1

, x

2

)

∂(ϕ12)

∂(x1,x2)

x11−1(y1,y2) x22−1(y1,y2)

, wobei

∂(ϕ

1

, ϕ

2

)

∂(x

1

, x

2

) =

∂ϕ1

∂x1

∂ϕ1

∂x2

∂ϕ2

∂x1

∂ϕ2

∂x2

=

∂ϕ1

∂x1

0 0

∂ϕ∂x2

2

= ∂ϕ

1

∂x

1

· ∂ϕ

2

∂x

2

⇒ f

Y

(y

1

, t

1

; y

2

, t

2

) =

f

X

(x

1

, t

1

; x

2

, t

2

)

∂ϕ(x1)

∂x1

·

∂ϕ(x∂x2)

2

x1−1(y1) x2−1(y2)

Schritt 3:

f

Y

(y

1

, t

1

; . . . ; y

n

, t

n

) =

f

X

(x

1

, t

1

; . . . ; x

n

, t

n

)

∂ϕ(x1)

∂x1

· · ·

∂ϕ(x∂xn)

n

xi−1(yi) i=1,...,n

Beispiel: (Fortsetzung von 9.1.2)

X a (...)

3

a Y Y = ϕ(X) = X

3

ist bijektiv 1. t fest: y = ϕ(x) = x

3

Funktionaldeterminante:

dϕ(x)dx

= 3x

2

Umkehrfunktion: x = ϕ

−1

(y) = √

3

y

⇒ Dichte: f

Y

(y, t) =

f˛X(x,t)

˛

˛

dϕ(x) dx

˛

˛

˛

!

x=ϕ−1(y)

=

fX(x,t) 3x2

x=√3

y

=

fX(3

√y,t) 33

y2

(25)

2. t

1

, t

2

fest.

y

1

= ϕ(x

1

) = x

13 ∂ϕ(x1)

∂x1

= 3x

12

x

1

= ϕ

−1

(y

1

) = √

3

y

1

y

2

= ϕ(x

2

) = x

23 ∂ϕ(x2)

∂x2

= 3x

22

x

2

= ϕ

−1

(y

2

) = √

3

y

2

f

y

(y

1

, t

1

; y

2

, t

2

) =

f

X

(x

1

, t

1

; y

2

, t

2

) 3x

12

· 3x

22

x1=√3 y1

x2=√3 y2

= f

X

( √

3

y

1

, t

1

; √

3

y

2

, t

2

) 9( √

3

y

1

y

2

)

2

n-dimensionale Dichte analog.

9.2.3 Mittelwert und Korrelationskoeffizient am Systemausgang

Prozess X a ϕ a Prozess Y gesucht: m

Y

(t), s

Y

(t

1

, t

2

)

Unter 9.1.4:

E(Y

i

) = E(ϕ(X

1

, . . . , X

l

)) =

Z

−∞

· · ·

Z

−∞

ϕ

i

(x

1

, . . . , x

l

) · f

X

(x

1

, . . . , x

l

) dx

1

. . . dx

l

Daraus folgt speziell:

m

Y

(t) = E(Y (t)) = E(ϕ(X(t))) =

Z

−∞

ϕ(x)f

X

(x, t) dx

s

Y

(t

1

, t

2

) = E(Y (t

1

)Y (t

2

)) = E(ϕ(X(t

1

))ϕ(X(t

2

)))

=

Z

−∞

Z

−∞

ϕ(x

1

)ϕ(x

2

) · f

X

(x

1

, t

1

; x

2

, t

2

) dx

1

dx

2

9.3 Stochastische statische Systeme 9.3.1 Stochastische Systemabbildung

ZG X

stochastische

ZG Y

Systemabb.

a a

Eingabe x (fest) ⇒ ZG Y mit von x abh.

Dichte f (y|x)

Die Systemabbildung ϕ heißt stochastisch, wenn f(y|x) = f

(X,Y)

(x, y)

f

X

(x) .

Folgerungen:

1. Dichte am Ausgang:

f

Y

(y) =

Z

−∞

f

(X,Y)

(x, y) dx =

Z

−∞

d(y|x) · f

X

(x) dx

Die stochastische Systemabbildung wird durch

f (·|·) dargestellt.

Referenzen

ÄHNLICHE DOKUMENTE

Mathematisches Institut der Universit¨at Heidelberg Prof.. Beweis des Satzes von

Die Kettenreaktion wird gesteuert, so dass die Reaktionsrate konstant bleibt, d.h., dass im Mittel genau eines der neuen Neutronen wieder eine Spaltung auslöst, so dass die Anzahl

Bestimme die Kr¨ ummung der folgenden Kurven und skizziere die Situation mit dem

erstellt von Annegret Demmig, Dipl... erstellt von Annegret

[r]

Es kann an einer festen Stelle im Rechner eine Spannung anliegen oder eben nicht.. Damit ist es prinzipiell möglich, in einem Rechner Daten

Beispiel: Einige haben das Dreieck nicht mehr unter R¨ uckgriff auf die Linie definiert, weil diese zum Stoff geh¨ ore; damit werden Dreiecke nur noch durch Zahlen definiert; das

Waldmann, HTWK Leipzig Vorlesung Symbolisches Rechnen, Wintersemester 2014. Aufgabenblatt 2