• Keine Ergebnisse gefunden

Stochastische Signale

N/A
N/A
Protected

Academic year: 2022

Aktie "Stochastische Signale"

Copied!
4
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

4 ei

* kann Spuren von Katzen enthalten nicht für Humorallergiker geeignet alle Angaben ohne Gewehr *

Stochastische Signale

1. Mengenalgebra

1.1. Mengen- und Boolsche Algebra

Kommutativ A∩· B=B∩·A A⊎B=B⊎A

Assoziativ (A∩·B)∩·C=A∩·(B∩·C) (A⊎B)⊎C=A⊎(B⊎C) Distributiv A∩·(B⊎C) = (A∩·B)⊎(A∩· C)

A⊎(B∩·C) = (A⊎B)∩·(A⊎C)

Indempotenz A∩· A=A A⊎A=A

Absorbtion A∩·(A⊎B) =A A⊎(A∩· B) =A

Neutralit¨at A∩· Ω =A A⊎ ∅=A

Dominant A∩· ∅=∅ A⊎Ω = Ω

Komplement A∩· A=∅ A⊎A= Ω

A=A Ω =∅

De Morgan A∩· B=A⊎B A⊎B=A∩· B

1.2. Kombinatorik

M¨ogliche Variationen/Kombinationen umkElemente von maximalnEle- menten zu w¨ahlen bzw.kElemente aufnFelder zu verteilen:

Mit Reihenfolge Reihenfolge egal

Mit Wiederholung nk n+k−1

k

Ohne Wiederholung n!

(n−k)!

n k

Permutation vonnmit jeweilskgleichen Elementen:k n!

1 !·k2 !·...

n k

= n n−k

=k!·(n−k)!n! 4 2

= 6 5 2

= 10

1.3. Grundbegriffe

Tupel (i, j)̸= (j, i)f¨uri̸=j

Ungeordnetes Paar {i, j}={j, i}

Potenzmenge P(Ω)ist Menge aller Teilmengen vonΩ

1.4. Integralarten

F(x) f(x) f(x)

1

q+1xq+1 xq qxq−1

2

√ ax3 3

√ax 2aax

xln(ax)−x ln(ax) 1x

1

a2eax(ax−1) x·eax eax(ax+ 1) ax

ln(a) ax axln(a)

´ √dt at+b= 2

√ at+b

a

´t2eatdt=(ax−1)2 +1 a3 eat

´teatdt=at−1

a2 eat ´

xeax2dx=2a1eax2

1.5. Binome, Trinome

(a±b)2=a2±2ab+b2 a2−b2= (a−b)(a+b) (a±b)3=a3±3a2b+ 3ab2±b3

(a+b+c)2=a2+b2+c2+ 2ab+ 2ac+ 2bc

2. Wahrscheinlichkeitsr¨ aume (Ω, F , P)

Ein Wahrscheinlichkeitsraum(Ω,F,P)besteht aus

•ErgebnismengeΩ =

ω1, ω2, ... : Menge aller m¨oglichenErgebnisseωi

•EreignisalgebraF=

A1, A2, ... : Menge von EreignisenAi⊆Ω

•Wahrscheinlichkeitsmaß P

2.1. Ereignisalgebra

F⊆

P(Ω)

•Ω∈F

•Ai∈F⇒Ai ∈F

•A1,...,Ak∈F⇒ Sk i≥1

Ai∈F Daraus folgt:

• ∅ ∈F

•Ai\Aj∈F

•Tk i=1Ai∈F

|F|= 2Anzahl disjunkter Teilmengen(muss endlich sein) 2.1.1.σ-Algebra

Entwicklungk→ ∞. Unendlich viele Ergebnisse, aber jedesAibesteht aus abz¨ahlbar vielen Ergebnissen. Besitzt mindestens 2 Ereignisse.

2.2. Wahrscheinlichkeitsmaß P

P(A) =|A||Ω| P(A∪B) =P(A) +P(B)−P(A∩B) 2.2.1. Axiome von Kolmogorow

Nichtnegativit¨at: P(A)≥0⇒P:F7→[0,1]

Normiertheit: P(Ω) = 1 Additivit¨at: P

∞ S i=1

Ai

!

=

∞ P i=1

P(Ai), wennAi∩Aj=∅,∀i̸=j 2.2.2. Weitere Eigenschaften

•P(Ac) = 1−P(A)

•P(∅) = 0 P(Ω) = 1

•P(A\B) =P(A∩Bc) =P(A)−P(A∩B)

•P(A∪B) =P(A) +P(B)−P(A∩B)

•P(A∩B) =P(A) +P(B)−P(A∪B)

•A⊂B⇒P(A)≤P(B)

•P(Sk

i=1Ai)≤Pk i=1P(Ai)

3. Bedingte Wahrscheinlichkeit und Unabh¨ angigkeit

3.1. Bedingte Wahrscheinlichkeit

Bedingte Wahrscheinlichkeit f¨urAfallsBbereits eingetreten ist:

PB(A) =P(A|B) =P(A∩B)P(B)

3.1.1. Totale Wahrscheinlichkeit und Satz von Bayes Es muss gelten: S

i∈I

Bi= Ωf¨urBi∩Bj=∅,∀i̸=j Totale Wahrscheinlichkeit: P(A) =P

i∈I

P(A|Bi)P(Bi) Satz von Bayes: P(Bk|A) = PP(A|Bk)P(Bk)

i∈I

P(A|Bi)P(Bi) 3.1.2. Multiplikationssatz

P(A∩B) =P(A|B)P(B) =P(B|A)P(A) Beliebig viele Ereignisse:

P(A1∩A2∩···∩Ak)

=P Aπ(1)

P

Aπ(2)|Aπ(1) P

Aπ(3)|Aπ(2)∩Aπ(1)

×

···×P

Aπ(k)|Aπ(k−1)∩···∩Aπ(1)

3.2. Stochastische Unabh¨ angigkeit

EreigniseAundBsind unabh¨angig falls:

P(A∩B) =P(A)P(B)

⇒P(B|A) =P(B) Allgemein:

P T

i∈J Ai

!

= Q

i∈J

P(Ai)mit IndexmengeIund∅ ̸=J⊆I

4. Zufallsvariablen

4.1. Definition

X: Ω7→Ωist Zufallsvariable, wenn f¨ur jedes EreignisA∈F im Bildraum ein EreignisAim UrbildraumFexistiert, sodass

ω∈Ω|X(ω)∈A ∈F

4.2. Unabh¨ angigkeit von Zufallsvariablen

ZufallsvariablenX1,···,Xnsind stochastisch unabh¨angig, wenn f¨ur jedes

x= [x1,···, xn]∈Rngilt:

P({X1≤x1,···,Xn≤xn}) = n Y i=1

P({Xi≤xi})

Gleichbedeutend:

FX1,···,Xn(x1,···, xn) = Qn i=1

FX i(xi) pX1,···,Xn(x1,···, xn) = Qn

i=1 pX

i(xi) fX1,···,Xn(x1,···, xn) = Qn

i=1 fX

i(xi)

4.3. Bedingte Zufallsvariablen

Bedingte Wahrscheinlichkeit f¨ur Zufallsvariablen:

Ereignis A gegeben: FX|A(x|A) =P

X≤x |A ZVYgegeben: FX|Y(x|y) =P

X≤x | Y=y pX|Y(x|y) =pX,Yp (x,y)

Y(y) fX|Y(x|y) =fX,Yf (x,y)

Y(y) = dFX|Ydx(x|y)

5. Wahrscheinlichkeitsverteilungen

5.0.1. Definition

PX(A) =P({ω∈Ω|X(ω)∈A}) =P({X∈A}) ∀A∈F 5.0.2. Kumulative Verteilungsfunktion (KVF bzw. CDF)

FX(x) =P({X≤x}) Eigenschaften

•FX(x)ist monoton wachsend

•FX(x)≥0

•FX(x)ist rechtsseitig stetig:

∀h >0 : lim

h→0FX(x+h) =FX(x) ∀x∈R

• lim

x→−∞FX(x) = 0; lim

x→∞FX(x) = 1

•P({a <X≤b}) =FX(b)−FX(a)

•P({X> c}) = 1−FX(c) 5.0.3. Verteilung diskreter Zufallsvariablen

Bezeichnung Abk. Zusammenhang

Wahrscheinlichkeitsmassenfkt. pmf pX(x) =P({X=x}) Kumulative Verteilungsfkt. cdf FX(x) = P

ξ∈Ω′:ξ≤x pX(ξ)

5.0.4. Verteilung stetiger Zufallsvariablen

Bezeichnung Abk. Zusammenhang

Wahrscheinlichkeitsdichtefkt. pdf fX(x) =dFdxX(x) Kumulative Verteilungsfkt. cdf FX(x) =

´x

−∞

fX(ξ) dξ

Berechnung vonfX(x):

fX(x) = lim ϵ→0 1 ϵ

x+ϵ´ x

fX(ξ) dξ= lim ϵ→0 1

ϵP(x≤X≤x+ϵ) Normiertheit

Pp(x) +´

RfX(x) dx= 1!

5.1. Mehrdimensionale Verteilungen

5.1.1. Mehrdimensionale Zufallsvariable:

⃗X= [X1,···,Xn]T mitXiZufallsvariablen 5.1.2. Gemeinsame kumulative Verteilungsfunktion:

FX

1,···,Xn(x1,···, xn) = F

X(⃗x) =P({⃗X≤⃗x}) = P({X1≤x1,···,Xn≤xn})

5.1.3. Diskrete Zufallsvariablen:

pX

1,···,Xn(x1,···, xn) =P({⃗X=⃗x})(joint probability mass function) 5.1.4. Stetige Zufallsvariablen:

FX1,···,Xn(x1,···, xn) = x´1

−∞

···xn´

−∞

fX1,···,Xn(ξ1,···, ξn) dξn···dξ1

fX1,···,Xn(x1,···, xn) =∂n F⃗∂xX(x1,···,xn)

1···∂xn fX,Y =fY,X (joint probability density function)

5.1.5. Marginalisierung

Prinzip: Lasse alle vernachl¨assigbaren ZV gegen unendlich gehen.

FX

1,···,Xm(x1,···, xm) =FX

1,···,Xn(x1,···, xm,∞,···,∞) Randverteilung:

Spezialfall der Marginalisierung um aus der mehrdimensionalen KVF die KVF f¨ur eine ZV zu erhalten.

FX

1(x1) =FX

1,···,Xn(x1,∞,···,∞)

Randverteilung der Wahrscheinlichkeitsmasse (PMF) (f¨ur diskrete ZV)

pX

1(x1) = P x2,···,xn

pX

1,···,Xn(x1,···, xn) Randverteilung der Wahrscheinlichkeitsdichte (WDF) (f¨ur stetige ZV)

fX1(x1) =

∞´

−∞

···

∞´

−∞

fX1,···,Xn(x1,···, xn) dxn···dx2

Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ottcher, Lukas Kompatscher, Samuel Harder – Mail:samuel.harder@tum.de Stand: 9. February 2019 um 00:04 Uhr (git 45) 1/4

(2)

6. Funktionen von Zufallsvariablen

X: Ω→Ω=Rund jetztg: Ω→Ω′′=R P(A′′) =P(Y ∈A′′) =P(

X ∈Ω

g(X)∈A′′ =P(

ω∈ Ω

g(X(ω))∈A′′

6.1. Transformation von Zufallsvariablen

Berechnung vonfY(y)ausfX(x)

g(x)streng monoton & differenzierbar:

g−1(y)- Umkehrfunktion fY(y) =fX

g−1(y)

dg(x) dx

x=g−1 (y)

−1

g(x)nur differenzierbar:

fY(y) = PN i=1

fX(xi)

dg(x) dx

x=xi

−1

miti∈ {1, . . . , N} xisind Nullstellen vony−g(x) = 0

6.1.1. Beispiel: lineare Funktion

Y=aX+b⇔g(x) =ax+bmita∈R\0, b∈R:

⇒fY(y) = 1

|a|fX y−b

a

FY(y) =

 FXy−b

a

a >0 1−FXy−b

a

a <0

6.2. Summe unabh¨ angiger Zufallsvariablen

Z=X+Y mitXundYunabh¨angig.

⇒fZ=X+Y(z) = (fX∗fY) (z) =

∞´

−∞

fX(z−y)fYdy

7. Stochastische Standardmodelle

7.1. Begriffe

Ged¨achtnislos

Eine Zufallsvariable X ist ged¨achtnislos, falls:

P({X> a+b)}|{X> a}) =P({X> b}), a, b >0

7.2. Gleichverteilung

7.2.1. Diskret

pX(x) =|Ω|1 , x∈ {1, . . . ,|Ω|}

Beispiele:Wurf einer fairen M¨unze, Lottozahlen 7.2.2. Stetig (a, b:−∞< a < b <∞)

fX(x) = ( 1

b−a x∈[a, b]

0 sonst FX(x) =





0 x < a x−a

b−a x∈[a, b]

1 x > b

E[X] =a+b 2 Erwartungswert

Var[X] =(b−a)2 12 Varianz

φX(s) =ejωb−ejωa jω(b−a) Charakt. Funktion Beispiele:Winkel beim Flaschendrehen, Phase einer empf. Sinusschwin- gung

7.3. Bernoulliverteilung (p

∈[0,1]) Wahrscheinlichkeitsmasse

2 Ereignisse: Erfolg und Misserfolg p: Wahrscheinlichkeit

pX(k) =





p, k= 1 1−p k= 0

0 sonst

FX(k) =





0, k <0 1−p 0≤k <1

1 k≥1

E[X] =p Erwartungswert

Var[X] =p(1−p) Varianz

GX(z) =pz+ 1−p Wahrscheinlichkeitserz. Funktion Beispiele:Einmaliger Wurf einer (unfairen) M¨unze

7.4. Binomialverteilung

B(n, p)

(p

∈[0,1], n∈N

)

Folge vonnBernoulli-Experimenten

p: Wahrscheinlichkeit f¨ur Erfolg k: Anzahl der Erfolge Wahrscheinlichkeitsmasse pX(k) =Bn,p(k) =

(n k

pk(1−p)n−k k∈ {0, . . . , n}

0 sonst

mit n

k

= k!(n−k)!n!

WMF/PMF: KVF/CDF:

E[X] =np Erwartungswert

Var[X] =np(1−p) Varianz

GX(z) = (pz+ 1−p)n Wahrscheinlichkeitserz. Funktion Charakteristische Funktion φX(s) = 1−p+pesn Beispiele:Anzahl der ¨Ubertragungsfehler in einem Datenblock endlicher L¨ange, Wiederholtes Werfen einer M¨unze

7.5. Poisson-Verteilung (λ

≥0) Asymptotischer Grenzfall der Binomialverteilung n→ ∞, p→0, np→λ pX(k) = lim

n→∞B n, λn

(k)

WMF/PMF:

pX[k] =λkk!e−λ k∈N0

KVF/CDF:

FX[k] =zu kompliziert

E[X] =λ Erwartungswert

Var[X] =λ Varianz

GX(z) =eλ(z−1) Wahrscheinlichkeitserz. Funktion Charakteristische Funktion φX(s) = exp λ(es−1) Beispiele:Zahl der Ph¨anomene in einem Zeitintervall, Google-Anfragen in einer Stunde, Schadensmeldungen an Versicherungen in einem Monat

7.6. Geometrische Verteilung (p

∈[0,1])

Erster Erfolg eines Bernoulli-Experiments beim k-ten Versuch, Ged¨achtnislos

WMF/PMF:

pX[k] = (1−p)k−1p,k∈N

KVF/CDF:

FX[k] = 1−(1−p)k,k∈N

E[X] =1 p Erwartungswert

Var[X] =1−p p2 Varianz

GX(z) = pz 1−z+pz Wahrscheinlichkeitserz. Funktion

Charakteristische Funktion φX(s) = peıs 1−(1−p)eıs Beispiele:diskrete Dauer bis ein technisches Ger¨at zum ersten Mal ausf¨allt, Anzahl der W¨urfe bis man eine ”6”w¨urfelt

7.7. Exponentialverteilung (λ >

0)

Wie geometrische Verteilung f¨ur stetige Zufallsvariablen (“Lebensdauer“), Ged¨achtnislos

= Wartezeit bis zum ersten Auftreten eines Ereignisses WDF/PDF:

fX(x) =λe−λx x≥0

KVF/CDF:

FX(x) = 1−e−λx x≥0

E(X) = 1 λ Erwartungswert

Var(X) = 1 λ2 Varianz

φX(ω) = λ λ−jω Charakt. Funktion Beispiele:Lebensdauer von el. Bauteilen, Zeitdauer zwischen zwei Anrufen in einem Call-Center

7.8. Normalverteilung (µ

∈R, σ >0) WDF/PDF:

-3 -2 -1

0.8 0.6 0.4 0.2

0.0

−5 −3 1 3 5

x 1.0

−1 0 2 4

−2

−4

φμ,σ2(x) μ=0, μ=0, μ=0, μ=−2,

20.2,

σ=

21.0,

σ=

25.0,

σ=

20.5,

σ=

KVF/CDF:

-3 -2 -1

x 0.8

0.6 0.4 0.2 0.0 1.0

−5 −4 −3 −2 −1 0 1 2 3 4 5

Φμ,σ2(x) μ=0,

μ=0, μ=0, μ=−2,

20.2,

σ=

21.0,

σ=

25.0,

σ=

20.5,

σ=

WDF

fX(x) = 1

√ 2πσ2e

(x−µ)2 2σ2 x∈R

E(X) =µ Erwartungswert

Var(X) =σ2 Varianz

φX(ω) =ejωµ−ω 2σ2

2 Charakt. Funktion SchreibweiseX∼ N(µ, σ2)

Beispiele:Rauschen, Ort eines Teilchens relativ zu seiner Anfangsposition bei brownscher Molekularbewegung, abgefahrene Sachen, die man nicht genauer bestimmen will oder kann

7.8.1. Standartnormalverteilung ist der SpezialfallX∼ N(0,1) ϕ(x) = 1

√ 2πex

2 2 Es gilt außerdem:

•Y∼ N(µ, σ2)⇒X= 1

σ(Y−µ)∼ N(0,1)

•X∼ N(0,1)⇒Y=σX+µ∼ N(µ, σ2)

Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ottcher, Lukas Kompatscher, Samuel Harder – Mail:samuel.harder@tum.de Stand: 9. February 2019 um 00:04 Uhr (git 45) 2/4

(3)

8. Erwartungswert

8.1. Erwartungswert

gibt den mittleren Wert einer Zufallsvariablen an E[X] = P

x∈Ω′x·PX(x) diskreteX:Ω→Ω′

∧= ´ R

x·fX(x) dx stetigeX:Ω→R

Eigenschaften:

Linearit¨at: E[αX+βY] =αE[X] +βE[Y]

Monotonie: X≤Y⇒E[X]≤E[Y]

Beweis mit der Definition und der Linearit¨at des Integrals bzw. der Summe.

E[X Y] =E[X]E[Y], fallsXundYstochastisch unabh¨angig Umkehrung nicht m¨oglich: Unkorrelliertheit̸⇒Stoch. Unabh¨angig!

E[X Y] =´ R

´ R

xy·fX,Y(x, y) dxdy Spezialfall f¨urX: Ω→R+: E[X] =

∞´ 0

P(X> t) dt(stetig) E[X] =

∞ P k=0

P(X> k)(diskret) 8.1.1. F¨ur Funktionen von Zufallsvariableng:R→R

E[g(X)] = P

x∈Ω′g(x)PX(x) = ´ R

g(x)fX(x) dx

9. Varianz und Kovarianz

9.1. Varianz

ist ein Maß f¨ur die St¨arke der Abweichung vom Erwartungswert Var[X] =E

(X−E[X])2

=E[X2]−E[X]2

Var[αX+β] =α2Var[X] Var[X] =Cov[X,X]

Var

"

n P i=1

Xi

#

= n P i=1

Var[Xi] +P j̸=i

Cov[Xi,Xj] 9.1.1. Standard Abweichung

σ=p Var[X]

9.2. Kovarianz

Maß f¨ur den linearen Zusammenhang zweier Variablen Cov[X,Y] =E[(X−E[X])(Y−E[Y])] =Cov[Y,X]

Cov[X,Y] =E[X Y]−E[X]E[Y] =Cov[Y,X]

Cov[αX+β, γY+δ] =αγCov[X,Y]

Cov[X+U,Y+V] =Cov[X,Y] +Cov[X,V] +Cov[U,Y] +Cov[U,V]

9.3. Unkorreliertheit

wenn gilt:

Cov[X,Y] = 0⇔E[X Y] =E[X]E[Y] Stoch. Unabh¨angig⇒Unkorrelliertheit

wenn ZV normalverteilt (sonst nicht!):

Unkorreliertheit⇒stoch. Unabh¨angigkeit bei paarweisen unkorrellierten Zufallsvariablen:

Var[

n P i=1

Xi] = n P i=1

Var[Xi]

9.4. Orthogonalit¨ at

E[X Y] = 0 mit dem Korrelationswert E[X Y]

9.5. Korrelationskoeffizient

ρX,Y =√ Cov[X,Y]

Var[X]√

Var[Y]=σcX,Y

XσY mitρX,Y ∈[−1,1]

Korrelationskoeffizient von X und Y

Es gilt:





negativ korreliert ρX,Y∈[−1,0) unkorreliert ρX,Y= 0 positiv korreliert ρX,Y∈(0,1]

10. Erzeugende und charakter. Funktionen

10.1. Wahrscheinlichkeitserzeugende Funktion

f¨urX: Ω→N0

GX(z) =E[zX] =

∞ X k=0

pX(k)zk, |z| ≤1

Anwendungen

pX(n) =P(

X=n ) = 1 n![dn

dznGX(z)]z=0, ∀n∈N0 E[X] = [d

dzGX(z)]z=1 E[X2]−E[X] = [d2

dz2GX(z)]z=1 Var[X] = [d2

dz2GX(z)]z=1−E[X]2+E[X]

F¨urXi: Ω→N0, i∈

1, . . . , n stochastisch unabh¨angige, diskrete, nichtnegative ZV undZ=Pn

i=1Xi

GZ(z) = n Y i=1

GXi(z)

10.2. Charakteristische Funktion

φX(ω) =Eh

eıωXi

, ω∈R φX=

∞´

−∞

eıωxfX(x) dx fX(−x)

b r

φ(ω)

Erwartungswert:

E[Xn] = 1 ın

"

dnnφX(ω)

#

ω=0 Summe von ZV:Z=Pn

i=1Xi

φZ(ω) = n Y i=1

φXi(ω)

10.3. Der zentrale Grenzwertsatz

Definition: SeienXi, i∈1, ..., n, stochastisch unabh¨angige und iden- tisch verteilte reelle Zufallsvariablen und gelteE[Xi] =µ <∞und V ar[Xi] =σ2<∞. Dann konvergiert die Verteilung der standardi- sierten Summe

Zn= Pn i=1

(X−µ) σ√

n

d.hE[Zn] = 0undV ar[Zn] = 1, f¨urn→ ∞gegen die Standart- normalverteilung.

Es gilt also:

limn→∞P(Zn≤z) = Φ(z)

11. Reelle Zufallsfolgen

Eine reelle Zufallsfolge ist ganz einfach eine Folge reeller Zufallsvariablen.

Ensemble

Sn: Ωn×Ωn−1× · · · ×Ω1→R

(ωn, ωn−1, . . . , ω1)7→sn(ωn, ωn−1, . . . , ω1), n∈N Erkl¨arung: Jede Realisierung von Sn wird erzeugt durch die Men- ge (das Ensemble) aufeinanderfolgender Realisierungen Xk mit k∈ {1, . . . , n}.

Pfad

⃗Sn= (Sn,Sn−1, . . . ,S1) : Ω(n)→Rn

ωn7→⃗sn(⃗ωn) = (sn(⃗ωn), sn−1(⃗ωn), . . . , s1(⃗ωn)), n∈N Erkl¨arung:Die Abfolge der Realisierungen von S1bis Sn(also der Pfad von S) und somit auch jedes einzelne Skkann als Ergebnis des Ereignisses

ωnangesehen werden.

11.1. Verteilungen und Momente

Erwartungswert µX(n) =E[Xn]

Varianzfolge σX2(n) =V ar[Xn] =E[X2n]−E[Xn]2 Autokorrelation rX(k, l) =E[XkXl]

Autokovarianz cX(k, l) =Cov[Xk,Xl]=rX(k, l)−µX(k)µX(l)

11.2. Random Walk

n∈NSchritte mit 2 m¨oglichen BewegungsrichtungenX∈ {+δ,−δ}

Sn= n X i=1

Xi

P({Xi= +δ}) =p P({Xi=−δ}) = 1−p symmetrisch⇔p=12, µS(n) = 0

E[S] =µS(n) =n(2p−1)δ E[Xi] = (2p−1)δ V ar[S] =σS2(n) = 4np(1−p)δ2 V ar[Xi] = 4p(1−p)δ2

11.3. Stationarit¨ at

Eine Zufallsfolge iststation¨ar, wenn um ein beliebigesk(k∈N)zuein- ander verschobene Zufallsvektoren die selbe Verteilung besitzen.

Imweiteren Sinne station¨ar (W.S.S.), wenn:

µX(i) =µX(i+k)

rX(i1, i2) =rX(i1+k, i2+k) =rX(i1−i2) (verschiebungsinvariant)

station¨ar⇒WSS (aber nicht anders herum!)

11.4. Markow-Ungleichung

P(

|X| ≥a )≤E[|X|]

a

11.5. Tschebyschow-Ungleichung

P(

|X−E[X]| ≥a )≤Var[X] a2

11.6. Das schwache Gesetz der großen Zahlen

Sei(Xi:i∈N)eine Folge reeller, paarweise unkorrelierter Zufallsvaria- blen mit beschr¨ankter Varianz:

1 n

n P i=1

(Xi−E[Xi])→0

F¨ur stochastisch unabh¨angige und identisch verteilte Folgenelemente mitE[Xi] =E[X]undV ar[Xi] =V ar[X]<∞gilt:

1 n

n P i=1

(Xi)→E[Xi]

Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ottcher, Lukas Kompatscher, Samuel Harder – Mail:samuel.harder@tum.de Stand: 9. February 2019 um 00:04 Uhr (git 45) 3/4

(4)

12. Markowketten

(bedingte Unabh¨ angigkeit: Abschnitt 14)

12.1. Markowketten

12.1.1. Allgemein

Eine Zufallsfolge (Xn:n∈N) heißt Markowkette, falls∀ni∈N, i∈1, . . . kmitn1<· · ·< nkgilt:

(Xn1,Xn2, . . .Xnk−2)→Xnk−1→Xnk

⇒Die Verteilung eines Folgeelements h¨angt nur vom direkten Vorg¨anger ab

pX

nk|Xnk−1,Xnk−2,...,Xn1(xnk|xnk−1, xnk−2, ..., xn1)

=pX

nk|Xnk−1(xnk|xnk−1)

fX

nk|Xnk−1,Xnk−2,...,Xn1(xnk|xnk−1, xnk−2, ..., xn1)

=fX

nk|Xnk−1(xnk|xnk−1)

12.1.2. Zustands¨ubergang Zustands¨ubergangswahrscheinlichkeit:

pXn|X

n−1(xn|xn−1) Verbund-WMF:

pX1,...,Xn(x1, ..., xn) =pX1(x1) n Q i=2

pX

i|Xi−1(xi|xi−1) Zustands¨ubergangsdicht:

fXn|X

n−1(xn|xn−1) Verbund-WDF:

fX1,...,Xn(x1, ..., xn) =fX1(x1) n Q i=2

fX

i|Xi−1(xi|xi−1)

Eine Markowkette heißthomogen, wenn die ¨Ubergangswahrscheinlichkeit unabh¨angig vom Index ist

pX

n+1|Xn(xn+1|xn) =pX

n+1+k|Xn+k(xn+1|xn) fX

n+1|Xn(xn+1|xn) =fX

n+1+k|Xn+k(xn+1|xn) 12.1.3. Chapman-Kologorow Gleichung

2-Schritt- ¨Ubergangswahrscheinlichkeit:

pX

n+2|Xn(xn+2|xn) = P

ξ∈X pX

n+2|Xn+1(xn+2|ξ)pX

n+1|Xn(ξ|xn) m+l-Schritt- ¨Ubergangswahrscheinlichkeit:

pX

n+m+l|Xn(xn+m+l|xn) = P

ξ∈X pX

n+m+l|Xn+m(xn+m+l|xn+m)pX

n+m|Xn(xn+m|xn)

12.1.4. Markowketten im endlichen Zustandsraum

⃗ pn≜

 pXn(x1) pXn(x2)

.. . pXn(xN)

∈[0,1]Nmit[⃗pn]i=pXn(xi)

Ubergangsmatrix:¨ Π =

p11 · · · p1N ..

. ...

pN1 pN N

∈[0,1]N×N

Ubergangswahrscheinlichkeit:¨ pij=pX

n+1|Xn(ξij) Spaltensumme muss immer 1 ergeben!

pn+1= Π⃗pn n∈N

pn+m= Πm⃗pn n, m∈N Eine Verteilung heißtstation¨ar, wenn gilt:

⃗ p= Π⃗p

13. Reelle Zufallsprozesse

13.1. Ensemble und Musterfunktion

•Ein Zufallsprozess kann alsEnsembleeiner nicht abz¨ahlbaren Menge von ZufallsvariablenXtmitt∈Rinterpretiert werden.

•Ein Zufallsprozess kann alsSchar von Musterfunktionen Xt(ω) :R 7→R,mitX(ω)als deterministische Funktion vont, mit einem gegebenen Ereignisω∈Ωinterpretiert werden.

13.2. Verteilungen und Momente

Zeitlich, Kontinuierlich ver¨anderliche ZufallsvariableXt Erwartungswertfunktion:

µX(t) =E[Xt] Autokorrelationsfunktion:

rX(s, t) =E[XsXt] Autokovarianzfunktion:

cX(s, t) =Cov(Xs,Xt) =rX(s, t)−µX(s)µX(t)

Hinweis:Bei Integration ¨uberrXimmer darauf achten, dasss−t >0.

Bei Bedarf Integral aufteilen und Grenzen anpassen.

13.3. Stationarit¨ at

Ein Zufallsprozess iststation¨ar, wenn um ein beliebigess (s ∈ R) zueinander verschobene Zufallsvektoren die selbe Verteilung besitzen.

FXt

1,...,Xtn(x1, . . . xn) =FX

t1 +s ,...,Xtn+s(x1, . . . xn) Imweiteren Sinne station¨ar (WSS), wenn:

µX(i) =µX(i+k) =µX

rX(i1, i2) =rX(i1+k, i2+k) =rX(i1−i2) Daraus folgtmits=t+τ

rX(s, t) =E[XsXt] =E[Xt+τXt] =rX(s−t) =rX(τ) Imweiteren Sinne zyklisch station¨ar, wenn:

µX(t) =µX(t+T) ∧ rX(t1, t2) =rX(t1+T , t2+T) station¨ar⇒WSS⇒im weiteren Sinne zyklisch station¨ar (aber nicht anders herum!)

13.4. Mehrere Zufallsvariablen auf dem selben Wahrschein- lichkeitsraum

Kreuzkorrelationsfunktion:

rX,Y(s, t) =E[XsYt] =rY,X(t, s) Kreuzkovarianzfunktion:

cX,Y(s, t) =rX,Y(s, t)−µX(s)µY(t) =cY,X(t, s) 13.4.1. Gemeinsame Stationarit¨at

Zwei Zufallsprozesse auf demselben Wahrscheinlichkeitsraum sindgemein- sam station¨ar, wenn die einzelnen ZPs jeweils selbst station¨ar sind und ihre gemeinsamen Verteilungen verschiebungsinvariant sind.

13.4.2. Gemeinsam im weiteren Sinne station¨ar Voraussetzung:XtundYtsind gemeinsam WSS wenn,

XtundYteinzelnd WSS und rX,Y(t1, t2) =rX,Y(t1+s, t2+s)

gemeinsam station¨ar⇒gemeinsam WSS (aber nicht umgekehrt!) Daraus folgtmits=t+τ

rX(s, t) =E[Xt+τXt] =rX(τ) =rX(−τ) rX(τ)≤rX(0) rX,Y(τ) =E[Xt+τYt] =E[YtXt+τ] =rY,X(−τ)

13.4.3. Stochastische Unkorreliertheit

cX,Y(s, t) = 0⇔rX,Y(s, t) =µ(s)µ(t), ∀s, t∈R 13.4.4. Orthogonalit¨at

rX,Y(s, t) = 0, ∀s, t∈R

13.5. Wiener-Prozess (σ >

0)

Als Basis benutzen wir den Random Walk. Durch Multiplikation mit einer Heaviside-Funktion wird der Random Walk zeitkontinuierlich:

Sn= n P i=1

Xi ⇒ St=

n P i=1

Xiu(t−iT) T >0 F¨ur n→ ∞und T→ 0, mit Schrittweiteδ =

σ2T folgt der Wiener Prozess:Wt

fWt(w) =√ 1 2πσ2texp

w2 2σ2t

Eigenschaften

•Kein Z¨ahlprozess!

•P({W0= 0}) = 1

•hat unabh¨angige Inkremente→rxy(s, t) = 0

•Wt∼ N(0, σ2t),∀0≤t

•Wt−Ws∼ N(0, σ2(t−s)),∀0≤s≤t

•Wt(ω)ist eine stetige Musterfunktion mit Wahrscheinlichkeit 1

Erwartungswertfunktion. µW(t) = 0

Varianz σW2 (t) =σ2t

Autokorrelationsfunktion rW(s, t) =σ2min{s, t}

Autokovarianzfunktion cW(s, t) =σ2min{s, t}

13.6. Poisson-Prozess (N

t:t∈R+

)

Der Poisson-Prozess ist ein Z¨ahlprozess, bei dem der Zeitpunkt der Spr¨unge durch ZV modelliert wird, nicht die Amplitude.

Nt=

∞ P i=1

u(t−Ti), Ti= i P j=1

Xj

Xjist exponentiell verteilt,Tiist Gamma-verteilt fTi(t) =(i−1)!λi ti−1e−λt, t≥0 P({Nt=n}) =(λt)n

n! e−(λt), ∀n∈N0, t∈R+ Eigenschaften

•ist ein Z¨ahlprozess (Nt∈N0, monoton steigend und stetig)

•hat unabh¨angige Inkremente

•Nt−Nsist Poisson-verteilt mit Parameter (λ(t−s)f¨ur alle 0≤s≤t

•hat eine Rateλ

•Zeitintervalle zwischen den Inkremetierungen sind unabh¨angig und identisch exponentialverteilt mit Parameterλ=ged¨achtnislos Erwartungswertfunktion µN(t) =λt

Varianz σ2N(t) =λt

Autokorrelationsfunktion rN(s, t) =λmin{s, t}+λ2st Autokovarianzfunktion cN(s, t) =λmin{s, t}

14. Bedingte Unabh¨ angigkeit

14.1. Bedingte Unabh¨ angigkeit

A und C heißen bedingt unabh¨angig gegeben B, wenn gilt:

P(A∩C|B) =P(A|B)P(C|B)bzw.

P(A|B∩C) =P(A|B) Dann gilt:

pZ|Y,X(y|y, x) =pZ|Y(z|y) fZ|Y,X(z|y, x) =fZ|Y(z|y)

X,Zsind bedingt unabh¨angig gegebenY, kurz:X→Y→Z

15. Zufallsprozesse(ZP) und lineare Systeme

15.1. Allgemeines

ImZeitbereich:

w(t) = (h∗v)(t) =

∞´

−∞

h(t−τ)v(τ) dτ Erwartungswert:µW= (µV∗h)(t)(nicht WSS) ImFrequenzbereich:

W(f) =H(f)V(f)

V W

Wt Ausgang

Vt Eingang h(s, t)Impulsantwort Falls ZufallsprozesseWSS:

Erwartungswert:µWV

∞´

−∞

h(t) dt

Kreuzkorrelationsfkt:rW,V(τ) =E[WsVt] = (h∗rV)(τ) Autokorrelationsfkt:rW(τ) =E[WsWt] = (˜h∗h∗rV)(τ) mit˜h(τ) =h(−τ)

15.2. Leistungsdichtespektrum (LDS)

Nicht WSS⇒Kein LDS

SV(f) = ˆ∞

−∞

rV(τ)e−j2πf τ

rV(τ)

b r

SV(f) rV,W(τ)

b r

SV,W(f) rV,W(−τ)

b r

SV,W(f) Auf Frequenz bezogene Signalleistung f¨ur infitisimales Frequenzband.

SY(f) =|H(f)|2SX(f) SY,X(f) =H(f)SX(f) SX,Y(f) =H(f)SX(f)

X Y

A B

SY,X(f) = (Qn i=1

Hi(f))SX(f)

SX,Y(f) = ( n Q i=1

Hi(f))SX(f) SY,B(f) = (Qn

i=1

Hi(f))(mQ j=1

Gj(f))SX,A(f)

SX(f) =SX(f) & SX,Y(f) =SY,X(f), ∀f∈R SX(f) =SX(−f), ∀f∈R

∞´

−∞

SX(f) df=rX(0) =Var[X] +E[X]22X2X SX(f)≥0, ∀f∈R

Momenterzeugende Funktion, Multivariate Normalverteilung, Multivaria- te reelle Zufallsvariablen und Komplexe Zufallsvariablen waren im WS 2015/16 nicht pr¨ufungsrelevant und werden hier deshalb nicht behandelt.

P.S. Stochastik♡dich.

Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ottcher, Lukas Kompatscher, Samuel Harder – Mail:samuel.harder@tum.de Stand: 9. February 2019 um 00:04 Uhr (git 45) 4/4

Referenzen

ÄHNLICHE DOKUMENTE

save(filename, variable) speichert variable in matfile load(filename) l¨ adt Variable aus matfiel clear variable l¨ oscht variable.. clear all l¨ oscht alle Variablen

Homepage: www.latex4ei.de – Fehler bitte sofort melden. von Fabian G¨ ottel, Hendrik B¨ ottcher und Lukas Kompatscher – Mail: lukas.kompatscher@tum.de Stand: 5..

F¨ ur alle Teilbereiche wo der g¨ ultige g(x) Bereich gleich ist: Summe

von Emanuel Regnath und Martin Zellner - Mail: info@latex4ei.de Stand: 5... Meist Nennergrad &gt; Z¨ ahlergrad: Bruch

von Emanuel Regnath und Martin Zellner - Mail: info@latex4ei.de Stand: 6... Die

Dans ce temps dewagnérisme, où le plus grand nombre des jeunes auteurs modernes sont arrivés à laisser de côté les préceptes fondamentaux de l'art, les compositions de

zun¨ achst f¨ ur Elemen- tarfunktionen, dann f¨ ur nicht-negative meßbare Funktionen ¨ uber monotone Limiten, schließlich der allgemeine Fall durch Zerlegung in Positiv-

Satz 9 zeigt, daß jede polynomial beschr¨ankte L¨osung von (23), (24) eine stochastische Darstellung besitzt.. Also haben wir mit probabilistischen Methoden gezeigt, daß (23), (24)