4 ei* kann Spuren von Katzen enthalten nicht für Humorallergiker geeignet alle Angaben ohne Gewehr *
Stochastische Signale
1. Mengenalgebra
1.1. Mengen- und Boolsche Algebra
Kommutativ A∩· B=B∩·A A⊎B=B⊎A
Assoziativ (A∩·B)∩·C=A∩·(B∩·C) (A⊎B)⊎C=A⊎(B⊎C) Distributiv A∩·(B⊎C) = (A∩·B)⊎(A∩· C)
A⊎(B∩·C) = (A⊎B)∩·(A⊎C)
Indempotenz A∩· A=A A⊎A=A
Absorbtion A∩·(A⊎B) =A A⊎(A∩· B) =A
Neutralit¨at A∩· Ω =A A⊎ ∅=A
Dominant A∩· ∅=∅ A⊎Ω = Ω
Komplement A∩· A=∅ A⊎A= Ω
A=A Ω =∅
De Morgan A∩· B=A⊎B A⊎B=A∩· B
1.2. Kombinatorik
M¨ogliche Variationen/Kombinationen umkElemente von maximalnEle- menten zu w¨ahlen bzw.kElemente aufnFelder zu verteilen:
Mit Reihenfolge Reihenfolge egal
Mit Wiederholung nk n+k−1
k
Ohne Wiederholung n!
(n−k)!
n k
Permutation vonnmit jeweilskgleichen Elementen:k n!
1 !·k2 !·...
n k
= n n−k
=k!·(n−k)!n! 4 2
= 6 5 2
= 10
1.3. Grundbegriffe
Tupel (i, j)̸= (j, i)f¨uri̸=j
Ungeordnetes Paar {i, j}={j, i}
Potenzmenge P(Ω)ist Menge aller Teilmengen vonΩ
1.4. Integralarten
F(x) f(x) f′(x)
1
q+1xq+1 xq qxq−1
2
√ ax3 3
√ax 2√aax
xln(ax)−x ln(ax) 1x
1
a2eax(ax−1) x·eax eax(ax+ 1) ax
ln(a) ax axln(a)
´ √dt at+b= 2
√ at+b
a
´t2eatdt=(ax−1)2 +1 a3 eat
´teatdt=at−1
a2 eat ´
xeax2dx=2a1eax2
1.5. Binome, Trinome
(a±b)2=a2±2ab+b2 a2−b2= (a−b)(a+b) (a±b)3=a3±3a2b+ 3ab2±b3
(a+b+c)2=a2+b2+c2+ 2ab+ 2ac+ 2bc
2. Wahrscheinlichkeitsr¨ aume (Ω, F , P)
Ein Wahrscheinlichkeitsraum(Ω,F,P)besteht aus
•ErgebnismengeΩ =
ω1, ω2, ... : Menge aller m¨oglichenErgebnisseωi
•EreignisalgebraF=
A1, A2, ... : Menge von EreignisenAi⊆Ω
•Wahrscheinlichkeitsmaß P
2.1. Ereignisalgebra
F⊆P(Ω)
•Ω∈F
•Ai∈F⇒A∁i ∈F
•A1,...,Ak∈F⇒ Sk i≥1
Ai∈F Daraus folgt:
• ∅ ∈F
•Ai\Aj∈F
•Tk i=1Ai∈F
|F|= 2Anzahl disjunkter Teilmengen(muss endlich sein) 2.1.1.σ-Algebra
Entwicklungk→ ∞. Unendlich viele Ergebnisse, aber jedesAibesteht aus abz¨ahlbar vielen Ergebnissen. Besitzt mindestens 2 Ereignisse.
2.2. Wahrscheinlichkeitsmaß P
P(A) =|A||Ω| P(A∪B) =P(A) +P(B)−P(A∩B) 2.2.1. Axiome von Kolmogorow
Nichtnegativit¨at: P(A)≥0⇒P:F7→[0,1]
Normiertheit: P(Ω) = 1 Additivit¨at: P
∞ S i=1
Ai
!
=
∞ P i=1
P(Ai), wennAi∩Aj=∅,∀i̸=j 2.2.2. Weitere Eigenschaften
•P(Ac) = 1−P(A)
•P(∅) = 0 P(Ω) = 1
•P(A\B) =P(A∩Bc) =P(A)−P(A∩B)
•P(A∪B) =P(A) +P(B)−P(A∩B)
•P(A∩B) =P(A) +P(B)−P(A∪B)
•A⊂B⇒P(A)≤P(B)
•P(Sk
i=1Ai)≤Pk i=1P(Ai)
3. Bedingte Wahrscheinlichkeit und Unabh¨ angigkeit
3.1. Bedingte Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit f¨urAfallsBbereits eingetreten ist:
PB(A) =P(A|B) =P(A∩B)P(B)
3.1.1. Totale Wahrscheinlichkeit und Satz von Bayes Es muss gelten: S
i∈I
Bi= Ωf¨urBi∩Bj=∅,∀i̸=j Totale Wahrscheinlichkeit: P(A) =P
i∈I
P(A|Bi)P(Bi) Satz von Bayes: P(Bk|A) = PP(A|Bk)P(Bk)
i∈I
P(A|Bi)P(Bi) 3.1.2. Multiplikationssatz
P(A∩B) =P(A|B)P(B) =P(B|A)P(A) Beliebig viele Ereignisse:
P(A1∩A2∩···∩Ak)
=P Aπ(1)
P
Aπ(2)|Aπ(1) P
Aπ(3)|Aπ(2)∩Aπ(1)
×
···×P
Aπ(k)|Aπ(k−1)∩···∩Aπ(1)
3.2. Stochastische Unabh¨ angigkeit
EreigniseAundBsind unabh¨angig falls:P(A∩B) =P(A)P(B)
⇒P(B|A) =P(B) Allgemein:
P T
i∈J Ai
!
= Q
i∈J
P(Ai)mit IndexmengeIund∅ ̸=J⊆I
4. Zufallsvariablen
4.1. Definition
X: Ω7→Ω′ist Zufallsvariable, wenn f¨ur jedes EreignisA′∈F′ im Bildraum ein EreignisAim UrbildraumFexistiert, sodass
ω∈Ω|X(ω)∈A′ ∈F
4.2. Unabh¨ angigkeit von Zufallsvariablen
ZufallsvariablenX1,···,Xnsind stochastisch unabh¨angig, wenn f¨ur jedes
⃗
x= [x1,···, xn]⊤∈Rngilt:
P({X1≤x1,···,Xn≤xn}) = n Y i=1
P({Xi≤xi})
Gleichbedeutend:
FX1,···,Xn(x1,···, xn) = Qn i=1
FX i(xi) pX1,···,Xn(x1,···, xn) = Qn
i=1 pX
i(xi) fX1,···,Xn(x1,···, xn) = Qn
i=1 fX
i(xi)
4.3. Bedingte Zufallsvariablen
Bedingte Wahrscheinlichkeit f¨ur Zufallsvariablen:
Ereignis A gegeben: FX|A(x|A) =P
X≤x |A ZVYgegeben: FX|Y(x|y) =P
X≤x | Y=y pX|Y(x|y) =pX,Yp (x,y)
Y(y) fX|Y(x|y) =fX,Yf (x,y)
Y(y) = dFX|Ydx(x|y)
5. Wahrscheinlichkeitsverteilungen
5.0.1. Definition
PX(A′) =P({ω∈Ω|X(ω)∈A′}) =P({X∈A′}) ∀A′∈F′ 5.0.2. Kumulative Verteilungsfunktion (KVF bzw. CDF)
FX(x) =P({X≤x}) Eigenschaften
•FX(x)ist monoton wachsend
•FX(x)≥0
•FX(x)ist rechtsseitig stetig:
∀h >0 : lim
h→0FX(x+h) =FX(x) ∀x∈R
• lim
x→−∞FX(x) = 0; lim
x→∞FX(x) = 1
•P({a <X≤b}) =FX(b)−FX(a)
•P({X> c}) = 1−FX(c) 5.0.3. Verteilung diskreter Zufallsvariablen
Bezeichnung Abk. Zusammenhang
Wahrscheinlichkeitsmassenfkt. pmf pX(x) =P({X=x}) Kumulative Verteilungsfkt. cdf FX(x) = P
ξ∈Ω′:ξ≤x pX(ξ)
5.0.4. Verteilung stetiger Zufallsvariablen
Bezeichnung Abk. Zusammenhang
Wahrscheinlichkeitsdichtefkt. pdf fX(x) =dFdxX(x) Kumulative Verteilungsfkt. cdf FX(x) =
´x
−∞
fX(ξ) dξ
Berechnung vonfX(x):
fX(x) = lim ϵ→0 1 ϵ
x+ϵ´ x
fX(ξ) dξ= lim ϵ→0 1
ϵP(x≤X≤x+ϵ) Normiertheit
Pp(x) +´
RfX(x) dx= 1!
5.1. Mehrdimensionale Verteilungen
5.1.1. Mehrdimensionale Zufallsvariable:⃗X= [X1,···,Xn]T mitXiZufallsvariablen 5.1.2. Gemeinsame kumulative Verteilungsfunktion:
FX
1,···,Xn(x1,···, xn) = F⃗
X(⃗x) =P({⃗X≤⃗x}) = P({X1≤x1,···,Xn≤xn})
5.1.3. Diskrete Zufallsvariablen:
pX
1,···,Xn(x1,···, xn) =P({⃗X=⃗x})(joint probability mass function) 5.1.4. Stetige Zufallsvariablen:
FX1,···,Xn(x1,···, xn) = x´1
−∞
···xn´
−∞
fX1,···,Xn(ξ1,···, ξn) dξn···dξ1
fX1,···,Xn(x1,···, xn) =∂n F⃗∂xX(x1,···,xn)
1···∂xn fX,Y =fY,X (joint probability density function)
5.1.5. Marginalisierung
Prinzip: Lasse alle vernachl¨assigbaren ZV gegen unendlich gehen.
FX
1,···,Xm(x1,···, xm) =FX
1,···,Xn(x1,···, xm,∞,···,∞) Randverteilung:
Spezialfall der Marginalisierung um aus der mehrdimensionalen KVF die KVF f¨ur eine ZV zu erhalten.
FX
1(x1) =FX
1,···,Xn(x1,∞,···,∞)
Randverteilung der Wahrscheinlichkeitsmasse (PMF) (f¨ur diskrete ZV)
pX
1(x1) = P x2,···,xn
pX
1,···,Xn(x1,···, xn) Randverteilung der Wahrscheinlichkeitsdichte (WDF) (f¨ur stetige ZV)
fX1(x1) =
∞´
−∞
···
∞´
−∞
fX1,···,Xn(x1,···, xn) dxn···dx2
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ottcher, Lukas Kompatscher, Samuel Harder – Mail:samuel.harder@tum.de Stand: 9. February 2019 um 00:04 Uhr (git 45) 1/4
6. Funktionen von Zufallsvariablen
X: Ω→Ω′=Rund jetztg: Ω′→Ω′′=R P(A′′) =P(Y ∈A′′) =P(
X ∈Ω′
g(X)∈A′′ =P(
ω∈ Ω
g(X(ω))∈A′′
6.1. Transformation von Zufallsvariablen
Berechnung vonfY(y)ausfX(x)g(x)streng monoton & differenzierbar:
g−1(y)- Umkehrfunktion fY(y) =fX
g−1(y)
dg(x) dx
x=g−1 (y)
−1
g(x)nur differenzierbar:
fY(y) = PN i=1
fX(xi)
dg(x) dx
x=xi
−1
miti∈ {1, . . . , N} xisind Nullstellen vony−g(x) = 0
6.1.1. Beispiel: lineare Funktion
Y=aX+b⇔g(x) =ax+bmita∈R\0, b∈R:
⇒fY(y) = 1
|a|fX y−b
a
FY(y) =
FXy−b
a
a >0 1−FXy−b
a
a <0
6.2. Summe unabh¨ angiger Zufallsvariablen
Z=X+Y mitXundYunabh¨angig.⇒fZ=X+Y(z) = (fX∗fY) (z) =
∞´
−∞
fX(z−y)fYdy
7. Stochastische Standardmodelle
7.1. Begriffe
Ged¨achtnislosEine Zufallsvariable X ist ged¨achtnislos, falls:
P({X> a+b)}|{X> a}) =P({X> b}), a, b >0
7.2. Gleichverteilung
7.2.1. DiskretpX(x) =|Ω|1 , x∈ {1, . . . ,|Ω|}
Beispiele:Wurf einer fairen M¨unze, Lottozahlen 7.2.2. Stetig (a, b:−∞< a < b <∞)
fX(x) = ( 1
b−a x∈[a, b]
0 sonst FX(x) =
0 x < a x−a
b−a x∈[a, b]
1 x > b
E[X] =a+b 2 Erwartungswert
Var[X] =(b−a)2 12 Varianz
φX(s) =ejωb−ejωa jω(b−a) Charakt. Funktion Beispiele:Winkel beim Flaschendrehen, Phase einer empf. Sinusschwin- gung
7.3. Bernoulliverteilung (p
∈[0,1]) Wahrscheinlichkeitsmasse2 Ereignisse: Erfolg und Misserfolg p: Wahrscheinlichkeit
pX(k) =
p, k= 1 1−p k= 0
0 sonst
FX(k) =
0, k <0 1−p 0≤k <1
1 k≥1
E[X] =p Erwartungswert
Var[X] =p(1−p) Varianz
GX(z) =pz+ 1−p Wahrscheinlichkeitserz. Funktion Beispiele:Einmaliger Wurf einer (unfairen) M¨unze
7.4. Binomialverteilung
B(n, p)(p
∈[0,1], n∈N)
Folge vonnBernoulli-Experimentenp: Wahrscheinlichkeit f¨ur Erfolg k: Anzahl der Erfolge Wahrscheinlichkeitsmasse pX(k) =Bn,p(k) =
(n k
pk(1−p)n−k k∈ {0, . . . , n}
0 sonst
mit n
k
= k!(n−k)!n!
WMF/PMF: KVF/CDF:
E[X] =np Erwartungswert
Var[X] =np(1−p) Varianz
GX(z) = (pz+ 1−p)n Wahrscheinlichkeitserz. Funktion Charakteristische Funktion φX(s) = 1−p+pesn Beispiele:Anzahl der ¨Ubertragungsfehler in einem Datenblock endlicher L¨ange, Wiederholtes Werfen einer M¨unze
7.5. Poisson-Verteilung (λ
≥0) Asymptotischer Grenzfall der Binomialverteilung n→ ∞, p→0, np→λ pX(k) = limn→∞B n, λn
(k)
WMF/PMF:
pX[k] =λkk!e−λ k∈N0
KVF/CDF:
FX[k] =zu kompliziert
E[X] =λ Erwartungswert
Var[X] =λ Varianz
GX(z) =eλ(z−1) Wahrscheinlichkeitserz. Funktion Charakteristische Funktion φX(s) = exp λ(es−1) Beispiele:Zahl der Ph¨anomene in einem Zeitintervall, Google-Anfragen in einer Stunde, Schadensmeldungen an Versicherungen in einem Monat
7.6. Geometrische Verteilung (p
∈[0,1])Erster Erfolg eines Bernoulli-Experiments beim k-ten Versuch, Ged¨achtnislos
WMF/PMF:
pX[k] = (1−p)k−1p,k∈N
KVF/CDF:
FX[k] = 1−(1−p)k,k∈N
E[X] =1 p Erwartungswert
Var[X] =1−p p2 Varianz
GX(z) = pz 1−z+pz Wahrscheinlichkeitserz. Funktion
Charakteristische Funktion φX(s) = peıs 1−(1−p)eıs Beispiele:diskrete Dauer bis ein technisches Ger¨at zum ersten Mal ausf¨allt, Anzahl der W¨urfe bis man eine ”6”w¨urfelt
7.7. Exponentialverteilung (λ >
0)Wie geometrische Verteilung f¨ur stetige Zufallsvariablen (“Lebensdauer“), Ged¨achtnislos
= Wartezeit bis zum ersten Auftreten eines Ereignisses WDF/PDF:
fX(x) =λe−λx x≥0
KVF/CDF:
FX(x) = 1−e−λx x≥0
E(X) = 1 λ Erwartungswert
Var(X) = 1 λ2 Varianz
φX(ω) = λ λ−jω Charakt. Funktion Beispiele:Lebensdauer von el. Bauteilen, Zeitdauer zwischen zwei Anrufen in einem Call-Center
7.8. Normalverteilung (µ
∈R, σ >0) WDF/PDF:-3 -2 -1
0.8 0.6 0.4 0.2
0.0
−5 −3 1 3 5
x 1.0
−1 0 2 4
−2
−4
φμ,σ2(x) μ=0, μ=0, μ=0, μ=−2,
20.2,
σ=
21.0,
σ=
25.0,
σ=
20.5,
σ=
KVF/CDF:
-3 -2 -1
x 0.8
0.6 0.4 0.2 0.0 1.0
−5 −4 −3 −2 −1 0 1 2 3 4 5
Φμ,σ2(x) μ=0,
μ=0, μ=0, μ=−2,
20.2,
σ=
21.0,
σ=
25.0,
σ=
20.5,
σ=
WDF
fX(x) = 1
√ 2πσ2e−
(x−µ)2 2σ2 x∈R
E(X) =µ Erwartungswert
Var(X) =σ2 Varianz
φX(ω) =ejωµ−ω 2σ2
2 Charakt. Funktion SchreibweiseX∼ N(µ, σ2)
Beispiele:Rauschen, Ort eines Teilchens relativ zu seiner Anfangsposition bei brownscher Molekularbewegung, abgefahrene Sachen, die man nicht genauer bestimmen will oder kann
7.8.1. Standartnormalverteilung ist der SpezialfallX∼ N(0,1) ϕ(x) = 1
√ 2πe−x
2 2 Es gilt außerdem:
•Y∼ N(µ, σ2)⇒X= 1
σ(Y−µ)∼ N(0,1)
•X∼ N(0,1)⇒Y=σX+µ∼ N(µ, σ2)
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ottcher, Lukas Kompatscher, Samuel Harder – Mail:samuel.harder@tum.de Stand: 9. February 2019 um 00:04 Uhr (git 45) 2/4
8. Erwartungswert
8.1. Erwartungswert
gibt den mittleren Wert einer Zufallsvariablen an E[X] = P
x∈Ω′x·PX(x) diskreteX:Ω→Ω′
∧= ´ R
x·fX(x) dx stetigeX:Ω→R
Eigenschaften:
Linearit¨at: E[αX+βY] =αE[X] +βE[Y]
Monotonie: X≤Y⇒E[X]≤E[Y]
Beweis mit der Definition und der Linearit¨at des Integrals bzw. der Summe.
E[X Y] =E[X]E[Y], fallsXundYstochastisch unabh¨angig Umkehrung nicht m¨oglich: Unkorrelliertheit̸⇒Stoch. Unabh¨angig!
E[X Y] =´ R
´ R
xy·fX,Y(x, y) dxdy Spezialfall f¨urX: Ω→R+: E[X] =
∞´ 0
P(X> t) dt(stetig) E[X] =
∞ P k=0
P(X> k)(diskret) 8.1.1. F¨ur Funktionen von Zufallsvariableng:R→R
E[g(X)] = P
x∈Ω′g(x)PX(x) =∧ ´ R
g(x)fX(x) dx
9. Varianz und Kovarianz
9.1. Varianz
ist ein Maß f¨ur die St¨arke der Abweichung vom Erwartungswert Var[X] =E
(X−E[X])2
=E[X2]−E[X]2
Var[αX+β] =α2Var[X] Var[X] =Cov[X,X]
Var
"
n P i=1
Xi
#
= n P i=1
Var[Xi] +P j̸=i
Cov[Xi,Xj] 9.1.1. Standard Abweichung
σ=p Var[X]
9.2. Kovarianz
Maß f¨ur den linearen Zusammenhang zweier Variablen Cov[X,Y] =E[(X−E[X])(Y−E[Y])] =Cov[Y,X]
Cov[X,Y] =E[X Y]−E[X]E[Y] =Cov[Y,X]
Cov[αX+β, γY+δ] =αγCov[X,Y]
Cov[X+U,Y+V] =Cov[X,Y] +Cov[X,V] +Cov[U,Y] +Cov[U,V]
9.3. Unkorreliertheit
wenn gilt:Cov[X,Y] = 0⇔E[X Y] =E[X]E[Y] Stoch. Unabh¨angig⇒Unkorrelliertheit
wenn ZV normalverteilt (sonst nicht!):
Unkorreliertheit⇒stoch. Unabh¨angigkeit bei paarweisen unkorrellierten Zufallsvariablen:
Var[
n P i=1
Xi] = n P i=1
Var[Xi]
9.4. Orthogonalit¨ at
E[X Y] = 0 mit dem Korrelationswert E[X Y]
9.5. Korrelationskoeffizient
ρX,Y =√ Cov[X,Y]Var[X]√
Var[Y]=σcX,Y
XσY mitρX,Y ∈[−1,1]
Korrelationskoeffizient von X und Y
Es gilt:
negativ korreliert ρX,Y∈[−1,0) unkorreliert ρX,Y= 0 positiv korreliert ρX,Y∈(0,1]
10. Erzeugende und charakter. Funktionen
10.1. Wahrscheinlichkeitserzeugende Funktion
f¨urX: Ω→N0GX(z) =E[zX] =
∞ X k=0
pX(k)zk, |z| ≤1
Anwendungen
pX(n) =P(
X=n ) = 1 n![dn
dznGX(z)]z=0, ∀n∈N0 E[X] = [d
dzGX(z)]z=1 E[X2]−E[X] = [d2
dz2GX(z)]z=1 Var[X] = [d2
dz2GX(z)]z=1−E[X]2+E[X]
F¨urXi: Ω→N0, i∈
1, . . . , n stochastisch unabh¨angige, diskrete, nichtnegative ZV undZ=Pn
i=1Xi
GZ(z) = n Y i=1
GXi(z)
10.2. Charakteristische Funktion
φX(ω) =EheıωXi
, ω∈R φX=
∞´
−∞
eıωxfX(x) dx fX(−x)
b r
φ(ω)Erwartungswert:
E[Xn] = 1 ın
"
dn dωnφX(ω)
#
ω=0 Summe von ZV:Z=Pn
i=1Xi
φZ(ω) = n Y i=1
φXi(ω)
10.3. Der zentrale Grenzwertsatz
Definition: SeienXi, i∈1, ..., n, stochastisch unabh¨angige und iden- tisch verteilte reelle Zufallsvariablen und gelteE[Xi] =µ <∞und V ar[Xi] =σ2<∞. Dann konvergiert die Verteilung der standardi- sierten Summe
Zn= Pn i=1
(X−µ) σ√
n
d.hE[Zn] = 0undV ar[Zn] = 1, f¨urn→ ∞gegen die Standart- normalverteilung.
Es gilt also:
limn→∞P(Zn≤z) = Φ(z)
11. Reelle Zufallsfolgen
Eine reelle Zufallsfolge ist ganz einfach eine Folge reeller Zufallsvariablen.
Ensemble
Sn: Ωn×Ωn−1× · · · ×Ω1→R
(ωn, ωn−1, . . . , ω1)7→sn(ωn, ωn−1, . . . , ω1), n∈N Erkl¨arung: Jede Realisierung von Sn wird erzeugt durch die Men- ge (das Ensemble) aufeinanderfolgender Realisierungen Xk mit k∈ {1, . . . , n}.
Pfad
⃗Sn= (Sn,Sn−1, . . . ,S1) : Ω(n)→Rn
⃗
ωn7→⃗sn(⃗ωn) = (sn(⃗ωn), sn−1(⃗ωn), . . . , s1(⃗ωn)), n∈N Erkl¨arung:Die Abfolge der Realisierungen von S1bis Sn(also der Pfad von S) und somit auch jedes einzelne Skkann als Ergebnis des Ereignisses
⃗
ωnangesehen werden.
11.1. Verteilungen und Momente
Erwartungswert µX(n) =E[Xn]Varianzfolge σX2(n) =V ar[Xn] =E[X2n]−E[Xn]2 Autokorrelation rX(k, l) =E[XkXl]
Autokovarianz cX(k, l) =Cov[Xk,Xl]=rX(k, l)−µX(k)µX(l)
11.2. Random Walk
n∈NSchritte mit 2 m¨oglichen BewegungsrichtungenX∈ {+δ,−δ}
Sn= n X i=1
Xi
P({Xi= +δ}) =p P({Xi=−δ}) = 1−p symmetrisch⇔p=12, µS(n) = 0
E[S] =µS(n) =n(2p−1)δ E[Xi] = (2p−1)δ V ar[S] =σS2(n) = 4np(1−p)δ2 V ar[Xi] = 4p(1−p)δ2
11.3. Stationarit¨ at
Eine Zufallsfolge iststation¨ar, wenn um ein beliebigesk(k∈N)zuein- ander verschobene Zufallsvektoren die selbe Verteilung besitzen.
Imweiteren Sinne station¨ar (W.S.S.), wenn:
µX(i) =µX(i+k)
rX(i1, i2) =rX(i1+k, i2+k) =rX(i1−i2) (verschiebungsinvariant)
station¨ar⇒WSS (aber nicht anders herum!)
11.4. Markow-Ungleichung
P(|X| ≥a )≤E[|X|]
a
11.5. Tschebyschow-Ungleichung
P(|X−E[X]| ≥a )≤Var[X] a2
11.6. Das schwache Gesetz der großen Zahlen
Sei(Xi:i∈N)eine Folge reeller, paarweise unkorrelierter Zufallsvaria- blen mit beschr¨ankter Varianz:
1 n
n P i=1
(Xi−E[Xi])→0
F¨ur stochastisch unabh¨angige und identisch verteilte Folgenelemente mitE[Xi] =E[X]undV ar[Xi] =V ar[X]<∞gilt:
1 n
n P i=1
(Xi)→E[Xi]
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ottcher, Lukas Kompatscher, Samuel Harder – Mail:samuel.harder@tum.de Stand: 9. February 2019 um 00:04 Uhr (git 45) 3/4
12. Markowketten
(bedingte Unabh¨ angigkeit: Abschnitt 14)
12.1. Markowketten
12.1.1. AllgemeinEine Zufallsfolge (Xn:n∈N) heißt Markowkette, falls∀ni∈N, i∈1, . . . kmitn1<· · ·< nkgilt:
(Xn1,Xn2, . . .Xnk−2)→Xnk−1→Xnk
⇒Die Verteilung eines Folgeelements h¨angt nur vom direkten Vorg¨anger ab
pX
nk|Xnk−1,Xnk−2,...,Xn1(xnk|xnk−1, xnk−2, ..., xn1)
=pX
nk|Xnk−1(xnk|xnk−1)
fX
nk|Xnk−1,Xnk−2,...,Xn1(xnk|xnk−1, xnk−2, ..., xn1)
=fX
nk|Xnk−1(xnk|xnk−1)
12.1.2. Zustands¨ubergang Zustands¨ubergangswahrscheinlichkeit:
pXn|X
n−1(xn|xn−1) Verbund-WMF:
pX1,...,Xn(x1, ..., xn) =pX1(x1) n Q i=2
pX
i|Xi−1(xi|xi−1) Zustands¨ubergangsdicht:
fXn|X
n−1(xn|xn−1) Verbund-WDF:
fX1,...,Xn(x1, ..., xn) =fX1(x1) n Q i=2
fX
i|Xi−1(xi|xi−1)
Eine Markowkette heißthomogen, wenn die ¨Ubergangswahrscheinlichkeit unabh¨angig vom Index ist
pX
n+1|Xn(xn+1|xn) =pX
n+1+k|Xn+k(xn+1|xn) fX
n+1|Xn(xn+1|xn) =fX
n+1+k|Xn+k(xn+1|xn) 12.1.3. Chapman-Kologorow Gleichung
2-Schritt- ¨Ubergangswahrscheinlichkeit:
pX
n+2|Xn(xn+2|xn) = P
ξ∈X pX
n+2|Xn+1(xn+2|ξ)pX
n+1|Xn(ξ|xn) m+l-Schritt- ¨Ubergangswahrscheinlichkeit:
pX
n+m+l|Xn(xn+m+l|xn) = P
ξ∈X pX
n+m+l|Xn+m(xn+m+l|xn+m)pX
n+m|Xn(xn+m|xn)
12.1.4. Markowketten im endlichen Zustandsraum
⃗ pn≜
pXn(x1) pXn(x2)
.. . pXn(xN)
∈[0,1]Nmit[⃗pn]i=pXn(xi)
Ubergangsmatrix:¨ Π =
p11 · · · p1N ..
. ...
pN1 pN N
∈[0,1]N×N
Ubergangswahrscheinlichkeit:¨ pij=pX
n+1|Xn(ξi|ξj) Spaltensumme muss immer 1 ergeben!
⃗
pn+1= Π⃗pn n∈N
⃗
pn+m= Πm⃗pn n, m∈N Eine Verteilung heißtstation¨ar, wenn gilt:
⃗ p∞= Π⃗p∞
13. Reelle Zufallsprozesse
13.1. Ensemble und Musterfunktion
•Ein Zufallsprozess kann alsEnsembleeiner nicht abz¨ahlbaren Menge von ZufallsvariablenXtmitt∈Rinterpretiert werden.
•Ein Zufallsprozess kann alsSchar von Musterfunktionen Xt(ω) :R 7→R,mitX(ω)als deterministische Funktion vont, mit einem gegebenen Ereignisω∈Ωinterpretiert werden.
13.2. Verteilungen und Momente
Zeitlich, Kontinuierlich ver¨anderliche ZufallsvariableXt Erwartungswertfunktion:
µX(t) =E[Xt] Autokorrelationsfunktion:
rX(s, t) =E[XsXt] Autokovarianzfunktion:
cX(s, t) =Cov(Xs,Xt) =rX(s, t)−µX(s)µX(t)
Hinweis:Bei Integration ¨uberrXimmer darauf achten, dasss−t >0.
Bei Bedarf Integral aufteilen und Grenzen anpassen.
13.3. Stationarit¨ at
Ein Zufallsprozess iststation¨ar, wenn um ein beliebigess (s ∈ R) zueinander verschobene Zufallsvektoren die selbe Verteilung besitzen.
FXt
1,...,Xtn(x1, . . . xn) =FX
t1 +s ,...,Xtn+s(x1, . . . xn) Imweiteren Sinne station¨ar (WSS), wenn:
µX(i) =µX(i+k) =µX
rX(i1, i2) =rX(i1+k, i2+k) =rX(i1−i2) Daraus folgtmits=t+τ
rX(s, t) =E[XsXt] =E[Xt+τXt] =rX(s−t) =rX(τ) Imweiteren Sinne zyklisch station¨ar, wenn:
µX(t) =µX(t+T) ∧ rX(t1, t2) =rX(t1+T , t2+T) station¨ar⇒WSS⇒im weiteren Sinne zyklisch station¨ar (aber nicht anders herum!)
13.4. Mehrere Zufallsvariablen auf dem selben Wahrschein- lichkeitsraum
Kreuzkorrelationsfunktion:
rX,Y(s, t) =E[XsYt] =rY,X(t, s) Kreuzkovarianzfunktion:
cX,Y(s, t) =rX,Y(s, t)−µX(s)µY(t) =cY,X(t, s) 13.4.1. Gemeinsame Stationarit¨at
Zwei Zufallsprozesse auf demselben Wahrscheinlichkeitsraum sindgemein- sam station¨ar, wenn die einzelnen ZPs jeweils selbst station¨ar sind und ihre gemeinsamen Verteilungen verschiebungsinvariant sind.
13.4.2. Gemeinsam im weiteren Sinne station¨ar Voraussetzung:XtundYtsind gemeinsam WSS wenn,
XtundYteinzelnd WSS und rX,Y(t1, t2) =rX,Y(t1+s, t2+s)
gemeinsam station¨ar⇒gemeinsam WSS (aber nicht umgekehrt!) Daraus folgtmits=t+τ
rX(s, t) =E[Xt+τXt] =rX(τ) =rX(−τ) rX(τ)≤rX(0) rX,Y(τ) =E[Xt+τYt] =E[YtXt+τ] =rY,X(−τ)
13.4.3. Stochastische Unkorreliertheit
cX,Y(s, t) = 0⇔rX,Y(s, t) =µ(s)µ(t), ∀s, t∈R 13.4.4. Orthogonalit¨at
rX,Y(s, t) = 0, ∀s, t∈R
13.5. Wiener-Prozess (σ >
0)Als Basis benutzen wir den Random Walk. Durch Multiplikation mit einer Heaviside-Funktion wird der Random Walk zeitkontinuierlich:
Sn= n P i=1
Xi ⇒ St=
n P i=1
Xiu(t−iT) T >0 F¨ur n→ ∞und T→ 0, mit Schrittweiteδ =
√
σ2T folgt der Wiener Prozess:Wt
fWt(w) =√ 1 2πσ2texp
− w2 2σ2t
Eigenschaften
•Kein Z¨ahlprozess!
•P({W0= 0}) = 1
•hat unabh¨angige Inkremente→rxy(s, t) = 0
•Wt∼ N(0, σ2t),∀0≤t
•Wt−Ws∼ N(0, σ2(t−s)),∀0≤s≤t
•Wt(ω)ist eine stetige Musterfunktion mit Wahrscheinlichkeit 1
Erwartungswertfunktion. µW(t) = 0
Varianz σW2 (t) =σ2t
Autokorrelationsfunktion rW(s, t) =σ2min{s, t}
Autokovarianzfunktion cW(s, t) =σ2min{s, t}
13.6. Poisson-Prozess (N
t:t∈R+)
Der Poisson-Prozess ist ein Z¨ahlprozess, bei dem der Zeitpunkt der Spr¨unge durch ZV modelliert wird, nicht die Amplitude.
Nt=
∞ P i=1
u(t−Ti), Ti= i P j=1
Xj
Xjist exponentiell verteilt,Tiist Gamma-verteilt fTi(t) =(i−1)!λi ti−1e−λt, t≥0 P({Nt=n}) =(λt)n
n! e−(λt), ∀n∈N0, t∈R+ Eigenschaften
•ist ein Z¨ahlprozess (Nt∈N0, monoton steigend und stetig)
•hat unabh¨angige Inkremente
•Nt−Nsist Poisson-verteilt mit Parameter (λ(t−s)f¨ur alle 0≤s≤t
•hat eine Rateλ
•Zeitintervalle zwischen den Inkremetierungen sind unabh¨angig und identisch exponentialverteilt mit Parameterλ=∧ged¨achtnislos Erwartungswertfunktion µN(t) =λt
Varianz σ2N(t) =λt
Autokorrelationsfunktion rN(s, t) =λmin{s, t}+λ2st Autokovarianzfunktion cN(s, t) =λmin{s, t}
14. Bedingte Unabh¨ angigkeit
14.1. Bedingte Unabh¨ angigkeit
A und C heißen bedingt unabh¨angig gegeben B, wenn gilt:
P(A∩C|B) =P(A|B)P(C|B)bzw.
P(A|B∩C) =P(A|B) Dann gilt:
pZ|Y,X(y|y, x) =pZ|Y(z|y) fZ|Y,X(z|y, x) =fZ|Y(z|y)
X,Zsind bedingt unabh¨angig gegebenY, kurz:X→Y→Z
15. Zufallsprozesse(ZP) und lineare Systeme
15.1. Allgemeines
ImZeitbereich:w(t) = (h∗v)(t) =
∞´
−∞
h(t−τ)v(τ) dτ Erwartungswert:µW= (µV∗h)(t)(nicht WSS) ImFrequenzbereich:
W(f) =H(f)V(f)
V W
Wt AusgangVt Eingang h(s, t)Impulsantwort Falls ZufallsprozesseWSS:
Erwartungswert:µW=µV
∞´
−∞
h(t) dt
Kreuzkorrelationsfkt:rW,V(τ) =E[WsVt] = (h∗rV)(τ) Autokorrelationsfkt:rW(τ) =E[WsWt] = (˜h∗h∗rV)(τ) mit˜h(τ) =h(−τ)
15.2. Leistungsdichtespektrum (LDS)
Nicht WSS⇒Kein LDSSV(f) = ˆ∞
−∞
rV(τ)e−j2πf τdτ
rV(τ)
b r
SV(f) rV,W(τ)b r
SV,W(f) rV,W(−τ)b r
S∗V,W(f) Auf Frequenz bezogene Signalleistung f¨ur infitisimales Frequenzband.SY(f) =|H(f)|2SX(f) SY,X(f) =H(f)SX(f) SX,Y(f) =H∗(f)SX(f)
X Y
A B
SY,X(f) = (Qn i=1
Hi(f))SX(f)
SX,Y(f) = ( n Q i=1
H∗i(f))SX(f) SY,B(f) = (Qn
i=1
Hi(f))(mQ j=1
Gj(f))∗SX,A(f)
SX(f) =S∗X(f) & SX,Y(f) =S∗Y,X(f), ∀f∈R SX(f) =SX(−f), ∀f∈R
∞´
−∞
SX(f) df=rX(0) =Var[X] +E[X]2=σ2X+µ2X SX(f)≥0, ∀f∈R
Momenterzeugende Funktion, Multivariate Normalverteilung, Multivaria- te reelle Zufallsvariablen und Komplexe Zufallsvariablen waren im WS 2015/16 nicht pr¨ufungsrelevant und werden hier deshalb nicht behandelt.
P.S. Stochastik♡dich.
Homepage:www.latex4ei.de– Fehler bittesofortmelden. von Alwin Ebermann, Emanuel Regnath, Martin Zellner, Alexander Preißner, Hendrik B¨ottcher, Lukas Kompatscher, Samuel Harder – Mail:samuel.harder@tum.de Stand: 9. February 2019 um 00:04 Uhr (git 45) 4/4