• Keine Ergebnisse gefunden

Vorlesungszusammenfassungen, ¨ Ubungen and Pr¨ufungsfragen

N/A
N/A
Protected

Academic year: 2022

Aktie "Vorlesungszusammenfassungen, ¨ Ubungen and Pr¨ufungsfragen"

Copied!
19
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Leistungsbewertung von drahtlosen Netzen (WS19)

Vorlesungszusammenfassungen, ¨ Ubungen and Pr¨ufungsfragen

Prof. Dr. Hannes Frey, (zuletzt editiert am 11. Februar 2020)

I. GRUNDLAGEN DERMASS-UND

WAHRSCHEINLICHKEITSTHEORIE

A. Einfache Mengenbegriffe

Definition 1 (Potenzmenge): Die Potenzmenge P(Ω) der Menge Ω bezeichnet die Menge aller Teilmengen von Ω (inklusive ∅ undΩselbst), d.h. P(Ω) ={A:A⊆Ω}.

Definition 2 (abz¨ahlbar, ¨uberabz¨ahlbar): Eine Menge M ist abz¨ahlbar, wenn ihre Elemente in der Form {m1, m2, m3, . . .} aufgez¨ahlt werden k¨onnen. Ist dies nicht m¨oglich, so bezeichnet man die Menge als ¨uberabz¨ahlbar.

Definition 3 (disjunkt, paarweise disjunkt):Zwei MengenA undBsinddisjunkt, wennA∩B =∅. Die MengenA1, . . . , An

sind paarweise disjunkt, wennAi∩Aj =∅f¨ur alle i6=j.

Definition 4 (Anzahl Elemente einer Menge): Das Symbol

|M|bezeichnet die Anzahl Elementeeiner MengeM. Definition 5 (Komplement einer Menge):SeiM eine Menge mit Elementen aus einem UniversumΩaller betrachteten Ele- mente. Das Komplementvon M, im Zeichen M, ist definiert alsM ={x∈Ω :x6∈M}

Definition 6 (offene und abgeschlossene Menge):Eine Men- ge M ist offen, wenn f¨ur jedes x ∈ M ein > 0 existiert, sodass die offene Sph¨areU(x) ={y:kx−yk< }komplett in M liegt, d.h. U(x)⊆M. Eine Menge istabgeschlossen, wenn ihr Komplement offen ist.

Definition 7 (beschr¨ankte und kompakte Menge):Eine Men- geM istbeschr¨ankt, wenn diese komplett in einer Sph¨are mit endlichem Radius liegt. Eine Menge ist kompakt, wenn diese beschr¨ankt und abgeschlossen ist.

B. Sigma-Algebra

Definition 8 (Sigma-Algebra): A ⊆ P(Ω) ist eine Sigma- Algebra, wenn gilt:

Ω∈ A

A∈ A ⇒A∈ A

Ai∈ A ⇒S

i=1Ai∈ A

Definition 9 (Messraum, messbarer Raum): F¨ur Ω und Sigma-Algebra A ¨uber Ω bezeichnet man (Ω,A) als Mess- raum (oder auchmessbarer Raum).

Ubung 1 (Sigma-Algebren sind schnittstabil):¨ Sei (Ω,A) eine beliebige Sigma-Algebra. Zeige, dass aus Ai ∈ A auch T

i=1Ai∈ Afolgt.

Ubung 2 (Mengensubtraktion und Sigma-Algebras):¨ Sei (Ω,A)eine beliebige Sigma-Algebra. SeienM undN inA.

Zeige, dass auch M\N inAliegt.

Definition 10 (Erzeugte Sigma-Algebra):F¨ur ein beliebiges Mengensystem M ⊆ P(Ω) nennt man die kleinste Sigma- AlgebraAdieMenth¨alt (d.h.M ⊆ A) die vonMerzeugte Sigma-Algebra.

Definition 11 (Borel-Sigma-Algebra):Die von allen halbof- fenen Hyper-Rechtecken[u1, v1)×[u2, v2), . . . ,[un, vn) ¨uber Rn erzeugte Sigma-Algebra wird Borel-Sigma-Algebra be- zeichnet. Das Symbol Bn bezeichnet diese Algebra. Speziell f¨urn= 1(d.h. die von allen halboffenen Intervallen erzeugte Sigma-Algebra) schreiben wir einfach B. Die Elemente der Borel-Sigma-Algebra bezeichnen wir alsBorel-Mengen.

Ubung 3 (Elemente der Borel-Sigma-Algebra):¨ Zeige dass jede Einermenge {x} mit x ∈ R zur Borel-Sigma-Algebra geh¨ort.

Ubung 4 (Elemente der Borel Sigma Algebra):¨ Zeige dass alle offenen und geschlossenen Intervalle (d.h.[a, b]and(a, b)) zur Borel-Sigma-Algebra geh¨oren.

Ubung 5 (Elemente der Borel-Sigma-Algebra):¨ Zeige dass der EinheitsviertelkreisQ={(x, y) :x≥0, y≥0, x2+y2≤ 1} ein Element der Borel-Sigma-Algebra B2 ist. Tipp: be- schreibeQ mittels abz¨ahlbar unendlich vielen Vereinigungen und Schnitten von einfachen Rechtecken.

C. Messbarkeit, Maßraum und Wahrscheinlichkeitsraum Definition 12 (Maß):SeiAeine Sigma-Algebra ¨uberΩ. Als Maß bezeichnet man eine Funktion µ: A → R∪ {∞} mit der Eigenschaft:

F¨ur paarweise disjunkte Ai ∈ A gilt µ(Sn

i=1Ai) = Pn

i=1µ(Ai)f¨ur jedes n∈N∪ {∞}

µ(∅) = 0

Das Tripel (Ω,A, µ) bezeichnet man alsMaßraum. Die Ele- mente ausAbezeichnet man alsµ-messbar.

Definition 13 (Wahrscheinlichkeitsmaß): Ein Maß µ eines Maßraums (Ω,A, µ) ist ein Wahrscheinlichkeitsmaß, wenn µ(Ω) = 1. Den Maßraum (Ω,A, µ) bezeichnet man dann alsWahrscheinlichkeitsraum. Im Kontext von Wahrscheinlich- keitsr¨aumen verwenden wir f¨ur das Wahrscheinlichkeitsmaß die Notation P[·] anstatt µ(·). Die Menge Ω wird in diesem Kontext als Menge der Elementarereignisse und die Sigma- AlgebraAalsMenge der m¨oglichen Ereignissebezeichnet.

Ubung 6 (M¨unzwurfexperiment):¨ Angenommen eine M¨unze falle auf Kopf bzw. Zahl mit derselben Wahrscheinlichkeit.

Dar¨uber hinaus falle die M¨unze mit (einer sehr kleinen) Wahrscheinlichkeitqauf die Kante. Die M¨unze werde solange geworfen bis Kopf f¨allt.

1) Beschreibe die Menge aller ElementarereignisseΩ.

(2)

2) Beschreibe die WahrscheinlichkeitenPder Elementarer- eignisse.

3) Beschreibe das Ereignis als Menge von Elementarereig- nissen, dass die M¨unze nie auf den Rand f¨allt.

4) Was ist die Wahrscheinlichkeit f¨ur das vorige genannte Ereignis?

5) Was ist die in diesem Beispiel zugrunde liegende Sigma- Algebra?

Definition 14 (Lebesgue-Maß):DasLebesgue-Maß, im Zei- chen| · |, ist das Maß, welches den Borel-Mengen deren Inhalt (L¨ange, Fl¨ache, Volumen,. . .) zuordnet.

Definition 15 (Z¨ahlmaß): Ein Maß der Form µ : A → N0∪ {∞} wird als Z¨ahlmaß bezeichnet. Im Kontext dieser Vorlesung fordern wir zus¨atzlichµ(B)<∞f¨ur alle kompakte B. Wir bezeichnen diese Eigenschaft alslokal endlich.

Definition 16 (Dirac-Maß): Ein Maß der Form δx : A → {0,1} mit δx(A) = 1, wenn x ∈ A und δx(A) = 0, wenn x6∈A wird alsDirac-Maßbezeichnet.

Definition 17 (Diffuses Maß): Ein Maß wird als diffus bezeichnet, wenn es jeder abz¨ahlbaren Menge das Maß 0 zuordnet.

Pr¨ufungsfrage: Zusammenhang zwischen Sigma-Algebra und einem Mengensystem, auf dem ein Maß plausibel festgelegt ist, erkl¨aren

D. Rechnen mit Wahrscheinlichkeiten

Definition 18 (fast sicher, fast unm¨oglich): In einem Wahr- scheinlichkeitsraum (Ω,A,P)heißt ein Ereignis E ∈ A fast sicher, wenn P[E] = 1. Das Ereignis heißt fast unm¨oglich, wenn P[E] = 0.

Definition 19 (unabh¨angig):Zwei EreignisseAundBeines Wahrscheinlichkeitsraumes (Ω,A,P)sind unabh¨angig, wenn P[A∩B] = P[A]·P[B].

Definition 20 (Bedingte Wahrscheinlichkeit): Gegeben sei ein Wahrscheinlichkeitsraum (Ω,A,P)und ein Ereignis B∈ A mit P[B] >0. Die bedingte Wahrscheinlichkeit P[·|B] ist wie folgt definiert. F¨ur jedes A ∈ A ist P[A|B] = P[A∩ B]/P[B].

Korollar 1 (Bedingte Wahrscheinlichkeit ist ein Wahr- scheinlichkeitsmaß):Gegeben sei ein Wahrscheinlichkeitsraum (Ω,A,P)und ein EreignisB∈ AmitP[B]>0. Die Funktion Q[·] definiert als Q[A] = P[A|B] ist ein Wahrscheinlich- keitsmaß. F¨ur jedes Ereignis C ∈ A mit P[BC] > 0 gilt Q[A|C] = P[A|BC].

Definition 21 (Partition): Disjunkte Mengen Ai sind eine Partitionvon Ω, wennΩ =SAi.

Theorem 1 (Satz der totalen Wahrscheinlichkeit): Gegeben sei ein Wahrscheinlichkeitsraum (Ω,A,P). Sei Bi ∈ A eine Partition vonΩ. F¨ur jedesA∈ A gilt stets:

P[A] =X P[ABi] Wenn zudemP[Bi]>0 f¨ur alleigilt, dann ist:

P[A] =X

P[A|Bi]·P[Bi]

Ubung 7 (Satz der totalen Wahrscheinlichkeit):¨ Ein Knoten v sendet n Nachrichten an einen Knoten w. Hierzu stehenk verschiedene Pfade zur Verf¨ugung. Angenommen Knoten v w¨ahlt einen Pfad zuf¨allig aus und sendet alle n Nachrichten

¨uber diesen Pfad. F¨ur 1 ≤i ≤k sei pi die Wahrscheinlich- keit, dass v den Pfad i ausw¨ahlt. Des Weiteren sei qi die Wahrscheinlichkeit, dass eine Nachricht entlang des Pfades i verloren geht. Was ist die Wahrscheinlichkeit, dass alle Nachrichten korrekt am Zielknoten w ankommen? Hinweis:

definiere passende Ereignisse und rechne mit diesen Ereignis- sen ohne explizite Angabe eines Wahrscheinlichkeitsraumes.

Pr¨ufungsfrage: Nutzen des Satzes der totalen Wahrscheinlich- keit (in der vorhin genannten Form und den noch folgenden Formen) beim Rechnen mit Wahrscheinlichkeiten erl¨autern

II. ZUFALLSVARIABLEN UNDVERTEILUNGEN

A. Zufallsvariablen

Definition 22 (messbare Funktion): Seien (Ω1,A1) und (Ω2,A2)zwei messbare R¨aume. Eine Funktionf : Ω1→Ω2 wird alsA1-A2-messbar bzw. vereinfacht alsmessbare Funk- tion bezeichnet, wenn f¨ur alle A ∈ A2 stetsf−1(A) ∈ A1. (hierbei bezeichnet f−1(A) das Urbild von A unter f, d.h.

f−1(A) ={x:f(x)∈A})

Definition 23 (Zufallsvariable): Eine messbare Funktion f : Ω1 →Ω2 aus einem Wahrscheinlichkeitsraum(Ω1,A,P) in einen messbaren Raum (Ω2,A2) wird als Zufallsvariable bezeichnet.

Definition 24 (reellwertige Zufallsvariable): Eine Zufalls- variable X : Ω → R aus einem Wahrscheinlichkeitsraum (Ω,A,P) nach (R,B) wird als reellwertige Zufallsvariable bezeichnet.

Definition 25 (reellwertige mehrdimensionale Zufallsvaria- ble): Eine Zufallsvariable X : Ω → Rd aus einem Wahr- scheinlichkeitsraum (Ω,A,P) nach (Rd,Bd) wird als reell- wertige mehrdimensionale Zufallsvariable bezeichnet.

Definition 26 (diskrete Zufallsvariable): Eine Zufallsvaria- ble wird diskret bezeichnet, wenn diese nur endlich oder abz¨ahlbar unendlich viele Werte annimmt.

Definition 27 (Indikatorfunktion): Die Zufallsvariable 1A(x)definiert als

1A(x) =

(1, x∈A 0, x6∈A

bezeichnet man als Indikatorfunktionder Menge (des Ereig- nisses)A.

Definition 28 (Stochastischer Prozess): Sei I eine Index- menge (z.B. I = N oder I = R). Eine Familie von Zufallsvariablen (Xi)i∈I mit Xi : Ω1 → Ω2 nennt man stochatischen Prozess.

Definition 29 (unabh¨angige Zufallsvariable):Seien X und Y zwei Zufallsvariablen mit X : (Ω,A,P)→ (Ω1,A1) und Y : (Ω,A,P) → (Ω2,A2). Die Zufallsvariablen werden als unabh¨angigbezeichnet, wenn f¨ur alleB1∈ A1und B2∈ A2

gilt:P[X∈B1 undY ∈B2] = P[X ∈B1]·P[Y ∈B2].

(3)

B. Verteilungen

Definition 30 (Verteilung): DieVerteilung PX(·)einer Zu- fallsvariablen X : Ω1 → Ω2 ist definiert als PX[A] = P[X−1(A)]. Speziell f¨ur reellwertige Zufallsvariablen ist die Verteilung definiert als FX(x) = P[{ω : X(ω) ≤ x}]. Wir schreiben abk¨urzendFX(x) = P[X≤x].

Definition 31 (Dichte): Gibt es f¨ur eine Verteilung FX(x) einer reellwertigen Zufallsvariablen X eine FunktionfX(x), sodassFX(x) =Rx

−∞fX(s) dsf¨ur allexgilt, dann bezeichnet manfX(x)als die Dichteder Verteilung vonX.

Korollar 2 (Dichte einer diskreten reellwertigen Zufallsva- riablen): F¨ur eine diskrete reellwertige ZufallsvariableX mit Wertenxi ist die Dichte vonX sinnvoll definiert als

fX(x) =X

i

δ(x−xi)P[X =xi]

Hierbei bezeichnet δ(x) die im folgenden definierte Dirac- Delta-Funktion.

Definition 32 (Dirac-Delta-Funktion): Wir bezeichnen mit δ(x)dieDirac-Delta-Funktion, welche durch folgende Eigen- schaften charakterisiert ist

δ(x) =

(0f¨ur x6= 0

∞f¨urx= 0

und Z

−∞

δ(x) = 1

Definition 33 (Wahrscheinlichkeitsfunktion): F¨ur eine dis- krete Zufallsvariable X, welche die Werte xi annimmt be- zeichnet man die Funktion f(x), welche anx=xi die Werte P[X = xi] und sonst den Wert 0 annimmt die Wahrschein- lichkeitsfunktion von X. F¨ur diskrete Zufallsvariablen nutzen wir synonym den Ausdruck fX(x) zur Bezeichnung von Wahrscheinlichkeitsdichte und Wahrscheinlichkeitsfunktion.

Definition 34 (Stochastische Gleichheit):Zwei Zufallsvaria- blenXundY werden alsstochastisch gleichbezeichnet, wenn diese auf ihren Verteilungen ¨ubereinstimmen, d.h. P[X ∈ A] = P[Y ∈ A] f¨ur alle A bzw. speziell f¨ur reellwertige Zufallsvariablen FX(x) = FY(x) f¨ur alle x. Wir schreiben dann X=stY.

C. Verteilungsfunktionen

Definition 35 (Verteilungsfunktion): Eine Funktion H : R →R bezeichnet man als Verteilungsfunktion, wenn diese folgende Kriterien erf¨ullt:H(x)ist nicht fallend,H(−∞) = 0 und H(∞) = 1.

Definition 36: Sei H : R → R eine Verteilungsfunktion.

Die Funktion H(x) = 1−H(x) wird als Restverteilung bezeichnet.

Definition 37 (Dichtefunktion): Eine Funktion wird als Dichtefunktion bezeichnet, wenn diese nichtnegativ ist und R

−∞h(z)dz= 1erf¨ullt.

Definition 38 (CDF, PDF und PMF): Die Dichte einer Verteilung bzw. eine Dichtefunktion wird auch als PDF

(Probability-Density-Function) bezeichnet. Die Verteilung ei- ner Zufallsvariablen bzw. eine Verteilungsfunktion wird auch als CDF (Cummulative-Density-Function) bezeichnet. Die Wahrscheinlichkeitsfunktion einer diskreten Verteilung wird alsPMF(Probability-Mass-Function) bezeichnet.

Pr¨ufungsfrage: Zusammenhang der Begriffe CDF (Cummulative-Density-Function), PDF (Probability-Density- Function) und PMF (Probability-Mass-Function) erkl¨aren.

Definition 39 (Gemeinsame Verteilung): Als gemeinsame Verteilung (hier im Beispiel von zwei Dimensionen) bezeich- net man eine FunktionH(x, y)mit der Eigenschaft:

H(x, y) ist nicht fallend

H(−∞,−∞) = 0

H(∞,∞) = 1

H(∞, y)und H(x,∞)sind Verteilungsfunktionen

H(x, y) ist supermodular (siehe n¨achste Definition) Definition 40 (Supermodular): Eine Funktion H(x, y) ist supermodular, wenn f¨ur −∞< x1 ≤x2 < ∞ und −∞<

y1 ≤ y2 < ∞ gilt: H(x2, y2) +H(x1, y1)−H(x1, y2)− H(x2, y1)≥0.

Definition 41 (Gemeinsame Dichte): Eine nicht-negative Funktion h(x, y) wird als gemeinsame Dichte bezeichnet, wenn gilt:R

−∞

R

−∞h(x, y) dxdy= 1

Korollar 3 (Gemeinsame Verteilung und Dichte bei un- abh¨angigen Zufallsvariablen):F¨ur zwei unabh¨angige Zufalls- variablenX und Y gilt:

F(X,Y)(x, y) =FX(x)·FY(y) f(X,Y)(x, y) =fX(x)·fY(y)

Definition 42 (Marginale Dichte): F¨ur eine gemeinsame Dichte fX,Y(x, y) bezeichnen fY(y) = R

−∞f(x, y) dx und fX(x) =R

−∞f(x, y) dy diemarginalen Dichten.

Pr¨ufungsfrage: Zusammenhang der gemeinsamen Dichte und der marginalen Dichte erkl¨aren.

D. Bedingte Dichte und Verteilung

Definition 43 (Bedingte Dichte): F¨ur zwei reellwertige Zu- fallsvariablen X und Y bezeichnen wir die Dichte der Ver- teilung des Zufallsexperimentes des Ergebnisses vonX unter der Bedingung, dassY =y festgelegt ist, alsbedingte Dichte.

Wir schreiben die bedingte Dichte in der FormfX|Y(x|y).

Pr¨ufungsfrage: Erweiterung des Konzepts der bedingten Wahr- scheinlichkeit f¨ur reellwertige Zufallsvariablen, wenn die Be- dingung eine Nullmenge ist.

Definition 44 (Bedingte Verteilung): F¨ur zwei reellwertige Zufallsvariablen X und Y bezeichnen wir die Verteilung des Zufallsexperimentes des Ergebnisses von X unter der Bedingung, dassY =y festgelegt ist, alsbedingte Verteilung.

Wir schreiben die bedingte Verteilung in der FormFX|Y(x|y).

Definition 45 (Alternative Schreibweise der bedingten Ver- teilung): Alternativ schreiben wir auch P[X ≤ x|Y = y]

mit der Bedeutung P[X ≤ x|Y = y] def= FX|Y(x|y).

Jedoch darf der Ausdruck P[X ≤ x|Y = y] nur dann als bedingte Wahrscheinlichkeit ¨uber die Ereignisse {X ≤ x}

(4)

und{Y =y}im Sinne von Definition 20 interpretiert werden, wenn P[Y =y]>0 gilt.

Korollar 4 (Berechnung der bedingten Dichte): F¨ur zwei reellwertige ZufallsvariablenXundY existiere die gemeinsa- me Dichtef(X,Y)(x, y). Des Weiteren existiere die marginale Dichte fY(y). Wenn fY(y) > 0 f¨ur y gilt, l¨asst sich die bedingte DichtefX|Y(x|y)wie folgt bestimmen:

fX|Y(x|y) =f(X,Y)(x, y) fY(y)

Pr¨ufungsfrage: Wie kann die bedingte Dichte aus gemeinsamer und marginaler Dichte berechnet werden?

Korollar 5 (Bedingte Dichten und Verteilungen bei Un- abh¨angigkeit):F¨ur zwei unabh¨angige ZufallsvariablenX und Y erf¨ullen die bedingten Dichten und Verteilungen:

fX|Y(x|y) =fX(x) FX|Y(x|y) =FX(x)

Korollar 6 (Substituieren einer Zufallsvariablen mit einem festen Wert): F¨ur zwei reellwertige ZufallsvariablenX undY und eine Funktiong:R2→Rgilt:

P[g(X, Y)∈A|Y =y] = P[g(X, y)∈A|Y =y]

Insbesondere, wenn X undY unabh¨angig sind, ist:

P[g(X, Y)∈A|Y =y] = P[g(X, y)∈A]

Theorem 2 (Satz der totalen Wahrscheinlichkeit f¨ur Zu- fallsvariablen): F¨ur eine diskrete Zufallsvariable X ∈ {x1, x2, . . .}gilt:

P[A] =X

i

P[A|X=xi]·P[X =xi] F¨ur eine kontinuierliche ZufallsvariableX gilt:

P[A] = Z

P[A|X =x]fX(x) dx

Pr¨ufungsfrage: Was ist der Nutzen des vorhin genannten Satzes der totalen Wahrscheinlichkeit f¨ur Zufallsvariablen?

Ubung 8 (Signalst¨arke gegen¨uber Rauschen und Interfe-¨ renz): Gegeben sei ein Knotenu, welcher von einem Knoten v ein Signal der St¨arke Sv empf¨angt. Des Weiteren sei ein weiterer Knoten w gegeben, welcher zur selben Zeit sen- det. Die Signalst¨arke die u von w empf¨angt sei Sw. Die Signalst¨arkenSvundSwseien Zufallsvariablen mit den Vertei- lungenSv∼Exp(λv)f¨ur einλv>0undSw∼Exp(λw)f¨ur einλw>0. Wir nehmen weiter eine konstante Rauschleistung η > 0 und einen konstanten Schwellwert θ > 0 an. Wir legen fest, dass ein ¨Ubertragungsfehler vorliegt, wenn das Verh¨altnis Sv/(Sw+η) kleiner oder gleich θ ist. Bestimme die Wahrscheinlichkeit, dass ein ¨Ubertragungsfehler vorliegt.

Hinweis: bestimme einen Integralausdruck durch Bedingen

¨uber das Ereignis Sw = x, setze die konkreten Verteilungen bzw. Dichten f¨urSvundSwein und vereinfache den gefunden Ausdruck soweit m¨oglich mittels Sage.

Ubung 9 (Minimierung von aktiven Knoten in einem Sen-¨ sornetz unter Einhaltung einer QoS-Wahrscheinlichkeit): In

einem Container befindet sich eine zuf¨allige Anzahl N an Sensorknoten. Die Sensoren werden auf einem GebietQ mit Fl¨acheqQuadratmeter zuf¨allig verteilt. Die AnzahlN sei mit Rate λPoisson-verteilt. F¨ur jeden Sensor ist jede Position in Qgleich wahrscheinlich.

Wir nehmen an, dass die Sensorknoten in einer global festgelegten Messperiode eine Messung durchf¨uhren und das Messergebnis mit einer Wahrscheinlichkeit p an eine Daten- senke, welche sich ebenfalls in Q befindet, senden. Es sei angenommen, dass ein Sensorknoten die Senke genau dann erreicht, wenn sein Abstand zur Senke kleiner gleich d ist (sog. Unit-Disk-Modell). Es sei angenommen, dass die Senke derart in Qplatziert ist, dass der Kreis mit Radius d um die Datensenke komplett inQliegt.

1) SeiRldie Zufallsvariable der Anzahl der in einer Mess- periode von der Datensenke empfangenen Sensormes- sungen, wenn diese von genau l Sensorknoten erreicht wird. Bestimme rl(k) = P[Rl=k].

2) Angenommen es wurden genaunKnoten auf das Gebiet Q geworfen. Sei Mn die Zufallsvariable der Anzahl Sensorknoten, welche die Datensenke erreichen k¨onnen.

Bestimmemn(k) = P[Mn=k].

3) Betrachte nun die ZufallsvariableM der Anzahl Sensor- knoten, welche die Datensenke erreichen k¨onnen (d.h.

wir lassen jetzt die Bedingung fallen, dass genau n Sensorknoten im Gebiet Q liegen). Ermittle m(k) = P[M = k] und vereinfache den f¨ur m(k) gefunden Ausdruck mittels Sage.

4) Welche Beobachtung kann man bzgl. der Verteilung von M machen?

5) SeiRdie Zufallsvariable der Anzahl der von der Daten- senke in einer Messperiode empfangenen Sensormessun- gen (d.h. wir lassen im Gegensatz zu vorhin betrachteten Zufallsvariablen Rl auch wieder die Bedingung fallen, dass genau l Knoten die Datensenke erreichen k¨onnen.

Bestimme mithilfe des vorhin ermittelten Audrucks m(k) die Funktion r(k) = P[R = k] und vereinfache den Ausdruck soweit m¨oglich mit Sage.

6) Gib die Verteilungsfunktion vonRan.

7) Betrachte folgende konkrete Parameter: λ = 100, q = 10002 undd= 100. Ermittele eine Funktionf(p), wel- che f¨ur die gegebenen Parameter in Abh¨angigkeit von p die Wahrscheinlichkeit angibt, dass die Datensenke mindestens eine Messung in einer Messperiode erh¨alt.

8) Stellef(p)f¨ur den f¨urpg¨ultigen Bereich[0,1]mit Sage dar. Warum ist die Wahrscheinlichkeit nicht1f¨urp= 1?

9) Angenommen p soll f¨ur f(p) so eingestellt werden, sodass m¨oglichst wenig gesendet wird, die Senke aber mit 90%Wahrscheinlichkeit in einer Messperiode min- destens eine Messung erh¨alt. Finde das optimale p.

Verwende hierzu Sage (obwohl die L¨osung auch sehr einfach auf dem Papier bestimmt werden kann).

10) Bestimme mit der ermittelten Funktion f(p)die Wahr- scheinlichkeit der AnzahlY an Messperioden, die zwi- schen Erhalt der letzten Messung und der darauffolgen- den vergehen. Welche Verteilung hat Y?

Pr¨ufungsfrage: Erkl¨aren wie Bernoulli-, Binomial- und geo-

(5)

metrische Verteilung zusammenh¨angen

III. ERWARTUNGSWERT UND HOHERE¨ MOMENTE

A. Definition Erwartungswert, Varianz und h¨ohere Momente Definition 46 (Erwartungswert einer diskreten reellwertigen Zufallsvariablen):Sei X eine diskrete reellwertige Zufallsva- riable, die die Wertex1, x2, . . . mit den Wahrscheinlichkeiten p1, p2, . . . annimmt. Sofern existent, ist der Erwartungswert E[X] vonX definiert als

E[X] =X xipi

Definition 47 (Erwartungswert einer reellwertigen Zufalls- variablen): Sei X eine reellwertige Zufallsvariable und es existiere die Verteilungsdichte fX(x). Sofern existent, ist der Erwartungswert E[X]von X definiert als

E[X] = Z

−∞

xfX(x)dx

Korollar 7 (Rechenreglen auf Erwartungswerten):SeienX und Y reellwertige Zufallsvariablen. Sofern die Erwartungs- werte existieren gilt:

E[h(X)] =X

h(xi)P[X =xi]sofern X diskret E[h(X)] =

Z

h(x)fX(x) dx E[aX+bY] =aE[X] +bE[Y] Wenn X und Y unabh¨angig sind, gilt:

E[XY] = E[X]E[Y]

Definition 48 (Moment): Sei X eine Zufallsvariable. Als Moment k-ter Ordnung f¨ur k ∈ N bezeichnet man E[Xk], sofern dieser Erwartungswert existiert.

Definition 49 (Varianz): Sei X eine Zufallsvariable. Als Varianz bezeichnet man Var[X] =E[X2]−(E[X])2, sofern erstes und zweites Moment existieren.

Pr¨ufungsfrage: Was bedeuten die Begriffe Erwartungswert, Varianz und h¨ohere Momente?

Ubung 10 (Erwartungswert der Indikatorfunktion):¨ Was ist der Erwartungswert der Indikatorfunktion 1A(x) zu einem EreignisA?

B. Bedingter Erwartungswert

Definition 50 (Verteilung und Dichte unter gegebener Bedin- gung):Sei(Ω,A,P)ein Wahrscheinlichkeitsraum. SeiA∈ A ein Ereignis mit P[A] >0. Sei X eine reellwertige Zufalls- variable aus diesem Wahrscheinlichkeitsraum. Wir definieren mit FX|A(x)die Verteilung vonX unter der Bedingung von A, d.h.FX|A(x) = P[X ≤x|A]. Sofern existent bezeichnen wir mit fX|A(x) die Dichte zu FX|A(x) (vgl. Definition der Dichte in Def. 31).

Definition 51 (Erwartungswert unter gegebener Bedingung):

SeiXeine reellwertige Zufallsvariable. SeiAein Ereignis mit P[A] >0. Der Erwartungswert vonX unter der Bedingung A ist definiert als:

E[X|A] = Z

xfX|A(x) dx

Sofern X diskret ist und die Werte xi annimmt, ergibt sich der Erwartungswert unter der BedingungAals:

E[X|A] =X

xiP[X=xi|A]

Theorem 3 (Satz der totalen Wahrscheinlichkeit f¨ur Erwar- tungswerte): F¨ur eine Zufallsvariable X und eine Partition A1, A2, . . . l¨asst sich der Erwartungswert von X bestimmen als:

E[X] =X

E[X|Ai]P[Ai]

Pr¨ufungsfrage: Nutzen des Satzes der totalen Wahrscheinlich- keit im Kontext Erwartungswert erkl¨aren.

Definition 52 (Erwartungswert unter gegebener Realisie- rung einer Zufallsvariablen): Seien X und Y reellwertige Zufallsvariablen. Der Erwartungswert von X unter der Be- dingungY =y ist definiert als:

E[X|Y =y] = Z

xfX|Y(x|y) dx

Sofern X diskret ist und die Werte xi annimmt, ergibt sich der Erwartungswert unter der BedingungY =y als:

E[X|Y =y] =X

xiP[X=xi|Y =y]

Definition 53 (Bedingter Erwartungswert):Seien X und Y zwei reellwertige Zufallsvariablen. BetrachteE[X|·]als Funk- tion angewendet auf Y. Wir bezeichnen die Zufallsvariable E[X|Y]alsbedingten Erwartungswert.

Pr¨ufungsfrage: Erkl¨aren wieso der bedingte Erwartungswert eine Zufallsvariable ist

Theorem 4 (Satz der totalen Wahrscheinlichkeit mit beding- ten Erwartungswerten):Seien X undY reellwertige Zufalls- variablen. Es giltE[X] = E[E[X|Y]]. Ausformuliert l¨asst sich dies auch wie folgt festhalten: F¨ur eine diskrete Zufallsvariable Y ∈ {y1, y2, . . .} l¨asst sich der Erwartungswert von X bestimmen als:

E[X] =X

i

E[X|Y =yi]·P[Y =yi] F¨ur eine kontinuierliche ZufallsvariableY gilt:

E[X] = Z

E[X|Y =y]fY(y) dy

Pr¨ufungsfrage: Satz der totalen Wahrscheinlichkeit im Kontext bedingter Erwartungswert erkl¨aren.

Ubung 11 (Erwartungswert einer stochastischen Summe von¨

¨ubertragenen Bits): In einem ¨Ubertragungssystem reserviert ein SenderN Ubertragungs-Slots. Hierbei sei¨ N eine Zufalls- variable mit Werten in N,N >0 und E[N]<∞. In jedem Slot1≤i≤N werden Xi Bits gesendet. Auch dieXi seien Zufallsvariablen. Diese seien identisch verteilt, d.h.Xi=stX f¨ur eine generische ZufallsvariableX. Es gelteE[X]<∞.

1) Beschreibe die ZufallsvariableY der Gesamtanzahl der gesendeteten Bits als Ausdruck ¨uber die Variablen N und Xi.

(6)

2) Seien f¨ur alleidieXiunabh¨angig vonN. Wie l¨asst sich der Erwartungswert E[Y] mit den Erwartungswerten E[N]und E[X]berechnen?

Ubung 12 (Mittlere Bitfehlerrate unter Fast-Fading und¨ zuf¨alliger Distanz): Die Distanz zwischen einem Sender und einem Empf¨anger sei zuf¨allig D ∼ Exp(λ). Das Verh¨alt- nis zwischen Empfangssignalst¨arke und Rauschleistung am Empf¨anger (kurz SNR) sei Y = X/D2. Hierbei sei X eine Zufallsvariable mit X ∼ Exp(γ). Es sei angenommen, dass D und X unabh¨angig sind. Die Bitfehlerrate bei einer gegebenen SNR von x sei (1 − erf(√

x))/2 (hierbei ist erf(x) die Gaußsche Fehlerfunktion). Was ist die erwartete BitfehlerrateE[(1−erf(√

Y))/2]? Bestimme einen geeigneten Integralausdruck und vereinfach soweit m¨oglich mittels Sage.

IV. MODELLE ZUR DRAHTLOSENKOMMUNIKATION

A. Mittlerer Pfadverlust bei isotropischem Strahler

Definition 54 (Mittlerer Pfadverlust bei isotropischem Strah- ler): Sei d die Distanz zwischen Sender und Empf¨anger, α ≥ 1 der Pfadverlustkoeffizient und pTX die von der Sen- derantenne abgestrahlte Leistung. Wir definieren f¨ur die von der Empf¨angerantenne mittlere empfangene LeistungpRX die folgenden Modelle (APL steht f¨ur Average Path Loss Model):

APL1 pRX=pTXd−α

APL2 pRX=pTXmin{1, d−α} APL3 pRX=pTX(1 +d)−α

Pr¨ufungsfrage: Modell f¨ur mittleren Pfadverlust bei isotropi- schem Strahler anschaulich erkl¨aren

Definition 55 (Log-distance Pfadverlustmodell): Das Log- distance Pfadverlustmodelldr¨uckt die EmpfangsleistungRRX

in dBm bei gegebener Kommunikationsdistanzdf¨ur geeignete Konstantenc,αundd0 wie folgt aus:

PRX(d) =c−10αlog10(d/d0)

Hierbei bezeichnen α den Pfadverlustkoeffizienten, d0 die Referenzdistanz und cden mittleren Pfadverlust in dB an der Referenzdistanz d0.

Definition 56 (Log-Normal Shadowing-Modell): Das Log- Normal Shadowing Modelldr¨uckt die EmpfangsleistungRRX in dBm bei gegebener Kommunikationsdistanzdf¨ur geeignete Konstantenc,αundd0 sowie einer normalverteilten Zufalls- gr¨oße X∼ N(0, σ2)wie folgt aus:

PRX(d) =c−10αlog10(d/d0) +X

Hierbei bezeichnen habenα,d0 undc die gleiche Bedeutung wie in voriger Definition. Die Zufallsgr¨oße X modelliert die Schwankungen der mittleren Signalst¨arke aufgrund von Objekten in der Umgebung.

Pr¨ufungsfrage: Log-Normal Shadowing-Modell anschaulich erkl¨aren.

B. Flaches Fast-Fading

Definition 57 (Flaches Fast-Fading-Modell): Sei pRX die mittlere Empfangsleistung an einer Empf¨angerantenne. Sei X eine nicht-negative Zufallsvariable mit E[X] = 1, hier bezeichnet als Fading-Koeffizient. Die instantane Empfangs- leistung PRX ist definiert alsPRX =pRX·X.

Pr¨ufungsfrage: Modell f¨ur flaches Fast-Fading anschaulich erkl¨aren

Definition 58 (Rayleigh-Fading): Rayleigh-Fading be- schreibt einen Kanal bestehend aus mehreren indirekten Kom- munikationspfaden ohne einen herausragenden dominanten Kommunikationspfad. Der Fading-Koeffizient erf¨ullt in diesem ModellX ∼Exp(1).

Pr¨ufungsfrage: Szenario f¨ur Rayleigh-Fading beschreiben Definition 59 (Rice-Fading): Rice-Fading beschreibt einen Kanal bestehend aus mehreren indirekten Kommunikations- pfaden und einem herausragenden dominanten Kommunikati- onspfad (in der Regel der direkte sogenannte Line-of-Sight- bzw. LOS-Pfad). Man betrachtet das Verh¨altnis K zwischen mittlerer Leistung P1 welche ¨uber den dominanten Pfad ge- gen¨uber der mittleren Leistung P2 die insgesamt ¨uber die indirekten Pfade empfangen wird, d.h.K=P1/P2 (die emp- fangene Gesamtleistung istP1+P2). Der Fading-KoeffizientX erf¨ullt in diesem ModellX =2(K+1)1 Y mitY ∼nzX22(2K).

Pr¨ufungsfrage: Szenario f¨ur Rice-Fading beschreiben Definition 60 (Nakagami-Fading): Bei Nakagami-Fading betrachtet man als Kommunikationskanal die Summe aus meh- reren unabh¨angigen (ann¨ahernd) identisch verteilten Rayleigh- Fading-Kan¨alen. Der Fading-Koeffizient X erf¨ullt in diesem Modell X ∼Γ(m, m) f¨ur einen geeignet gew¨ahlten Modell- parameterm≥0.

Pr¨ufungsfrage: Szenario f¨ur Nakagami-Fading beschreiben Pr¨ufungsfrage: Zusammenhang der Rayleigh-, Rice- und Nakagami-Modelle informal beschreiben

Korollar 8 (Verteilung und Dichte eines Fading-Modells):

Sei Y = pRX ·X die in einem Fading-Modell betrachtete Zufallsvariable. Aus Verteilungsfunktion FX(x) und Dichte fX(x) l¨asst sich die Verteilungsfunktion und Dichte f¨ur Y wie folgt bestimmen:

FY(x) =FX( x pRX

) fY(x) = 1

pRXfX( x pRX) C. SINR-, SIR- und SNR-Modell

Definition 61 (SINR-, SIR und SNR-Modell): Gegeben sei ein Netzknoten t, welcher eine ¨Ubertragung von Knoten s mit Leistung S empf¨angt. Sei V die Menge aller weiteren Knoten, die gleichzeitig senden und Sv f¨ur jedes v ∈V die Leistung mit der Knotent die ¨Ubertragung von v empf¨angt.

Wir bezeichnen die ¨Ubertragungen der Knoten aus V als Interferenz. Sei dar¨uber hinausN die interferenzunabh¨angige Leistung des Rauschens am Empf¨anger. Die Leistungsgr¨oßen k¨onnen als deterministische Werte oder als Zufallsvariablen

(7)

modelliert sein. Die SINR (Signal-to-Interference-and-Noise- Ratio) ist definiert als

SINRdef= S

N+I , mitI=X

v∈V

Sv

Ist das Rauschen vernachl¨assigt (d.h. N = 0), so spricht man von SIR (Signal-to-Interference-Ratio). Ist hingegen keine Interferenz angenommen (d.h.I= 0), so spricht man von SNR (Signal-to-Noise-Ratio).

Pr¨ufungsfrage: Modelle SINR, SIR und SNR beschreiben Definition 62 ( ¨Ubertragungserfolgswahrscheinlichkeit, Outage-Wahrscheinlichkeit): Wir bezeichnen ps(θ) = P(SINR > θ) als Ubertragungserfolgswahrscheinlichkeit.¨ Die Gegenwahrscheinlichkeit 1 − ps(θ) wird als Outage- Wahrscheinlichkeit bezeichnet. Analog legen wir diese Begriffe f¨ur SIR und SNR fest.

Pr¨ufungsfrage: Begriffe ¨Ubertragungserfolgswahrscheinlich- keit und Outage-Wahrscheinlichkeit erkl¨aren

Ubung 13 (Bestimmung von Outage- und Erfolgswahr-¨ scheinlichkeit): Gegeben sei eine Menge V = {s1, . . . , sn} von Netzknoten und ein weiterer Knotent. Es seidi=ksitk.

Knotens1sende ant. Alle ¨ubrigen Knotensisenden ebenfalls (wohin ist hier egal).

Die ¨Ubertragung von si werde von t mit einer Leis- tung pTXXi/dαi empfangen. Hierbei ist α ≥ 2 und Xi sind unabh¨angige identisch verteilte Zufallsvariablen (z.B. im Rayleigh-Fading-Modell Xi ∼Exp(1)).

Es sei das SIR-Interferenzmodell angenommen, d.h. ein korrekter Empfang ist m¨oglich, wenn S/I > θ f¨ur ein festgelegtes θ >0 (I sei gem¨aß dem SIR-Modell die Summe aller st¨orenden ¨Ubertragungen).

1) Betrachte zun¨achst nur zwei Senders1unds2mitXi∼ Exp(1). BestimmeP[S/I > θ]f¨urS=pTXX1/dα1 und I = pTXX2/dα2. Verwende Sage, um den gefundenen Ausdruck soweit m¨oglich zu vereinfachen.

2) Was l¨asst sich demnach bzgl. der verwendeten Sen- deleistung pTX und der Erfolgsrate sagen? Ist dies realistisch bzw. wo liegt der Modellierungsfehler?

3) Betrachte nun den allgemeineren Fall mit n Sendern und beliebigen Verteilungen. Die Verteilungsfunktio- nen seien FXi(x). Angenommen die Dichtefunktionen fXi(x)existieren. Bestimme einen Integralausdruck zur Berechnung von P[S/I > θ] mit S =pTXX1/dα1 und I=Pn

i=2pTXXi/dαi.

4) Betrachte nun speziell, dass die Xi ∼ Exp(1) verteilt sind. Bestimme mit Sage einen Ausdruck f¨ur n = 6 Sender.

5) Wie sieht der Ausdruck vermutlich f¨ur beliebigenaus?

Wie verh¨alt es sich hier mit der netzweiten Sendeleis- tungseinstellungpTX und der Interferenz?

V. TRANSFORMATIONEN

Definition 63 (Wahrscheinlichkeitserzeugende Funktion):

Diewahrscheinlichkeitserzeugende FunktionGX(t)einer dis- kreten Zufallsvariablen X ∈ N0 ist definiert als GX(t) =

E[tX]. Wir bezeichnen die wahrscheinlichkeitserzeugende Funktion auch alsPGF (Probabilibty-Generating-Function).

Theorem 5 (Rechnen mit wahrscheinlichkeitserzeugenden Funktionen): SeienX und Y zwei voneinander unabh¨angige diskrete Zufallsvariablen mit Werten in N0. Die wahrschein- lichkeitserzeugenden Funktionen seien GX(t) und GY(t). Es gilt:

GX+Y(t) =GX(t)GY(t) E[Xk] = dkGX(t)

dtk t=1 P[X=k] = 1

k!

dkGX(t) dtk

t=0 GaX+b(z) =zbGX(az)

Ubung 14 (Summe von unabh¨angigen Poisson-verteilten¨ Zufallsvariablen): Zeige mittels des Konzepts der Wahr- scheinlichkeitserzeugenden (PGF), dass die Summe von zwei Poisson-verteilten ZufallsvariablenX1∼Poiss(λ1)undX2∼ Poiss(λ2)wieder Poisson-verteilt mit Rate λ12 ist.

Definition 64 (Laplace-Transformation): F¨ur eine reellwer- tige Zufallsvariable X ∈ R+0 ist die Laplace-Transformierte LX(s)definiert alsLX(s) = E[e−sX].

Theorem 6 (Rechnen mit Laplace-Transformierten): Seien XundY zwei nichtnegative reellwertige Zufallsvariablen (d.h.

X, Y ∈R+0). SeienX und Y unabh¨angig. Es gilt:

LX+Y(s) =LX(s)LY(s) E[Xk] = dkLX(−s)

dsk s=0 FX(x) = lim

n→∞

X

k≤nx

(−n)k k!

dkLX(s) dsk

s=n LaX+b(s) = e−bsLX(as)

Definition 65 (Momenterzeugende Funktion): Die Momen- terzeugende Funktion MX(t) einer Zufallsvariablen X ist definiert als MX(t) = E[etX]. Wir bezeichnen die Momen- terzeugende Funktion auch als MGF (Moment-Generating- Function).

Definition 66 (Charakteristische Funktion): DieCharakte- ristische FunktionφX(t)einer ZufallsvariablenX ist definiert als φX(t) = E[eitX]. Wir bezeichnen die Charakteristische Funktion auch kurz alsCF.

Pr¨ufungsfrage: Zusammenhang Laplace-Transformierte, Wahrscheinlichkeitserzeugende, Momenterzeugende und Charakteristische Funktion erkl¨aren

Ubung 15 (Bestimmung der maximal erlaubten Zellengr¨oße¨ mittels Laplace-Transformation): Wir betrachten ein zellula- res Netz bestehend aus mehreren Basisstationen. In diesem Netz betrachten wir die Basisstation b. Diese sei von sechs Basisstationenb1, . . . , b6umgeben. Die Distanzen zwischenb und den sechs bi seien alle gleich, d.h. es gelte kb–bik = d f¨ur alle i = 1, . . . ,6. Eine ¨Ubertragung von bi wird von b mit der Leistung Xi/d2 mit Xi ∼ Γ(2,2) empfangen (d.h.

Nakagami-Fading-Modell mit Modellparameter m = 2 und Pfadverlustkoeffizient α = 2). Wir nehmen an, dass alle

(8)

Kommunikationskan¨ale stochastisch unabh¨angig voneinander sind.

1) Angenommen jede der sechs benachbarten Basisstatio- nen b1, . . . , b6 senden. Beschreibe die Interferenz an b als ZufallsvariableI.

2) Bestimme die Laplace-Transformierte von I. (Hinweis:

die Kommunikationskan¨ale sind alle stochastisch un- abh¨angig voneinander.)

3) Bestimme Mittels der Sage-Funktion inverse laplace die Verteilungsdichte vonI.

4) Sei die von Basisstation b abgedeckte Funkzelle ein Kreis mit Mittelpunktbund Radiusd/3(d.h. ein Drittel der Distanz zwischen b und den benachbarten Basis- stationen bi). Betrachten wir einen Knoten v am Rand der Zelle, welcher die Basisstationb erreichen m¨ochte.

Sei die Empfangsleistung der ¨Ubertragung von v an der Basistation b die Zufallsvariable S = X/(d/3)2 mit X ∼ Γ(2,2) (d.h. auch hier Nakagami-Fading- Modell mit Modellparameter2 und Pfadverlustkoeffizi- ent2). Bestimme einen Ausdruck der Verteilungsfunkti- onFS(x)und vereinfache diesen mittels Sage. (Hinweis:

der Ausdruck ben¨otigt die Sage-Funktionen gamma und gamma inc lower.)

5) Sei n > 0 eine interferenzunabh¨angige feste Rausch- leistung an der Basisstation b. F¨ur einen gegebenen festen Schwellwertθsei die Wahrscheinlichkeitpout(θ), dass die ¨Ubertragung des Knotensv an die Basisstation nicht erfolgreich ist, wie folgt definiert: pout(θ) = P[S/(n+I) ≤ θ] (d.h. wir betrachten die Outage- Wahrscheinlichkeit unter dem SINR-Modell). Ermittle durch bedingen ¨uber I = xeinen geeigneten Integral- ausdruck zur Berechnung vonpout(θ).

6) L¨ose den gefunden Integralausdruck mittels Sage.

7) Sei der Empfangsschwellwert θ = 0.4 und die Rauschleistung n = 10−6. Plotte die Outage- Wahrscheinlichkeit pout(θ) f¨ur den Bereich [0,2000].

Wo liegt dem geplotten Bild nach in etwa die maximal erlaubte Distanzd(bzw. der maximal erlaubte Zellenra- diusd/3), sodass die Outage-Wahrscheinlichlkeit in der Zelle h¨ochstens15% betr¨agt?

8) Finde den exakten Wert f¨ur d mittels Sage. (Hinweis:

Eine symbolische L¨osung l¨asst sich hier mit dem Sage- Befehl solve leider nicht finden. Verwende stattdessen den Sage-Befehl find root, um die L¨osung numerisch zu berechnen.)

Ubung¨ 16 (Bestimmung der Ubertragungserfolgs-¨ wahrscheinlichkeit im Rayleigh-Kanal mittels Laplace- Transformation): Betrachte ein Drahtlosnetz bestehend aus Knoten v1, . . . , vn und einem Beobachtungspunkt v.

Jeder Knoten sende. Die Signalst¨arke von Knoten vk, die von v empfangen wird, sei eine Zufallsvariable Ik. Die ZufallsvariablenIk seien nicht notwendigerweise unabh¨angig.

Die Interferenz I anv sei definiert als I=Pn k=1Ik. 1) Angenommen v empf¨angt von einem weiteren Knoten

mit Signalst¨arkeS. Die Signalst¨arkeS sei eine von den

¨ubrigen ¨Ubertragungen unabh¨angige exponentialverteilte ZufallsvariableS∼Exp(1)(Rayleigh-Fading). Bestim-

me die Erfolgswahrscheinlichkeit P[S/I > θ] als Aus- druck der Laplace-Transformierten von I. (Tipp: nach I bedingen, mittels Satz der totalen Wahrscheinlichkeit P[S/I > θ] berechnen und konkrete Verteilungsdichte f¨ur S einsetzen)

2) Betrachte nun den Abstand r zwischen Sender und v. Der Pfadverlust sei α. Die Signalst¨arke am Sender sei 1. Was ist die Empfangsst¨arke an v im Rayleigh- Fading-Modell? Wie ¨andert sich der vorher hergeleitete Audruck?

3) Wie kann man den vorher gefundenen Ausdruck noch verfeinern, wenn alle Ik als unabh¨angig angenommen sind?

4) Angenommen Rayleigh-Fading gelte f¨ur alle Kan¨ale. Es seienri die Abst¨ande zwischenv undvi. Es sei f¨ur alle Ubertragungen der Pfadverlust¨ αangenommen. Definie- ren Sie die ZufallsvariablenIkf¨ur dieses Szenario geeig- net. Wie l¨asst sich der im vorigen Aufgabenabschnitt ge- fundene Ausdruck noch weiter vereinfachen? [Hinweis:

die Laplace-Transformierte einer exponentialverteilten Zufallsvariablen kann man im Anhang nachschlagen.]

Pr¨ufungsfrage: Erl¨autern welchen Vorteil das Rechnen mit Laplace-Transformationen gegen¨uber dem direkten Rechnen mit Verteilungen haben kann.

VI. AUSZUGE DER¨ INTEGRATIONSTHEORIE

A. Lebesgue-Integral

Definition 67 (Elementarfunktion): Es seien A1, . . . , An paarweise disjunkte messbare Mengen eines messbaren Raum- es. Es seiena1, . . . , anWerte ausR+0. Wir bezeichnenf(x) = Pn

i=1ai1Ai(x)eineElementarfunktion.

Definition 68 (Lebesgue-Integral auf Elementarfunktionen):

Sei(Ω,A, µ)ein Maßraum und A1, . . . , An in diesem Raum messbare Mengen. Seif(x)eine Elementarfunktion der Form f(x) = Pn

i=1ai1Ai(x). Das Lebesgue-Integral der Elemen- tarfunktion f(x) ¨uber Ωist definiert als

Z

fdµ=

n

X

i=1

aiµ(Ai)

Lemma 1 (Nicht-negative messbare Funktion als Grenzwert einer Folge von Elementarfunktionen):Sei(Ω,A, µ)ein Maß- raum und sei (R,B) der Messraum der Borelmengen. Eine nicht-negative Funktion f : Ω→R ist messbar genau dann, wenn es eine Folge (fn)n∈N von Elementarfunktionen gibt, die punktweise und monoton wachsend gegen f konvergiert, d.h. f¨ur jedes x gilt fn(x) % f(x) mit n → ∞ (die Schreibweise%bedeutetfn−1(x)≤fn(x)).

Definition 69 (Lebesgue-Integral einer nicht-negativen messbaren Funktion): Sei (Ω,A, µ) ein Maßraum und sei (R,B)der Messraum der Borelmengen. Seif : Ω→Rnicht- negativ und messbar. Sei(fn)n∈N eine Folge von Elementar- funktionen, die punktweise und monoton wachsend gegen f konvergiert. DasLebesgue-Integral der nicht-negativen mess- baren Funktionf ¨uber Ωist definiert als:

Z

fdµ= lim

n→∞

Z

fn

(9)

Definition 70 (Integrierbar, Quasi-Integrierbar): F¨ur eine beliebige messbare Funktion f : (Ω,A, µ)→(R,B)zerlege f punktweise in Positivteil f+= max{0, f} und Negativteil f = max{0,−f}. Die Funktion f ist quasi-integrierbar bzgl. µ, wenn mindestens eines der Integrale R

f+dµ und R

fdµ endlich ist. Die Funktion ist integrierbar bzgl. µ, wenn beide Integrale endlich sind.

Definition 71 (Lebesgue-Integral f¨ur messbare Funktionen):

Das Lebesgue-Integral einer quasi-integrierbaren Funktion f

¨uberΩist definiert als:

Z

fdµ= Z

f+dµ− Z

fdµ F¨ur jede messbare TeilmengeA⊆Ωist

Z

A

fdµ= Z

f·1A

Pr¨ufungsfrage: Den wesentlichen Unterschied zwischen Riemann- und Lebesgue-Integral erkl¨aren

Definition 72 (Integralschreibweisen): M¨ochte man die Integrationsvariable explizit angeben, dann schreibt man R

Af(x) dµ(x), R

Af(x)µ(dx) oder R

Aµ(dx)f(x). Wir ver- wenden hier in der Regel die Schreibweise R

Af(x)µ(dx). Ist µdas Lebesgue-Maß, dann schreibt man auch stattdµ(x)bzw.

µ(dx) einfach dx. Ist das Maß µ eine Verteilungsfunktion F(x), dann schreibt man auchR

Af(x) dF(x) =R

AfdF. Pr¨ufungsfrage: Die Integralschreibweisen erkl¨aren

Korollar 9 (Rechenregeln auf Legesgue-Integralen):Es gel- ten die folgenden Rechenreglen auf Lebesgue-Integralen:

Linearit¨at Z

(αf+βg) dµ=α Z

fdµ+β Z

gdµ

Monotonie, d.h. f ≤gimpliziert Z

fdµ≤ Z

gdµ

Zerlegbarkeit, d.h. f¨ur µ-messbareAund B gilt:

Z

fdµ= Z

Ω\A

fdµ+ Z

A

fdµ Z

A∪B

fdµ= Z

A

fdµ+ Z

B

fdµ− Z

A∩B

fdµ

F¨urµ-messbares A mitµ(A) = 0ist:

Z

A

fdµ= 0

B. Maßtheoretische Definition des Erwartungswerts

Definition 73 (Definition des Erwartungswerts ¨uber Lebesgue-Integral):SeiX : (Ω,A,P)→(R,B)eineP-quasi- integrierbare Zufallsvariable. Dann ist derErwartungswertvon X definiert als:

E[X] = Z

XdP

Wenn insbesondere −∞ < E[X] < ∞ gilt, sagen wir der Erwartungswert existiert.

Pr¨ufungsfrage: Unterschied zwischen Erwartungswertdefiniti- on ¨uber Verteilungsdichte und der allgemeineren Erwartungs- wertdefinition ¨uber Lebesgue-Integral erkl¨aren

Korollar 10 (Rechenregeln auf Erwartungswerten): Wie schon f¨ur die einfache Definition des Erwartungswerts auf Zufallsvariablen ¨uber die Dichte der Verteilung (vgl. Defi- nition 46 und 47) gelten auch hier die Rechenregeln aus Korrolar 7 (hier neu aufgef¨uhrte Rechenregeln gelten auch f¨ur die einfache Definition des Erwartungswerts):

Istf : (R,B, ν)→(R,B)messbar undX: (Ω,A,P)→ (R,B)eine Zufallsvariable, dann gilt:

E[f(X)] = Z

f(X(ω)) dP(ω)

Linearit¨at:

E[aX+bY] =aE[X] +bE[Y]

Monotonie: f¨urX ≤Y (fast sicher) und sofernE[X]und E[Y] existieren:

E[X]≤E[Y]

Wahrscheinlichkeit als Erwartungswert: f¨ur jedes Ereignis Agilt:

P[A] = E[1A]

Dreiecksungleichung:

|E[X]| ≤E[|X|]

E[|X+Y|]≤E[|X|] + E[|Y|]

Sigma-Additivit¨at: Seien abz¨ahlbar unendlich viele Zu- fallsvariablenXi fast sicher nichtnegativ dann gilt:

E

" X

i=1

Xi

#

=

X

i=1

E[Xi]

Erwartungswert des Produkts von endlich vielen un- abh¨angigen ZufallsvariablenXi:

E

" n Y

i=1

Xi

#

=

n

Y

i=1

E[Xi]

C. Satz von Fubini (und Erg¨anzungen zur Maßtheorie) Theorem 7 (Satz von Fubini f¨ur das Riemann-Integral):Sei f : [a, b]×[c, d]→Rstetig. Dann gilt:

Z

[a,b]×[c,d]

f(x, y) d(x, y) = Z b

a

Z d c

f(x, y) dydx

= Z d

c

Z b a

f(x, y) dxdy Definition 74 (Produkt-Sigma-Algebra):Seien(Ω1,A1)und (Ω2,A2)zwei Messr¨aume. Die Produkt-Sigma-AlgebraA= A1⊗ A2ist definiert als die vonA1× A2={A1×A2:A1∈ A1, A2∈ A2} erzeugte Sigma-Algebra (vgl. Definition 10).

Definition 75 (Produkt-Maß): Seien (Ω1,A1, µ1) und (Ω2,A2, µ2)zwei Maßr¨aume. Seiµein Maß auf der Produkt- Sigma-Algebra A1× A2. Wir bezeichnenµ als Produktmaß,

(10)

wenn f¨ur A1 ∈ A1 und A2 ∈ A2 stets µ(A1 ×A2) = µ(A1)µ(A2)gilt.

Pr¨ufungsfrage: Den Begriff Produkt-Maß anschaulich anhand des Beispiels Erweiterung des Lebesgues-Maßes zum Messen von Intervalll¨angen auf Messen von Rechteckfl¨acheninhalt erkl¨aren

Definition 76 (Sigma-endliches Maß): Ein Maß µ auf ei- nem Messraum (Ω,A) istSigma-endlich, wenn es h¨ochstens abz¨ahlbar viele Ai mit µ(Ai) gibt, die Ω ¨uberdecken (d.h.

Ω =SAi).

Theorem 8 (Existenz und Eindeutigkeit des Produktmaßes):

Seien (Ω1,A1, µ1) und (Ω2,A2, µ2) zwei Sigma-endliche Maßr¨aume (d.h. µ1 undµ2 seien Sigma-endlich). Es existiert genau ein eindeutiges Produkt-Maß aufA1⊗ A2.

Definition 77 (Notation des eindeutigen Produktmaßes):

Seien (Ω1,A1, µ1) und (Ω2,A2, µ2) zwei Sigma-endliche Maßr¨aume. Das dann eindeutig existierende Produkt-Maß µ auf A1⊗ A2 wirdµ=µ1⊗µ2 notiert.

Theorem 9 (Satz von Fubini): Seien (Ω1,A1, µ1) und (Ω2,A2, µ2)Sigma-endliche Maßr¨aume, sowief : Ω1×Ω2→ Rmessbar bzgl.A1⊗A2. Seif integrierbar bzgl. Produktmaß µ1⊗µ2, d.h.

Z

1×Ω2

|f|d(µ1⊗µ2)<∞ oder es geltef ≥0 fast ¨uberall.

Dann gelten ω17→

Z

f(ω1, ω22(dω2)ist A1-messbar ω27→

Z

f(ω1, ω21(dω1)ist A2-messbar und

Z

1×Ω2

fd(µ1⊗µ2) = Z

1

Z

2

f(ω1, ω22(dω2)

µ1(dω1)

= Z

2

Z

1

f(ω1, ω21(dω1)

µ2(dω2) Korollar 11 (Auswertungsreihenfolge von Erwartungswer- ten): Seien X und Y Zufallsvariablen und f : R2 → R messbar. Die Notation EX bzw. EY bedeute das Bilden des Erwartungswertes bzgl. ZufallsvariableX bzw.Y. Sofern der Erwartungswert E[f(X, Y)] existiert gilt:

E[f(X, Y)] = EX[EY[f(X, Y)]]

= EY[EX[f(X, Y)]]

Pr¨ufungsfrage: Die wesentliche Aussage des Satzes von Fubini nennen und am Beispiel des Bildens von Erwartungswerts einer Funktion ¨uber mehrere Zufallsvariablen erl¨autern

VII. PUNKTPROZESSE

A. Grundbegriffe

Definition 78 (Punktprozess): Ein Punktprozess ist eine abz¨ahlbare, zuf¨allige Kollektion von Punkten in einem Maß- raum (hier immer der Euklidische Raum Rd mit der Borel- Sigma-Algebra Bd und dem Lebesgue-Maß | · |; und in der Regel die Dimension d= 1,2,oder3).

Korollar 12 (Zufallsmengencharakterisierung von Punktpro- zessen): Sofern zwei Punkte der Kollektion der Punkte eines Punktprozesses nur mit Wahrscheinlichkeit0dieselbe Position inRd annehmen k¨onnen, l¨asst sich ein Punktprozess auch als abz¨ahlbare ZufallsmengeΦ ={X1, X2, . . .} ⊂Rd bestehend aus den Zufallsvariablen Xi∈Rd als Elemente betrachten.

Korollar 13 (Zufallsmaßcharakterisierung von Punktprozes- sen): Ein Punktprozess l¨asst sich durch z¨ahlen der Punkte, welche in einer gegebene Menge B ⊂ Bd, liegen, charak- terisieren. Die Anzahl der Punkte, welche in B liegen, wird durch die ZufallsvariableN(B)∈N0 bezeichnet.N wird als zuf¨alliges Z¨ahlmaßbezeichnet.

Pr¨ufungsfrage: Definition von Punktprozessen und duale Be- schreibungsm¨oglichkeit von Punkprozessen mittels Zufallsmen- gen und mittels Zufallsz¨ahlmaßen erkl¨aren

Definition 79 (Dualit¨at des SymbolsΦ):Im Folgenden wird das Symbol Φ sowohl zur Beschreibung von Zufallsmengen in der Bedeutung Φ ={X1, X2, . . .} als auch zur Beschrei- bung des Zufallsmaßes eines Punktprozesses in der Bedeutung Φ(B)als Anzahl von Punkten, welche inBliegen, verwendet.

Eine konkrete Instanz ϕ der Zufallsgr¨oße Φ ist demnach im ersten Fall eine konkrete Menge {x1, x2, . . .} von Punkten bzw. im zweiten Fall eine konkrete Instanz eines Z¨ahlmaßes, welches jedem B ∈ B mit ϕ(B) einen Z¨ahlwert in N0

zuordnet.

Definition 80 (Einfacher Punktprozess): Ein Punktpro- zess ist einfach, wenn sein zugeordnetes zuf¨alliges Z¨ahlmaß N({x})∈ {0,1} fast sicher f¨ur allex∈Rd erf¨ullt.

Definition 81 (Lokal endlicher Punktprozess):Ein Punktpro- zess wird als lokalendlich bezeichnet, wenn sein zugeordnetes zuf¨alliges Z¨ahlmaß f¨ur jedes B ∈ Bd mit |B| < ∞ stets N(B)<∞mit fast sicherer Wahrscheinlichkeit erf¨ullt.

Korollar 14 (Messbare Zerlegung eines Punktprozesses):

F¨ur einfache Punktprozesse l¨asst sich das zugeordente zuf¨alli- ge Z¨ahlmaß N in Dirac-Maße (vgl. Definition 16) wie folgt zerlegen

N =X

x∈Φ

δx

Definition 82 (Atome eines Punktprozesses):Wir bezeichnen ein festesx0∈Rdals einAtomeines PunktprozessesΦ, wenn P[Φ({x0})>0]>0 gilt.

Definition 83 (Intensit¨atsmaß): Das Intensit¨atsmaß Λ(B) eines PunktprozessesΦgibt an, wieviele Punkte in der Region B zu erwarten sind, d.h.

Λ(B) = E[Φ(B)]f¨ur alleB ∈ Bd

Korollar 15 (Intensit¨atsmaß an einem Atom): Atome x0

erf¨ullen stets Λ({x0}) >0, wohingegen alle ¨ubrigen Punkte Λ({x0}) = 0 erf¨ullen.

Definition 84 (diffus, atomar, diskret): Einen Punktprozess bezeichen wir als diffus, wenn sein Intensit¨atsmaß Λ ein diffuses Maß ist (vgl. Definition 17), d.h. es gibt keine Atome.

Wir sagen der Punktprozess ist atomar, wenn er mindestens ein Atom enth¨alt. Gibt es gar eine abz¨ahlbare MengeM mit N(Rd\M) = 0, so bezeichnen wir den Prozess als diskret.

Pr¨ufungsfrage: Die Abstufungen diffus, atomar und diskret erkl¨aren

(11)

B. Poisson- und Binomial-Punktprozesse

Definition 85 (Homogener Poisson-Punktprozess): Der ho- mogene Poisson-Punktprozess mit Intensit¨at λ ist ein Punkt- prozess inRd mit:

F¨ur jede beschr¨ankte Borel-MengeB (d.h.|B|<∞) hat N(B)eine Poisson-Verteilung mit Mittelwertλ|B| (d.h.

λ ist die mittlere Anzahl an Punkten, die man in einem Gebiet mit Fl¨ache bzw. Volumen 1vorfindet.)

F¨ur disjunke Borel-MengenB1, B2, . . . , Bmsind die Zu- fallsvariablen N(B1), N(B2), . . . , N(Bm)unabh¨angig.

Definition 86 (Uniformer Binomial-Punktprozess): Es sei Φ = {X1, X2, . . . Xn} ⊆ W ein Punktprozess mit einer festen Anzahl nvon Punkten ¨uber einer beschr¨ankten Menge W ⊂ Rd. Φ ist ein uniformer Binomial-Punktprozess, wenn Φ als Vektor betrachtet gleichverteilt in W ist (d.h. Xi nimmt jeden Punkt inW mit gleicher Wahrscheinlichkeit und unabh¨angig der ¨ubrigen Xj an).

Korollar 16 (Computer-Simulation eines uniformen Binomial-Punktprozesses):

Gleichverteilte Wahl eines Punktes in einem Hyper- Rechteck [a1, b1]×[a2, b2]× · · · ×[ad, bd]: w¨ahle f¨ur jedes1≤i≤deinxi unabh¨angig, gleichverteilt zuf¨allig aus dem Intervall [ai, bi]. Mit dem zuf¨allig erzeugten (x1, x2, . . . , xd)hat man solch einen Punkt.

Gleichverteilte Wahl eines Punktes aus einer beliebigen beschr¨ankten Menge W ⊂ Rd: w¨ahle ein (m¨oglichst kleines) Hyper-Rechteck R mitW ⊆R. Generiere nach voriger Methode einen zuf¨alligen PunktpinR. Der Punkt wird jedoch verworfen, wenn p 6∈ W gilt. Wiederhole demnach solange bisp∈W erf¨ullt ist.

Eine Instanz eines uniformen Binomial-Prozesses mit n Punkten ¨uber einer Menge W wird durch n-maliges Anwenden der vorigen Methode zur Erzeugung von n zuf¨alligen Punkten p1, p2, . . . , pn realisiert.

Ubung¨ 17 (Verbesserug der Laufzeit der Binomial- Punktprozess-Simulation): Angenommen zur vorigen Algo- rithmenbeschreibung seiW gegeben als W = [0,1]×[0,1]∪ [99999,100000]×[99999,100000].

1) Wie groß w¨are R gem¨aß der vorig genannten Methode mindestens zu w¨ahlen?

2) Was ist die Wahrscheinlichkeit, dass ein zuf¨allig gew¨ahl- ter Punkt verworfen wird?

3) Was ist hier das Problem und wie ließe sich der Algo- rithmus verbessern?

4) Verallemeinere die im vorigen Aufgabenschitt disku- tierte L¨osung f¨ur beliebige W, welche als Vereinigung von disjunkten Teilmengen gegeben sind, d.h.W erf¨ullt W =A1∪A2∪· · ·∪Anf¨ur paarweise disjunkte Mengen A1, A2, . . . , An.

Theorem 10 (Bedingter homogener Poisson-Punktprozess ergibt uniformen Binomial-Punktprozess): Gegeben sei ein homogener Poisson-Punktprozess in Rd mit Intensit¨at λ. Sei W ⊂Rd eine Menge mit0<|W|<∞. Es sei N(W) =n festgelegt. F¨ur jedesB⊆W ist die bedingte Wahrscheinlich- keit vonN(B)binomialverteilt, d.h. f¨urk≤nist

P[N(B) =k|N(W) =n] = n

k

pk(1−p)n−k

mitp=|B|/|W|.

Pr¨ufungsfrage: Definition des homogenen Poisson- Punktprozesses, des uniformen Binomial-Prozesses und den Zusammenhang der beiden Punktprozesstypen erkl¨aren

Korollar 17 (Computer-Simulation eines homogenen Pois- son Punktprozesses): Die Instanz eines homogenen Poisson- Punktprozesses mit Intensit¨at λ in einer festgelegten Region A(mit |A|<∞) l¨asst sich wie folgt realisieren:

W¨ahle zun¨achst die Anzahl der Punkte n inA zuf¨allig gem¨aß der Poissonverteilung mit Paramterλ|A|.

Generiere anschließend genau diese n Punkte zuf¨allig in A gem¨aß der vorhin besprochenen Methode zur Computer-Simulation von uniformen Binomial- Punktprozessen.

Ubung¨ 18 (Simulation eines homogenen Poisson- Punktprozesses auf disjunkten Gebieten): Gegeben seien disjunkte Borel-Mengen A1, A2, . . . , An aus Rd. Beschreibe zwei Varianten, wie sich ein homogener Poisson-Punktprozess

¨uberRdmit Intensit¨atλauf der MengeA=A1∪A2∪· · ·∪An

simulieren l¨asst.

Ubung 19 (Erzeugen einer Instanz eines homogenen¨ Poisson-Punktprozesses in einem beschr¨ankten Bereich):

Erzeuge mittels Sage eine Instanz eines homogenen Poisson-Punktprozesses ¨uber R2 mit Intensit¨at λ = 0.01 im Bereich [−100,100] × [−100,100] als Liste von Punkten. Stelle anschließend diese Liste als 2D-List-Plot dar.

(Hinweis: verwenden Sie from scipy.stats import poisson, from scipy.stats import uniform, from numpy.random import seed. Listen von Punkten lassen sich mittelslist_plotdarstellen.)

Pr¨ufungsfrage: M¨oglichkeiten zur Computer-Simulation von uniformem Binomial-Punktprozess und homogenem Poisson- Prozess in beschr¨anktem Ausschnitt erkl¨aren

Definition 87 (Allgemeiner Poisson-Punktprozess):Der(all- gemeine) Poisson-Punktprozess ¨uberRd mit Intensit¨atsmaßΛ aufBd ist durch folgende Eigenschaften charakterisiert:

F¨ur jede messbare Menge B ist N(B) mit Rate Λ(B) Poisson-verteilt.

F¨ur disjunkte messbare Mengen B1, B2, . . . , Bn sind N(B1), N(B2), . . . , N(Bn) unabh¨angige Zufallsvaria- blen.

Definition 88 (Intensit¨atsfunktion eines Poisson- Punktprozesses): Sofern Λ(B) eine Dichtefunktion λ(x) besitzt, d.h. Λ(B) l¨asst sich f¨ur jede Borel-Menge B durch Λ(B) = R

Bλ(x) dx darstellen, so bezeichnen wir die Dichtefunktion λ(x)alsIntensit¨atsfunktion.

Korollar 18 (Homogener Poisson-Punktprozess als Spezi- alfall des allgemeinen):Der homogene Poisson-Punktprozess mit Intensit¨at λist ein Poisson-Punktprozess mit Intensit¨ats- maßΛ(B) =λ· |B|und Intensit¨atsfunktionλ(x) =λ.

Pr¨ufungsfrage: Zusammenhang zwischen homogenem und all- gemeinem Poisson-Punktprozess, sowie den Zusammenhang deren Intensit¨atsmaßen und Intensit¨atsfunktionen erkl¨aren

Definition 89 (Allgemeiner Binomial-Punktprozess): Sei W ⊆ Rd messbar und f(x) eine Wahrscheinlichkeitsdichte

Referenzen

ÄHNLICHE DOKUMENTE