• Keine Ergebnisse gefunden

Klassifizierung von Zufallsprozessen im Bereich der Technischen Informatik

N/A
N/A
Protected

Academic year: 2022

Aktie "Klassifizierung von Zufallsprozessen im Bereich der Technischen Informatik"

Copied!
33
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

deposit_hagen

Publikationsserver der Universitätsbibliothek

Mathematik und

Informatik

Informatik-Berichte 14 – 02/1981

Klassifizierung von Zufallsprozessen im

Bereich der Technischen Informatik

(2)

Winfrid Schneeweiss *)

Zusammenfassung:

Es wird gezeigt, welche Zufallsprozesse (stochastische Prozesse) an welchen Stellen der Technischen Informatik auftauchen und welche

zusammenhänge, insbesondere Schachtelungen zwischen den verschiedenen Klassen von Zufallsprozessen bestehen. Für ein vertieftes Literatur- studium wird auf neuere Lehrbücher verwiesen.

Hinweis:

Dieser Bericht ist weder ein Forschungsbe~icht, noch eine Einführung in Grundbegriffe nach Art der heute üblichen TUTORIALS, sondern ein Klassifizierungsversuch unter dem Gesichtspunkt der Anwendbarkeit in der Technischen Informatik. Deshalb darf es nicht wundern, daß die meisten Details im Bereich der logischen Uberlagerung von binären '

Zufallsprozessen mitgete.i.lt werden.

Für. Korrekturhinweise bedanke ich mich bei Herrn Kollegen E. Jessen, Hamburg, und bei meinem Mitarbeiter Herrn K. Heidtmann.

*

Professor für Technische Informatik, Fernuniversität, Hagen

(3)

Inhaltsverzeichnis Seite

1 Einleitung . . . . . . . • . . . 1

2 Rauschen (noise) im weitesten Sinne . . . 3

2.1 Prozesse mit stetigen Zufallsgrößen . . . 4

2.1.1 Zeitkontinuierliche Prozesse . . . 6

2.1.2 Zeitdiskrete Prozesse (Zufallsfolgen) . • . . . • . • 7

2.2 Prozesse mit diskreten Zufallsgrößen (Stufenprozesse oder Ketten) . . . 8

2.2.1 Geburts- und Todesprozesse sowie Zählprozesse . . . 10

2 . 2. 2 Binäres Rauschen . . . • . . . 11

3 Stochastische Punktprozesse . . . • . . . • . . . 1 4 3.1 Punktprozesse mit nur einem Intervalltyp, insbesondere• Erneuerungsprozes Se . . . 1 6 3.2 Punktprozesse mit zwei Intervalltypen, insbesondere alternierende Erneuerungsprozesse . . . • . . . 18

4 Verknüpfung von "Rauschen" und Punktprozessen . • . . • . . . • . 20

4.1 Markoff-Erneuerungsprozesse . . . • . . • . • • . . . • . • • . . . . • . . 21

4. 2 Semi-Markoffprozesse . . . 23

4. 3 Markof fprozesse . . . .. . . 24

5 Überblick über die Einordnung der verschiedenen Klassen von Zufallsprozessen . . . ... . . . 27

6 Bibliographie . . . ·. . . . 28

(4)

Bezeichnungen

a b

C

czz (-r)

D. J

E(Z) Fz(Y) fz (y) F

(j)

i j k

M

m

JN

n

V

P (a)

zufälliges Ereignis zufälliges Ereignis Konstante

Autokovarianzfunktion von{~}

mittlere Dauer des j-Zustands, j E{0,1}

Erwartungswert der Zufallsvariable z

P(Z~y) Verteilungsfunktion von Z (an der Stelle y)

d dy FZ(y) Verteilungsdichte(funktion) Operator der ~OURIER-Transformation

boolesche Funktion (von Indikatorvariablen) Frequenzgang eines linearen Übertragungssystems

(Filters); hier j~V=l' laufender Index

laufender Index laufender Index

Parameter der (negativen) Exponentialverteilung Zustandsübergangsrate vorn ~ustand i zum Zustand k)

Parametermenge eines Zufallsprozesses (zur "Numerierung"

der beteiligten Zufallsvariablen)

Anzahl der Zustände eines Markoffprozesses E(Z)

Anzahl der "Punkte" zwischen O und t

Menge der natürlichen Zahlen, also JN ={ 1, 2, 3, . . . }

JN0 ={0,1,2,3, ... } laufende.r Index

mittlere Häufigkeit (Rate)

Wahrscheinlichkeit des (Zufalls-) Ereignisses: a

(5)

P(alb)

p. (t)

l

p.

(t)

l

Rzz

(T)

IR ]R+

s. l

s T. l

t,-r ui

w.

l

(,)

xi

{Xi:iEI}

z

zi

[

. ' .

[

1 • • • 1

A

V

*

X

. ®

bedingte Wahrscheinlichkeit von a unter der Bedingung b [Dazu kann man sich vorstellen, daß der ursprüngliche Ergebnisraum (Stichprobenraum) ~ auf b reduziert wird.

r

Wahrscheinlichkeit des Zustands i zum Zeitounkt t zeitliche Änderungsgeschwindigkeit von Pi(t)

Autokorrelationsfunktion des Zufallsrprozesses {Z}

Menge der reellen Zahlen

Menge der nicht negativen reellen Zahlen

Abstand des i-ten Punktes vorn (Zeit-)Nullpunkt Index für System

Si+ 1-si, Abstand benachbarter Punkte Zeitpunkte oder Zeitabschnitte

P(X.=1); soeziell Unverfügbarkeit von Kornnonente i

l -

P{N(t)=i}

Kreisfrequenz (Winkelgeschwindigkeit)

Indikatorvariable z.B. für eine Schaltvariable oder einen binären Zustand

Menge aller derjenigen Xi' deren Index i in der Menge I enthalten ist

Zufallsvariable, Zufallsgröße

Wert der Zufallsvariablen

z,

oder Xn, nE.JN

O ; insbeson- dere Kennzahl eines Zustands

links abgeschlossenes, rechts offenes Intervall A.bsolut-Betrags-Bildung

logisch UND logisch ODER

logisch ANTIVALENT (EXKLUSIV-ODER) nicht x

t

Faltungsoperator: g@) h(t) := J g(-r)h(t--r)dt

0

(6)

treten alle praxisrelevanten Arten von Zufallsprozessen (stochasti- schen Prozessen) auf. Das führt gelegentlich zu Begriffsverwirrungen.

Deshalb sollen in dieser kurzen Studie die Definitionen und die

wichtigsten Anwendungen der verschiedenen Typen von Zufallsprozessen zusammengestellt und diese Prozesse in ihren Wechselbeziehungen zu- einander erläutert werden.

Die Betrachtung ist ausgesprochen anwendungsbezogen, d.h. die Grund- begriffe der Wahrscheinlichkeitstheorie, insbesondere der Begriff des Wahrscheinlichkeitsraums, aber auch die Begriffe Zufallsgröße (Zufalls- variable) und Verteilungsfunktion werden vorausgesetzt. Es genügt

jedoch, für die meisten Anwendungen, von den folgenden, mehr heuristi- schen Begriffen auszugehen:

Eine Zufallsgröße Z z.B. X oder S ist eine zufallsabhängige Zahl oder ein geordnetes n-Tupel (Vektor), meist ist Z skalar und reell, häufig speziell ganzzahlig.

Eine Realisierung einer Zufallsgröße wird hier mit den zugehörigen Kleinbuchstaben bezeichnet; desgleichen einzelne Werte aus dem Wertevorrat der betreffenden Zufallsgröße.

- Die Verteilungsfunkt~on FZ(y) von Z (falls skalar) an der Stelle y ist die Wahrscheinlichkeit dafür, daß Z höchstens den Wert y annimmt;

in Buchstaben:

Fz (y) := P (Z~y). ( 1-1 )

(7)

Ein Zufallsprozeß {Z} (stochastischer Prozeß) ist eine von einem Parameter t abhängige geordnete Menge von Zufallsgrößen:

{Z} := {Z (t) : t E M C JR} ( 1-2)

Insbesondere kann ~~=IN sein.

Als spezielle Z. werden hier S.,T. ,X. benutzt, die noch erklärt werden.

1 1 1 1

Im Idealfalle sollte man Verbundverteilungen vorn Typ

kennen, um Zufallsprozesse gründlich analysieren bzw. benutzen zu können. Tatsächlich kommt man in der Praxis oft mit viel weniger Information aus; vgl. [7 Bd.I,2].

(8)

2 Rauschen (noise) im weitesten Sinne

Bei denjenigen Zufallsprozessen, die man (im weitesten Sinne) als Rauschprozesse bezeichnen kann, nimmt eine (physikalische Meß-)Größe z im Laufe der Zeit zufallsabhängig verschiedene Werte z an. Macht man (in Gedanken) zu jedem betrachteten Zeitpunkt - es muß nicht das Kontinuum sein - dasselbe Zufallsexperiment, das zu einem der mög-

lichen Werte z von Z führt, so kann man die Folge dieser z-Werte zu einer Musterfunktion (oder Realisierung -oder Pfad) dieses Prozesses zusammenfassen und als Fupktion des Parameters des Prozesses - meist die Zeit t - auftragen; vgl. Bild 2-1. Z.B. kann bei Rechnern die

z

t

Bild 2-1. Musterfunktion eines Zufallsprozess~s

Netzspannung in der Nähe von anderen sehr unregelmäßigen Stromver- brauchern ein derartiges Aussehen haben.

Ansonsten ist jedoch die wissenschaftliche Untersuchung von Rausch- vorgängen weniger ein Anliegen der Technischen Informatik, sondern gehört eher in die Nac~richtentechnik im weitesten Sinne, so z.B. in die Übertragungstechnik, aber auch in die stochastische Regelungs- technik.

(9)

2.1 Prozesse mit stetigen Zufallsgrößen

Bei Zufallsprozessen mit stetigen Zufallsgrößen kann Z(t) Werte aus einem Kontinuum annehmen; etwa

z E [z . , z ].

nun max

Abgesehen von Zählprozessen und von (künstlich) amplitudenquantisier- ten Prozessen, zu denen man im Extremfall auch die vielen binären Prozesse zählen kann, sind Prozesse mit stetiger Zufallsgröße die

"naturgegebenen", da sie sich regelmäßig im Zusammenhang mit der Messung physikalischer Größen ergeben (wobei wir von der klassischen Physik ausgehen wollen).

Typischerweise interessiert man sich bei diesen Prozessen für Erwar- tungswert und Varianz der Zufallsvariablen,und meist beschränkt man sich auf stationäre Prozesse in dem Sinne, daß das erste und ctas zweite Moment, genauer daß

µz(t):=E[Z(t)] und E[Z(t)Z(t+-r)] (2.1-1) zeitunabhängig bzw. nur von dem Zeitabstand -r abhängig sind. In diesem Falle nennt man

Rz z (-r ) : = E [ Z ( t ) Z ( t +-r ) ] (2.1-2) die Autokorrelationsfunktion des Prozesses {Z}, und bei zwei gleich-

zeitig betr~chteten Prozessen {Z

1} und {Z2}dieses Typs nennt man Rz z (-r) := E[z

1 (t) z2 (t+-r)]

1 2

die Kreuzkorrelationsfunktion der beiden Zufallsprozesse.

Die Funktion

nennt man Autokovarianzfunktion von {Z} und cz z (-r)

1 2

(2.1-3)

(2.1-4)

( 2. 1-5)

(10)

Kreuz kovarianzfunktion von { Z

1 } und { Z

2}; vgl. [ 6] , [ 10] .

Was man mit diesen Funktionen insbesondere bei der Synthese optimaler linearer kontinuierlicher (d.h. analog und nicht digital arbeitender) Übertragungssysteme (d.h. spezieller Automaten) erreichen kann, wird z.B. in [3] und [5] ausführlich erörtert. Hier sei nur ein funda- mentaler Sachverhalt dieses Arbeitsgebiets kurz skizziert:

Ein lineares (analoges) Übertragungssystem (oft ein Signalfilter) verändert die spektrale Leistungsdichte des an seinem Eingang anlie- gende Rauschens derart, daß diese Leistungsdichte am Ausgang gleich ist der Eingangsdichte multipliziert mit dem Betragsquadrat des

Frequenzgangs des Filters. Dabei ist der Frequenzgang das (komplexe) Verhältnis einer Sinusschwingung am Ausgang zur zugehörigen Sinus-

schwingung am Eingang. Der Zusammenhang zwischen der eben Erwähnten spektralen Leistungsdichte

szz(w)

eines Prozesses {Z} mit der obigen • Autokorrelationsfunktion wird nach WIENER/KHINTCHINE durch die

~ourier-Transformation vermittelt:

(2.1-6) Da nun definitionsgemäß

(2.1-7) d.h. di.e mittlere Leistung ist, kann man also bei Kenntnis des Filter-

frequenzgangs G(jw) und de~ Autokorrelationsfunktion des Eingangs- prozesses {Ze} die mittlere Leistung des Jl_usgangsprozesses {Z~} be- stimmen als

E { Z a 2 }

=F

-1

{ s z z (

w ) 1 G ( j w ) ! 2 } /

e e -r=O

(2.1-8)

(11)

2.1.1 Zeitkontinuierliche Prozesse

Bild 2-1 zeigt ein Beispiel für einen zeitkontinuierlichen Zufalls- prozeß mit stetigen Zufallsgrößen. Dabei muß der Graph (Kurvenform) der Musterfunktionen nicht so unregelmäßig sein wie in Bild 2-1. Auch ein reines Sinussignal mit zufällig schwankender Anfangsphase (Wert

zum Zeitnullpunkt) kann einen Zufallsprozeß definieren. Außerdem

können die Musterfunktionen auch Treppenfunktionen sein. Diese können z.B. bei Abtastung eines "Rauschens" nach Bild 2-1 gemäß einem

stochastischen Punktprozeß entstehen, wenn die Abtastwerte jeweils bis zur nächsten Abtastung festgehalten werden; vgl. z.B. [3,§8].

Wichtig ist nur, daß die möglichen Werte der Zufallsvariablen auch hier aus einem Kontinuum entnommen werden.

Ein wichtiges Beispiel aus dem Bereich der Rechnerhardware is~ das

"Rauschen_" beim Lesen von Magnetschichten. Andere Rauscheffekte, besonders die in Halbleitern, "gehören" nach heutiger Auffassung der Technischen Informatik eher in den Bereich der Festkörperphysik und

der Elektronik-Bauelemente-Technologie.

(12)

2.1.2 Zeitdiskrete Prozesse (Zufallsfolgen)

Beiparameter-diskreten (meist zeitdiskreten) Zufallsprozessen ist die Parametermenge Min (1-2) höchstens abzählbar. Man kann sich den Prozeß dann als eine Art Stichproben~~olge aus einem (zeit-)kontinu- ierlichen Prozeß vorstellen.

Auch hier kann man zur Analyse und Synthese linearer Systeme Momente zweiter Ordnung betrachten. In Analogie zu den Korrelationsfunktionen nennt man sie Korrelationsfolgen; siehe [9].

Zufallsprozesse dieser Art treten in synchronen Schaltwerken gern in Form des Übersprechens von Leitungen auf, wobei die zufällige Größe der Impulshöhe viele Ursachen haben kann.

Viel häufiger beschäftigt sich die Technische Informatik heute mit diesem Typ von Zufallsprozessen als einer etwas anderen Ar~ der

Interpretation von stochastischen Punktprozessen:>1nsbesondere, wenn man eine Folge von Abständen zwischen ausgewählten Zeitpunkten, etwa Interrupts oder Geräteanforderungen als Zufallsgrößen betrachtet.

Einzelheiten folgen in Abschnitt 3.

1 Definition S. 14 oben.

(13)

2.2 Prozesse mit diskreten Zufallsgrößen (Stufenprozesse oder Ketten) - Dabei nennt man die möglichen Werte z. von Z(t) auch Zustände (Prozeß-

i .

zustände). Weiterhin nennt man die Musterfunktionen Stufen- oder Treppenfunktionen; vgl. Bild 2.2-1.

z

Z3

1

Z4 1

- - - r - - ; 1

z1--... 1 , :

1 : 1

1 1 :

Z2 - - - . - - - -4---_L.J

1 1

zs --- --- - -_.L....-.J

0 t

Bild 2.2-1. Realisierung (Musterfunktion) eines Prozesses mit diskreten Zuständen, sog. "Stufenprozeß"

Da man sich hauptsächlich für die Zeitpunkte der Zustandswechsel

(und evtl. für Zustandsdauern) interessiert, entfällt hier weitgehend eine extra Unterscheidung in zeitkontinuierliche und zeitdiskrete Prozesse nach Abschnitt 2.1.

Beispiele dazu aus dem Bereich der Technischen Informatik sind leicht zu finden. Eine besonders naheliegende zeitvariable diskrete Zufalls- größe Z ist der Schaltwerkszustand, etwa als Dualzahl codiert. Er kommt zwar i.allg. deterministisch zustande, ist aber für einen nicht • eingeweihten Beobachter oft bequemer als Zufallsgröße interpretier- bar. Weitere Beispiele bilden die Längen von Warteschlangen oder variablen Listen und die"Füllung"von Betriebsmitteln, d.h. die Anzahl '

der Prozesse, die ein Betriebsmittel gleichzeitig anfordern oder benutzen.

(14)

Außer im Zeitbereich (vgl. Bild 2.2-1) kann man Zufallsprozesse mit diskreten Zufallsgrößen auch durch Zustands-Ubergangs-Diagramme äar- stellen. Dabei kann man wie in Bild 2.2-2 vor allem die möglichen

Bild 2.2-2. Zustands-Übergangsdiagramm .(Bild 2.2-1 zeigt die Zustandsfolge 1,2,5,4,2,3.) Zustandsübergänge veranschaulichen. Insbesondere gibt es Zustände, die, einmal verlassen, nicht wieder erreicht werden und es gi~t umge- kehrt Zustände, die, einmal erreicht, nicht wieder verlassen werden, sog. absorbierende Zustände.

Die Zustandsnummern können zur Indizierung der (höchstens abzählbar vielen) Werte der Zufallsvariablen Z(t) benutzt werden.

Bei den Markoffprozes.sen wird noch ~ber quantitative Angaben zu den Zustandsübergängen gesprochen werden, aus denen man Zustandswahr-

scheinlichkeiten und Verteilungen von Zustandsverweildauern bestimmen kann •.

(15)

2.2.1 Geburts- und Todesprozesse sowie Zählnrozesse

Wenn bei diskreten Zufallsgrößen die einzelnen möglichen Werte äquidistant sind, also

z. - z. 1 1 -1

=

c

=

const,

so daß bei Musterfunktionen nach Bild 2.2-2 nur die Stufenhöhe c auf- tritt, so spricht man häufig von Geburts- und Todesprozesseri~ sinn- volleiweise bei einer nach oben führenden Stufe von "Geburt" und einer nach unten führenden Stufe von "Tod". Reine Geburts- bzw.Todesprozesse nennt man auch Zählprozesse.

Die Länge einer Warteschlange zu einem Betriebsmittel, z.B. auch der Füllung·sgrad eines Pufferspeichers sind typische Geburts- und Todes- prozesse im Bereich der Technischen Informatik. Die einfachste

Warteschlange wird in Abschnitt 4. 3 als spezielle ~'1arkoff-Kette kurz behandelt.

Bild 2.2-2 Geburts- und Todesprozeß

1 In der Literatur wird dieser Begriff oft auf. entsprechende Markoff-Ketten beschränkt. Das wird nicht für sehr zweckmäßig gehalten.

t

(16)

2.2.2 Binäres Rauschen

Binäres Rauschen kann zwar auch als ein Geburts- und Todesprozeß auf- gefaßt werden, nämlich als einer, bei dem auf eine Geburt stets ein Tod folgt und umgekehrt. Jedoch rechtfertigt die praktische Bedeutung dieser Zufallsprozesse mit zwei Zuständen die Behandlung in einem extra Abschnitt.

Zunächst treten binäre Prozesse in der Schaltalgebra auf. Dabei kommt es zu einer "logischen" Uberlagerung, die formal nichtlinear ist.

Bildet man nämlich "logisch" 1 bzw. O bijektiv auf die ganzen Zahlen 1 und O ab, so gilt offenbar -im Sinne einer pseudo-Booleschen

Algebra - für

X. E {0,1},

l.

für die Konjunktion (logisch UND) xi A xk = xixk

und für die Disjunktion (logisch ODER)

xivxk

=

Xi+xk-xixk

=

1-(1-Xi) (1-Xk) und z.B. für die Antivalenz (exklusives ODER)

(2.2-1)

(2.2-2)

(2.2-3) Das läßt sich auch beliebig weiterentwickeln. So erhält man z.B. bei der "Mehrheitsentscheidung 2-aus-3", wie_ sie zur Bildung des Ubertrags bei der Addition von Dualzahlen vorkommt,

z

-· -.

X s = (X1 AX2) V (X2 AX3) V (X3 AX1) =

= 1-(1-x 1x

2) (1-X 2X

3) (1-x 3x

1)

= x 1x

2+x 2x

3+x 3x

1~2x 1x

2x

3, ~2.2-4)

· wobei zum Schluß die Idempotenzregel

x2 = X (2.2-5)

(17)

für boolesche X benutzt wurde.

Die eventuell erhebliche Rechenmühe der Umwandlungen in eine Multi- linearform in dieser pseudo-Booleschen Algebra lohnt sich dann, wenn man Wahrscheinlichkeits- oder Zählwerte zu Booleschen Funktionen haben möchte. Für (on-line)-Diagnosezwecke kann es z.B. sehr interessant

sein, eine Wahrscheinlichkeit U s • • = P (X =1) s

eines digitalen Ausgangssignals Z=Xs zu bestimmen, wenn man entspre- chende Werte der Eingangssignale Xi' d.h. die

(2.2-6) kennt. In diesem Falle muß man nur in der Multilinearform von

Z=~(x

1, . . . ,Xn) jedes X durch U ersetzen, [4]. Aus der letzten Zeile von (2.2-4) wird dann z.B.

• (2.2-7) Möchte man die Anzahl der Minterme einer Booleschen Funktion wissen,

so muß man nur die Umfo~mung in Richtung der Multilinearform vom Typ (2.2-4) so·weit führen, bis auf dem weiteren Weg zur Multilinear- form keine Löschungen von Potenzen nach der Idempotenzregel (2.2-5) mehr vorkommen würden. Anschließend setze man für alle X. den Wert

l.

1/2 ein und multipliziere das Ganze mit 2n, falls die Schaltfunktion n Variable hat.

Zur Erklärung (Beweis) dieses Sachverhalts muß man sich nur klarmachen, daß die pseudo-boolesche Darstellung einer Schaltfunktion in kanoni- scher disjunktiver Normalform

einfach

= [

X . X . ( 1 -Xk) • • . ] + •.•

l. J

(18)

ist und daß für Xi=Xj=Xk= ... =1/2 jeder 'l.1interm den "Wert" 1/2n erhält. -

Weiterhin kann man, was z.B. für gewisse Diagnosezwecke brauchbar ist, die mittlere Dauer des Zustands X =1 bzw. O bestimmen (wenn

s '

Stationarität in guter Näherung vorliegt). Geht man dabei davon aus, daß

u

= {Mittlere Dauer des 1 Zustands}

{Mittlere Dauer des 1-Zustands}+{~ittl.Dauer d.O-Zustands}

=

D +D' D1

1 o

so erhält man die mittlere Häufigkeit

(2.2-8)

(2.2-9)

von Systemübergängen in einen bestimmten (der beiden) Systemzuständ~

dadurch, daß man in der Multilinearform für U an jedes Produkt s

uiuj••· als Faktor 1/D1i+1/D

1j+ ... anhängt. Aus (2.2-7) wird dabei z.B.

+ . . . - ?U U U ( 1 + _1 _ + -D-1 ) .

1 2 3

D

D

11 12 13

· (2.2-10) Dieser Problemkreis ist in zuverlässigkeitstheoretischer Sprache in

[4,§12,13] sehr ausführlich erörtert. Dort ist U die sog. Unverfügbar- keit, d.h. die Wahrscheinlichkeit des Ausfallzustands, D1 ist die mittlere Ausfalldauer (MTTR), und D

0 ist die mittlere (störungsfreie) Betriebsdauer (MTBF).

(19)

3 Stochastische Punktorozesse

Stochastische Punktprozesse sind in der Regel zufällige Folgen von Zeitpunkten Si (Si vor Si+ 1 ) i E JN" 0. Üblicherweise wird mit Si auch der (zufällige) Abstand vom Nullpunkt bezeichnet. Wir haben also hier im Rahmen von Definition (1-2)

~

=

]N

0

und als weitere Bedingung die, daß "spätere'' Zufallsgrößen stets größer sind als "frühere"; vgl. Bild 3-1. Üblicher ist jedoch die

1 2 3 4 5 . . . n.

Bild 3-1. "Punkt"-Abstände vom Zeitnullpunkt

Darstellung in einem Balkendiagramm nach Bild 3-2.

)( )( )( )( )( )

t

Bild 3-2. Punktprozeß nach Bild 3-1 im Balkendiagramm (nicht streng maßstäblich)

Bei stoch~stischen Punktprozessen interessiert man sich i.allg. nrimär entweder für Wahrscheinlichkeiten für Punkteanzahlen in Intervallen oder für Verteilungen von Punktabständen. Eine ganz einfache Beziehung

zwischen beiden Begriffen ge~ört eigentlich zur A~lgemeinbildung,auch

(20)

in Technischer Informatik und soll daher rasch hergeleitet werden;

nicht zuletzt deshalb, weil sie oft fälschlich zur sog. Erneuerungs- theorie gerechnet wird; sie gilt jedoch bei praktisch allen Punktpro- zessen: Seien (gemäß der üblichen Definition)

und mit

sei

FS. (t) :=

1

P(S.;;:; t ) ,

1

N(t)

=

max {i : S. ;;:; t}

1

={Anzahl der Punkte zwischen O und t}

W.(t) := P[N(t)=i]~P[(S.~t)n(S.

1>t)].

1 1 1+

Dann gilt wegen

(Si~t) = [N(t);;;i] = [N(t)=i]U[N(t);;;i+1]

= [N(t)=i]U(Si+1;;:;t) bzw. wegen

P(Si~t)

=

P[N(t) = i] + P(Si+ 1~t) W.(t) = Fs (t) - Fs (t).

1 i i+1

( 3-1)

(3-2)

(3-3)

( 3-4)

Auf spezielle Anwendungen der Punktprozesse in der Technischen Informatik wird erst in den Unterabschnitten eingegangen.

(21)

3.1 Punktprozesse mit nur einem Intervalltyp, insbesondere Erneuerungsorozesse

Häufig treten an bestimmten Stellen eines Rechensystems in unregel- mäßiger Folge Ereignisse eines einzigen Typs auf, so z.B. Interrupts, Quittungsmeldungen oder Störimpulse. Häufig sind die Abstände aufein- anderfolgender Ereignisse stochastisch unabhängig voneinander, und alle Abstände haben dieselbe Verteilungsfunktion. Dann bilden die Zeit- punkte des obigen stochastischen Punktprozesses einen Erneuerungspro-

zeß; vgl. Bild 3-2. Der Name stammt in der Tat aus der Zuverlässig-

keitstechnik, denn beim Erneuern ausgefallener Teile durch gleiche defi- nieren die Erneuerungen im Idealfall einen (mathematischen) Erneu-

erungsprozeß der eben beschriebenen Art.

Ein Erneuerungsprozeß heißt einfach oder gewöhnlich, wenn aucfil der Zeitnullpunkt ein Erneuerungspunkt ist. Er heißt stapionär, wenn die mittlere Erneuerungsdichte zeitunabhängig ist. Dann gilt folgende Integralbeziehung zwischen der Verteilungsdichte von s

1 und der Verteilungs.funktion der Punktabstände

Ti := 8i+1

- s.

l ; i E IN (3.1-1)

t fs (t) 1

J [ 1-F T. (T) ] d-r i 2 , 3, ..•

= E (T.) ; =

1

(3.1-2)

l 0 l

(Zur Erinnerung: Beim gewöhnlichen Erneuerungsprozeß ist f

81=fTi.) Erneuerungsprozesse, die weder einfach noch stationär sind, nennt man - modifiziert.

Beim Poissonprozeß ist FT. (t)

l

= 1--exp ( -11. t) ; fT . ( t)

l

= 11. exp(-11.t); E(T.)=1/>.,

l

(3.1-3)

(22)

und man findet

f8 (t)

=

1

(3.1-4) Setzt man umgekehrt in der Bedingung für die Stationarität f

81=fTi' so findet man, daß der Poissonprozeß der einzige gewöhnliche und stationäre Erneuerungsprozeß ist.

Allgemein über Erneuerungsprozesse berichten u.a. [1],[2],[8].

Neben den schon erwähnten Wahrscheinlichkeiten für gegebene Punkte- anzahlen in festgelegten Intervallen und den Verteilungsfunktionen der Punktabstände S. vorn Nullpunkt interessiert unter Umständen auch

l

die Verteilung des Abstands des momentanen Betrachtungszeitpunkts zum nächsten "Erneuerungs"-Punkt, die sog. Vorwärtsrekurrenzzeit.

Diese Frage wird in [1] besonders schön beantwortet.

Es kann aber auch z.B. die Wahrscheinlichkeit dafür interessieren, daß ein gegebener Zeitraum, etwa die Zeit für einen Programmlauf,ohne

"Erneuerungs"-Punkt ist, also inbesondere störungsfrei, wenn z.B.

sporadisch~ Störungen des Rechenbetriebs einen, (mathematischen) Erneuerungsprozeß bilden. Dieses Problem wird z.B. in [4] gelöst.

(23)

3.2 Punktprozesse mit zwei Intervalltvpen;

insbesondere alternierende Erneuerungsprozesse

Auch in der Technischen Informatik gibt es eine Fülle von Situationen, in denen es genügt, zwei Zustände zu betrachten, z.B. logisch 1 und O einer Schaltvariablen, Intaktsein und Defektsein eines Speichermoduls, Belegtsein oder Freisein eines Ausgabegeräts. Und diese beiden Zustän- de müssen zwangsläufig aufeinanderfolgen; es sei denn, das Rechensystem wird endgültig stillgelegt.

Häufig ist solch ein alternierender Prozeß so geartet, daß man in

Gedanken (nicht in Echtzeit!) daraus zwei Erneuerungsprozesse gewinnen könnte, nämlich je einen für jeden der beiden alternierenden Inter- valltypen. Wenn dann zusätzlich die Intervallängen beider Teilpro- zesse sämtlich paarweise stochastisch unabhängig voneinander sind, so liegt ein alternierender Erneuerungsproze.'3 vor.

Bei alternierenden Punktprozessen t r i t t als neuartige, für nicht alter- nierende Prozesse irrelevante, Frage die nach der Wahrscheinlichkeit eines bevorzugten Zustands zu einem gegebenen Zeitounkt tauf. Diese ist aber offenbar die Wahrscheinlichkeit dafür, daß zwischen O und t eine gerade bzw·. ungerade Anzah.l von Punkten des Prozesses auftritt;

siehe Bild 3. 2--1 • Die Wahrscheinlichkeit p ( t) dafür, den bei t=O

·O

X 0 1

-i-~---..._ ____

1 .Ji_..._ _ _ _ _ _

....,),..

0 Zeit

Bild 3.2-1. Balkendiagramm für einen alternierenden Punktprozeß und !-1usterfunktion .x (t) des zugehörigen Indikator-Prozes 9es {X(t)}

(24)

vorliegenden bzw. beginnenden Zustand, bei t wiederzufinden, ist demnach

CO

Po(t)

= l

w2i (t).

i=O

(3.2-1)

Sie kann über (3-4) auf die Bestimmung der FS. zurückgeführt werden, J

und die zugehörigen Dichten f

8 _ erhält man bei Erneuerungsprozessen

1

und alternierenden Erneuerungsprozessen als Faltungen von Verteilungs- dichten von Punktabständen. Genauer gilt - mit @ für die Faltung -

f s. (t)

J

=

f 8

®

f 8 -s

®

f 8 -s @ •••• fs.-s. (t). (3.2-2)

1 2 1 3 2 J · J-1

Weiterführendes findet man insbesondere in [1] und [B].

Wichtiger Hinweis:

Wenn man die Indikatorprozesse {X(t)} (binäres "Rauschen") zu mehreren alternierenden Erneuerungsprozessen logisch überlagert, entsteht au?h bei stochastischer U~abhängigkeit der betrachteten Zufallsvariablen i.allg. nicht der Indikatorprozeß eines alternierenden Erneuerungs- prozesses. Vielmehr haben die entstehenden alternierenden Punktpro- zesse bislang noch kaum erforschte Eigenschaften. Lediglich die rela- tiv übersichtlichen Aussagen über. erste Momente (einfachste Mittel- werte) von Zustandsdauern nach (2.2-10) sind bekannt.

(25)

4 Verknüofung von Rauschen und Punktprozessen

Es gibt zahlreiche "Brücken" zwischen den Rauschprozessen und den Punktprozessen. So kann man sich z.B. für die Verteilung der Abstände gewisser Meßwerte, etwa für Nulldurchgänge der Netzspannung oder für die Verweildauer in vorgegebenen Wertebereichen, etwa der Netzspannung im Bereich 220V + 10% interessieren.

Weiter sind die für sehr allgemeine Rauschprozesse bekannten Ergeb- nisse recht mager (siehe insbesondere [10]). Deshalb werden in diesem Abschnitt speziellere Prozesse betrachtet, die sämtlich mit dem Namen Markoff verknüpft sind.

Anmerkung:

Die eigentlichen Markoffprozesse - wir betrachten hier nur solche mit endlich vielen Zuständen, sog. !1arkoffketten - kann man zwar auch nach Abschnitt 2 .. 2 als Prozesse mit diskreten Zufallsgrößen ansehen, doch wird ihr Verständnis durch die hier versuchte Einordnung ver- mutlich etwas erleichtert.

(26)

4.1 Markoff-Erneuerunqsurozesse

Beim sog. Markoff-Erneuerungsprozeß treten (auch im einfachsten Falle) mindestens Paare von Zufallsgrößen auf. Allerdings ist die Parameter- menge abzählbar. Die erste Variable sei X, und für allen gibt es nur

n

endlich viele mögliche Werte zk; d.h. der Zustandsraum M nach (1-2) ist endlich. Die zweite Zufallsaröße ist S wie bei den Punktprozessen

J n

mit Sn E JR + und Sn <Sn+1; S

0=0. Wir haben also als vorläufige Prozeß- beschreibung; vgl. Bild 4.1-1:

{Z}={ (Xn,Sn): n E lN o'xn E M, Sn E JR +, Sn<Sn+1 'So=O} · (4.1-1)

Xo

X 1 _..,,.,.. n-

s n-1 t

Bild 4.1-1. Musterfunktion eines Markoff-Erneuerungs- prozesses

Definition (4.1-1) gilt für eine ~räßere Klasse als die der Markoff- Erneuerungsprozesse. Mit (4.1-·2) könnte man am:9litudendiskrete Zu-

fallsfolgen (siehe Abschnitt 2.1.2) beschreiben. Die noch fehlende Mar~

koff-Eigenschaft lautet hier: Die bedingte Wahrscheinlichkeit

=P{(X =zk)n(S n n

-s

n-1~t) IX n-1=z1.}. ( 4. 1-2)

Sie ist als vom "Weiteren zur Vorgeschichte" unabhängig ..

(27)

Ist speziell

(4.1-3) also unabhängig von n, so nennt man den betreffenden Markoff-Erneu- erungsprozeß homogen.

Man beachte bei der Namensgebung, daß - zumindest nicht explizit - gefordert wird, daß die S n einen Erneuerungsprozeß bilden. -

Die möglichen Werte z. aller X werden in vielen Fällen einfach die

l n

natürlichen Zahlen sein, d.h., spätestens nach einer Umnummerierung der z. 's, einfach die i's; (siehe z.B. [1], wo der allgemeinere Fall

l

erst gar nicht diskutiert wird).

In der Technischen Informatik können Markoff-Erneuerungsprozesse ins- besondere bei zeitlich zufällig erfolgenden "Bestandsaufnahmen" von

Schaltwerkszuständen, Zählerständen, Pufferfüllungen oder allgemein von Speicherinhalten auftreten, wobei auch Register zu S~eichern

(im weiteren Sinne) gerechnet werden. Allerdings dürfte es i.allg.

nicht einfach sein, die Erfüllung der unmittelbar vor (4.1-2) genann- ten Markoff-Eigenschaft sicherzustellen bzw. experimentell nachzu-

"

weisen.

(28)

4.2 Semi-Markoffprozesse

Zu jedem Markoff-Erneuerungsprozeß gehört ein sog. Semi-Markoffprozeß {Z} folgender Art:

{Z} = {Z(t): t E JR.+, Z(t)=X für t E [S ,S +~[; n E JN

•.

n n n I d

(4.2-1) Die Musterfunktionen sind demnach Stufenfunktionen nach Bild 2.2-1.

Spezieller findet man aus Bild 4.1-1 die Musterfunktion des zugeordne- ten Semi-Markoffprozesses, indem man die "Abtastwerte" X(S) jeweils

n bis zur nächsten Abtastung bei Sn+

1 festhält; vgl. Bild 4.2-1. Als Monographie sei hier [2] genannt.

X n-1

0

- - - -

!

---L---

1 1

1 1 1

sn-1 s

n t

Bild 4.2-1. Musterfunktion eines Semi-Markoffprozesses

Anmerkung zur Bezeichnungsweise:

Aus dem Vergleich der Bilder 4.2-1 und 4.1-1 wird eine gewisse Prob- lematik in der Beschriftung von Bildern deutlich. Einerseits sollte man in jedes Bild einer Musterfunktion oder ~usterfolge nur die tat- sächlich realisierten Werte der betreffenden Zufallsgrößen eintragen.

Andererseits werden allgemeinere Gesichtspunkte eher durch die zuge- hörigen Zufallsgrößen versinnbildlicht ...•

(29)

4.3 Markoff-Prozesse

Markoffprozesse sind spezielle Semi-Markoffprozesse, nämlich solche, bei denen sämtliche Zustandsverweildauern exnonentialverteilt sind.

In der Praxis werden durchweg die sog. homogenen Markoffprozesse be- handelt. Bei ihnen sind die bedingten Wahrscheinlichkeiten

P{Z(t+6t) = klZ(t)=i}

von t unabhängig. Genauer werden sie in erster Näherung als propor- tional zu 6t angenommen, d.h., beim Prozeßzuständen 1 bis m, sei

(

Aik6t+o(6t) für kii Pk . (6t) :=P{Z (t+6t)=k!Z (t}=i}=

ll. 1+A,,6t+0(6t) für k=i.

l.l. (4. 3--1)

Die Aik nennt man dabei Übergangsraten.

größe.) 1 >

(A .. ist eine negative Hilfs-

1.1.

Nach der Regel von der totalen Wahrschei:nlichkei t · ist somi·t für Pk(t) := P{Z(t)=k}

m

Pk(t+At) =

I

pkli(6t) Pi(t) i=1

m

= 6tl Alk Pi(t) + Pk(t}+0(6t).

i=1

(4. 3--2)

(4.3-3)

Subtraktion von Pk(t) und Division von 6t mit anschließendem Grenz- übergang 6t~o ergeben die Markoff'schen Zustands-Differentialglei-

chungen .m

Pk(t)

= I

Aik Pi(t), k E'{1, ••• ,m}, i=1

m m

1 Genauer folgt aus

I

Pkli(6t)

k=l

1, daß A .. =

J.l.

l

Aik.

k=l k~i

(4.3-4)

(30)

zu denen man stets noch die Normierungsbedingung m

I

i=1

P.

=

1

l (4.3-5)

hinzuzunehmen hat. (Zum Ausgleich ist eine der m Differentialgln.

überflüssig.)

Man beachte, daß hierbei die Markoffeigenschaft, daß bedingte Zu- standswahrscheinlichkeiten, die unter der Bedingung einer längeren Vorgeschichte des Prozesses betrachtet werden, nur vom unmittelbaren Vorgängerzustand abhängen, nicht explizit auftritt!

(4.3-4) ist in der Form.

m

Pk(t)

= l

Aik Pi(t) - Pk(t) i=1

i~k

m

l

Aki i=1 i~k

(4'.3-6)

besonders gut mit Hilfe des Übergangsdiagramms interpretierbar: Jeder Summand der ersten Summe entspricht einer zum Knoten k hinführenden Kante, und jeder Summand der zweiten Summe entspricht, d.h. ist der Wahrscheinlichkeitsfluß einer vom Knoten k wegführenden Kante. Zuver-

lässigkei tstechnische Anwendungen findet man u •. a. in [ 1

J

und [ 4].

Beispiel 1:

Zum Übergangsdiagramm Bild 2.2-2 (S.9) gehören die Gln . P1

. =

-(A12+A14)P1,

P2

. =

A12~1+A42P4-(A23+A2s)P2, P4

. =

A14P1+As4Ps-(A42+A4s)P4, Ps

. =

A2sP2+A4sP4-As4Ps,

(31)

Beispiel 2: Warteschlange M/M/1

Ist speziell die Zustandsvariable die Länge einer Warteschlange, die nach Poissonprozessen gefüllt und (mittels einer Bedienstation) abgebaut wird, so sind nur die A. ·+1 und A . .

1 ungleich null. Als

1.,1. 1.,1.-

Zustandsnumrner wählt man nach Bild 4.3-1 am besten die um 1 erhöhte Anzahl der wartenden (z.B. Aufträge für eine Ausgaben-Einheit). An die Endlichkeit jedes realen Puffers, d.h. die Endlichkeit der Länge jeder

praktischen Warteschlange wird in diesem Modell nicht gedacht. (Ana-

- - - ~ - -

/ ...

Bild 4.3-1. Übergangsdiagramm einer Warteschlange

log wird z.B. bei exponentialverteilter Lebensdauer deren Endlichkeit in der Praxis auch zunächst nicht berücksichtigt!) Die ausführliche Durchrechnung dieses Beispiels findet man z.B. in [7,Bd.I].

Hinweis für die praktische Modellbildung

Die Einschränkung, daß nur exponentialverteilte Zustandsverweildauern auftreten, läßt sich dadurch mildern, daß man "Zwischenzustände" ein- führt. Spaltet man z.B. (vor der Rechnung) Zustand i in die Zustände i ' und i" auf (und numeriert neu durch) (vgl. Bild 4. 3-2) , so ist die Verteilungsdichte der neuen Verweildauer die Faltung der Verteilungs- dichten der Teilverweildauern.

===>

Bild 4.3-2 Einfü~rung von Zwischenzuständen ins Markoffmodell

(32)

5 überblick über die Einordnung der verschiedenen Klassen von Zufallsprozessen

Mit Pfei:en, die die (gedachte) Aufschrift

"Ein Spezialfall einer Teilmenge hiervon sind"

tragen, die also die Schachtelung ausdrücken und auf Untermengen hinweisen, kann man die (auch) in der Technischen Informatik interes- santen Zufallsprozesse gemäß Bild 5-1 einander zuordnen.

"Rausch"

l21

1 Stufen- 1 2.2 1 Punkt- 3

Prozesse Prozesse Prozesse

(zufällige plituden) Am-

- -

Zeitpunkte) (zufällige

--

Rauschen

l::2J

/ Markoff- 1 4. 1 1 1 1

1 ! Erneuerungs- Erneu- 3. 1 UA.ltemier. ~

-

im enger.Sinn! (noise) '

-

r---i 1 ~rungspro-

-

~ :Erneuerungs-

1

prozesse

~rozesse · zesse

1 )

Kon t in

-1

2 • 1 • 1

._.

1 Semi-· 1 4.2

y

Geburts~ 2.2.1 K'larte- b.2.1

' u . +-

Rauschen .Markoff.-Proz ..

rl

T.od.e.s.pro.z es s E Schlangen

1

.A.bge'""'. 12.1.2 1 Markoff- 14.3 Binäres 2._2.2 Zähl..,. 12.2.1

La, Rauschen tast. ~ 1 .

-

. Rau.sehen ... ,

...

Prözess.e

1 Proz.ess.e.

.

i---:

n

Bild 5-1 Verschachtelung von Klassen von Zufallsprozessen (Nummern oben rechts sind Abschnitts-Nummern dieses Berichts.)

1 Hierbei wird in der einfachsten Weise über die Werte der Musterfunktionen zwischen den Abtastungen verfügt.

(33)

6 Bibliographie

[1] Gaede, K.-W.: Zuverlässigkeit, Mathematische Modelle.

München: Hanser 1977.

[2] Störmer, H.: Semi-Markoffprozesse mit endlich vielen Zuständen.

Heidelberg: Springer 1970.

[3] Schneeweiss, W.: Zufallsprozesse in dynamischen Systemen Berlin: Springer 1974.

[4] Schneeweiss, W.: Zuverlässigkeits-Systemtheorie.

Köln: Datakontext 1980.

[5] Winkler, G.: Stochastische Systeme, Analyse und Synthese.

Wiesbaden: Akademische Verlagsgesellschaft 1977.

[6] Papoulis, A.: Probability, Random Variables and Stochastic Processes, New York: Mc Graw-Hill 1965.

[7] Kleinrock, L.: Queueing Systems. New York: Wiley 1975 (vol. I Theory) 1976 vol. II (Computer Applications).

[8] Cox, D.: Erneuerungstheorie München: 0ldenbourg· 1965.

[9] Ackermann, J.: Abtastregelung Berlin: Springer 1972.

[10] Cramer, H., Leadbetter, M.: Stationary and Related Stochastic Processes; Sample Function Properties and their Applications.

New York: Wiley 1967.

Referenzen

ÄHNLICHE DOKUMENTE

Die Realisierung des Additionsbefehl im Rechenwerk des von-Neumann-Rechners erfolgt mittels Hardware. Die Signale werden dazu zu einem Addierwerk gelenkt. Für das Addieren zweier

In diesem Kontext werden im Folgenden unter Ber¨ucksichtigung der in Kapitel 2 aufgezeigten Entwicklung und des Stands der Tech- nik und und der daraus in Kapitel 3

Eine hohe Wohlbeteiligung unterstreicht die Forderung der Studierenden nach dem Erhalt des freien Hochschulzuganges.. Bitte geh' in

Das Theaterstück Goya in spanischer Sprache, ein Gastspiel des TNT Theatres London, das ursprünglich am 12.. März 2013 im Theater im Pfalzbau stattfinden

Freundeskreis stellt sich vor, das Team des Stadtmuseums gibt einen Rückblick auf vergangene sowie einen Ausblick auf zukünftige Veranstaltungen und Projekte.. Bei Kaffee und

[r]

I wartend → aktiv: nicht sinnvoll (Prozess erhält eine Ressource, auf die er wartet, rückgebender aktiver Prozess würde für Ressourcenrückgabe „bestraft“) I Es gibt stets

o Da für dieses Modul aber auch grundlegende Programmierkenntnisse vorausgesetzt werden, werden Methoden, Variablen und einzelne Kontrollstrukturen nicht erläutert, sondern