• Keine Ergebnisse gefunden

5.5 Umsetzung eines Fensterverfahrens zur Evaluierung von Offline-Lernverfahren

5.5.3 Erweiterung des ausgewählten Ansatzes

Der Ansatz zur Bestimmung der Fenstergröße, welcher im Rahmen dieser Arbeit umgesetzt wurde, nimmt die Ideen von Widmer und Kubat sowie von Klingenberg und Renz auf und erweitert diese.

Zur Bestimmung der Fenstergröße kann sich die Fensterverwaltung nur auf bereits verarbeitete Trainingsin-stanzen und Aussagen über deren Einfluss auf die Genauigkeit des Modells stützen. Anhand verschiedener Pa-rameter kann die aktuelle Lernphase beschrieben werden. Welche PaPa-rameter hierzu bestimmt werden, wird in Abschnitt 5.5.3 erläutert. Je nach detektierter Lernphase wird entschieden, wie sich die Fenstergröße verhalten soll.

Zudem ist es notwendig, eine bestimmte Menge von Instanzen in die Ermittlung der Lernphase einzubeziehen.

Die Größe dieser Menge ist ausschlaggebend für die Reaktionsgeschwindigkeit der Fensterheuristik auf Konzeptän-derungen. Die Menge, um die die Fenstergröße, im Falle einer detektierten Konzeptänderung, reduziert wird, hat ebenfalls einen Effekt auf das Lernverhalten.

Parameter zur Bestimmung der aktuellen Lernphase

Als Parameter zur Ermittelung der aktuellen Lernphase werden die aktuelle Klassifikationsgenauigkeit, sowie de-ren Standardabweichung und die Shannon-Entropie herangezogen. Die Parameter werden in diesem Abschnitt erläutert.

Aus der Menge aller Trainingsinstanzen X ={x1,x2, ..,xs} wird nur ein Fenster über die zuletzt hinzugefügten TrainingsinstanzenF={xs−m,xs−m+1, . . . ,xs}betrachtet. Je nachdem ob das zu betrachtende Fenster größer ist als

118 5.5 Umsetzung eines Fensterverfahrens zur Evaluierung von Offline-Lernverfahren

die Anzahl der Trainingsinstanzen, welche bis zu dem betrachteten Zeitpunkttgesammelt wurden, wird entweder die Fenstergröße betrachtet oder die Anzahl der bisher gesammelten Trainingsinstanzens=|X|:

n=

m f al ls m<s

s f al ls s≤m (5.5)

Aktuelle Klassifikationsgenauigkeit

Vor der Integration in das Modell wird jede Trainingsinstanz x mit dem aktuell vorliegendem Modell f() klas-sifiziert und mit dem zu der Trainingsinstanz assoziierten Feedbackh()verglichen. Die Funktionhi t(), welche für diese Auswertung genutzt wird, ist wie folgt definiert:

hi t(x) =

1 f al ls f(x) =h(x)

0 f al ls f(x)=h(x) (5.6)

Um anhand dieser binären Funktion eine Aussage über die durchschnittliche Klassifikationsgenauigkeit des Modells zu erhalten, müssen mehrere dieser binären Aussagen miteinander verrechnet werden.

Die Klassifikationsgenauigkeitaccfür den Zeitpunkttlässt sich wie folgt berechnen:

acct= 1 n

n i=1

hi t(xt−i) (5.7)

Die Anzahlnder hierbei betrachteten Instanzen hat einen Einfluss auf die Anpassungsgeschwindigkeit des er-mittelten Durchschnittswertes an den realen Durchschnittswert. Je nachdem wie groß dieser Parameter gewählt wird, destoträgerreagiert das System.

Es wurde zudem eine Gewichtung der Genauigkeit eingeführt, so dass die Genauigkeit der letzten Iterationen höher gewichtet wurde, als die weiter zurückliegender. Diese Gewichtung reduziert die Trägheit der Funktionacct. Es wurden in verschiedenen Tests mehrere Formen der Gewichtung getestet. Verglichen wurden dabei die lineare, exponentielle und logarithmische Verteilung der Gewichte. Die besten Ergebnisse wurden von der logarithmischen Verteilung der Gewichte erzielt, dicht gefolgt von der linearen, während eine exponentielle Verteilung zu schnelle Reaktionen auf einzelne Fehlentscheidungen verursachte.

Die Funktion für die logarithmisch gewichtete Bestimmung lässt sich wie folgt beschreiben:

accWei ght edt= 1 n

i=1ln(i+1) n

i=1

(hi t(xt−i)ln(i+1)) (5.8)

Standardabweichung

Die Standardabweichung ist ein Maß für die Streuung einer Variablen um ihren Mittelwert. In diesem Fall wird die Standardabweichung der Klassifikationsgenauigkeit betrachtet (deren Bestimmung zuvor beschrieben wurde):

meanAcct= 1 n

n i=1

accWei ght edt−i st d E r rt= 1

n−1 n

i=1

(accWei ght edt−i−meanAcct)2 (5.9)

Shannon-Entropie

Gerade zu Beginn oder nach einem Konzeptwechsel ist die Entscheidung eines Lernverfahrens von hoher Unsi-cherheit und Zufall geprägt. Die von der Fensterverwaltung genutzte Größe zur Erkennung eines solchen Verhaltens basiert auf der Entropie nach Shannon [Sha01]. Die Shannon-Entropie ist ein Maß für die Menge an

Zufallsinfor-5 Informationsauswertung 119

mationen, die in einer Folge von Informationen steckt. Die Shannon-EntropieHeiner InformationsfolgeI über dem AlphabetAist dann wie folgt definiert.

H(I) = |A|

i=1

pilog|A|(pi) (5.10)

pjbeschreibt die Wahrscheinlichkeit des Auftretens des j-ten Zeichens des Alphabets in der Informationsfolge.

Ist die Shannon-Entropie nahe an 1 so kann die Informationsfolge als zufällig bezeichnet werden, da jedes Zeichen mit gleicher Wahrscheinlichkeit auftritt [HRSV00]. Die Fensterverwaltung bestimmt die in der Folge von Klassifikationsergebnissen enthaltene Entropie. Aufgrund eines binären Alphabetes der Funktionhi t()vereinfacht sich die oben stehende Formel wie folgt.

H(I) =−p0log2(p0)−p1log2(p1) p0=1−p1 H(I) =−p1log2(p1)(1−p1)log2(1−p1) (5.11) Die Variablep1lässt sich durch das Abzählen der Fälle vonhi t(X) =1im Fenster ermitteln und entspricht daher dem Ergebnis der Funktionacc().

shannont=H(I) =−acctlog2(acct)(1−acct)log2(1−acct) (5.12) Bei der Umsetzung dieser Funktion müssen schließlich noch die Fälle acct=0undacct =1geeignet behandelt werden – die Entropie ist in diesen Fällen 0.

Angepasstes Verfahren zur Fensterverwaltung

Im Rahmen dieser Arbeit wurde die WAH-Ansatz von Widmer und Kubat [WK96] herangezogen und erweitert.

Die Funktionsweise der erweiterten Window Adjustment Heuristic (siehe Abbildung 5.29) basiert grundlegend auf den zuvor angeführten Parametern, der Klassifikationsgenauigkeit, sowie der Shannon-Entropie. Deren Aussage werden zur Bestimmung verschiedener Phasen des Lernens genutzt. Diese Phasen werden unter anderem durch die Grenzwerteafür die Shannon-Entropie undbfür die Genauigkeit beschrieben.

IF (shannont>a) THENLer nphase

ELSE IFacct<bANDacct<(acct−1−st d E r rt) THENKonzept d r i f t

ELSE IFacct<b THENLer nphase ELSES t a bil es M od el l

a, b benutzerdefinierte Grenzwerte.

Abbildung 5.29:Erweiterung des WAH-Ansatzes

Die Bestimmung der Shannon-Entropie läuft ungeachtet der Reihenfolge der Trainingsinstanzen ab. Daher ist die Aussage der Shannon-Entropie hinsichtlich auftretender Konzeptdrifts zwar nutzbar, jedoch relativ träge. Die Entropie eignet sich jedoch gut, um die instabilen Phasen (welche beispielsweise gerade am Anfang oder nach einem Konzeptdrift auftreten) von beabsichtigten Konzeptdrifts zu differenzieren.

Die nachfolgende Bestimmung einer Konzeptänderung wird ähnlich wie bei dem Ansatz von Klingenberg und Renz durchgeführt. Hierbei wurde jedoch die Bestimmung von Konzeptshifts ausgelassen. Je nach Ausprägung des Konzeptdrifts ist zu erwarten, dass in den nachfolgenden Iterationen weitere Schritte zur Behandlung von Konzeptdrift erfolgen. Bei einem Konzeptshift würden demnach mehrere Konzeptdrift-Behandlungen, bei denen sukzessive die Fenstergröße reduziert werden würde, die Behandlung von Konzeptshift ersetzen.

120 5.5 Umsetzung eines Fensterverfahrens zur Evaluierung von Offline-Lernverfahren

Aus dem Ansatz von Widmer und Kubat wurde die Berücksichtigung stabiler Modelle übernommen. Indem die Fenstergröße bei stabilen Modellen unverändert bleibt, wird ein Over-Training vermieden.