• Keine Ergebnisse gefunden

5.3 Integration von Lernverfahren

5.3.1 Informationsgrundlage

Die funktionale Abbildung eines KontextinformationIiin Abhängigkeit von der Zeittin ein ElementDides Domä-nenraumesDist wie folgt definiert [BI98]:

Ii:t→Di (5.4)

Der DomänenraumDbeinhaltet dabei die Menge von Werten, welche der Sensor nach der Abbildung seiner erfass-ten Daerfass-ten annehmen kann. In Abhängigkeit von der Art des Sensors, seines Einsatzgebietes oder Einschränkungen an die zu übermittelnden Daten kann diese Wertemenge endlich oder unendlich sein. Die Elemente des Domänen-raumesDsind daher sowohl durch kontinuierliche, als auch durch diskrete Werte bestimmt.

Aus der Kombination von Sensordaten mit Informationen aus der Sensorbeschreibung lassen sich Wertepaare (engl.Key-Value Pairs) bilden, welche ein Sensordatum einer (möglichst eindeutigen) Bedeutung zuordnet (siehe Abschnitt 6.4.1). Durch den Einsatz der kontextbasierten Kommunikationsdienste in der realen Umwelt ergeben

84 5.3 Integration von Lernverfahren

sich jedoch weitere Problemstellungen für die zugrunde liegenden Lernsysteme, welche durch eine angemessene Robustheit des Learners ausgeglichen werden müssen.

Irrelevante Werte

Die zu verarbeitende Menge an Sensoren wird durch die semantische Suche auf eine Menge relevanter Sensoren eingeschränkt. Diese Suche betrachtet nur die semantische Beschreibung eines Sensors, um die Relevanz zur aktuell betrachteten Kontextdimension und dem Kontextobjekt zu bestimmen. Ob die Aussage eines Sensorwertes letztlich relevant für die Auswertung des Nutzerkonzeptes ist, kann damit jedoch nicht entschieden werden.

Bei der Suche wird somit meist auch eine Menge von Sensoren erfasst, welche keine Relevanz für das Kon-zept des Nutzers haben. Diese Menge kann je nach Szenario, installierten Sensoren, Sensorbeschreibung oder der Umsetzung der Suche stark variieren.

Ansätze

Ein Ansatz besteht darin, eine Relevanzbestimmung im Bezug zu dem Feedback des Nutzers durchzuführen.

Bestimmt man die Korrelation zwischen den Sensordaten und den Klassenwerten innerhalb der gesammelten Trai-ningsdaten oder betrachtet man das Modell, um dort die Relevanz eines Sensors zu bestimmen, so kann die Suche auf relevante Sensoren beschränkt werden. Zum Zeitpunkt der Auswertung ist dies ein sinnvoller Ansatz, da zu-dem auch die Suche verkürzt werde kann. Daher wird dieser Ansatz in zukünftigen Arbeiten beim Fachgebiet KOM weiter bearbeitet. Zum Zeitpunkt der Adaption müsste jedoch weiterhin eine Suche über alle potentiell relevan-ten Sensoren durchgeführt werden, da es sonst dazu führt, dass neue Trainingsinstanzen nur bereits adressierte Sensorwerte beinhalten und somit das Modell keine neuen Sensoren aufnehmen und je nach Relevanz für das Nutzerkonzept adaptieren könnte.

Fehlerhafte Informationen

Fehler in den Kontextdaten, beispielsweise erzeugt durch Übertragungsfehler oder Umwelteinflüsse auf die Senso-ren, stellt Lernverfahren vor eine schwierige Herausforderung [CN87, HK01]. Sie müssen entsprechend differenzie-ren, ob es sich bei den Trainingsinstanzen nur um einzelne Fehler handelt oder ein Wechsel des Kontexts beginnt.

Entscheidet sich das System, eine Instanz als fehlerhaft zu markieren und nicht in den Modellaufbau zu integrieren, so fördert es zwar seine Robustheit, jedoch verliert es an seiner Fähigkeit zur frühzeitigen Erkennung einer Kon-zeptänderung(dieser Effekt wird im Verlauf dieses Abschnittes genauer erläutert). Festzuhalten ist somit, dass sich die Robustheit eines Lernsystems gegenüber Fehlern und die Wirksamkeit der Erfassung von Konzeptänderungen gegenseitig bedingen.

Des Weiteren beeinflusst die Rate der Fehler ebenfalls die Lernfähigkeit. Ein n prozentiger Fehler eines At-tributes bedeutet, dass n Prozent der Attributwerte abweichend oder unabhängig vom Nutzerkonzept gewählt wird [WK96]. Die Auswirkung ist allerdings unter Beachtung der Attributart (diskret oder kontinuierlich) sowie der Ausprägung des Nutzerkonzeptes zu vollziehen. So verliert ein Fehler von 100% bei einem Nutzerkonzept, welches vier von fünf möglichen diskreten Werten eines Attributs beinhaltet, an Bedeutung, da nur20% der Zu-fallsziehung eine Zuordnung der Instanzen zu einem anderen Nutzerkonzept bewirken.3

Ansätze

Brodley und Friedl [BF99] führen eine generische Form der Erkennung von fehlerhaften Informationen ein (outlier-detection), welches in Form eines Vorverarbeitungsschrittes auf die Trainingsinstanzen angewendet werden kann. Ein ähnliches Vorgehen wird von Frank und Witten ebenfalls vorgeschlagen [FW00]. Han und Kamber disku-tieren vier Methoden zur Glättung zur Behandlung von Fehlern vor. Unter anderem verwenden sie hierbei Ansätze wiebinningundclustering[HK01].

Fehlende Werte

Lücken in der Informationsgrundlage eröffnen weitere Herausforderungen für die Lernsysteme. Fehlende Werte können beispielsweise durch Sensorausfälle oder verspätete Suchergebnisse hervorgerufen werden. Bedingt durch

3 Diese Betrachtung erfolgt unabhängig von dem möglichen Einfluss der Kombination von Werten verschiedener Attribute.

5 Informationsauswertung 85

die Beschränkungen der Suche und den sich wechselnden Umgebungen in denen nach relevanten gesucht wird, können zu einer Vielzahl der Sensoren aus den Trainingsdaten keine vergleichbaren Sensoren aus der Umgebung bezogen werden.

Im Vergleich zu fehlerhaften Attributwerten bieten fehlende Werte dem Lernsystem eine höhere Sicherheit, da sie im Gegensatz zu Abweichungen eindeutig identifiziert werden können. So ist es möglich nicht vorhandene Werte durch Prognosen zu ermitteln oder sie einfach bei dem Aufbau des Klassifikationsmodells zu ignorieren.

Das Wegbleiben eines Wertes bedingt nicht notwendigerweise eine Verschlechterung der Aussagekraft einer Trai-ningsinstanz. So kann beispielsweise ein Laptop über das WLAN mit dem eigenen Heimnetz verbunden sein. Verliert er diese Verbindung, so kann sich dies einerseits durch einen zufallsbedingten Ausfall des WLANs ereignen, ande-rerseits ist es aber auch möglich, dass der Laptop außerhalb der Reichweite positioniert wurde und damit in eine neue Situation gerät. Der Wegfall eines entsprechenden Sensorwertes kann als Aussage zur Beschreibung dieser neuen Situation genutzt werden.

Ansätze

Es existieren einige Ansätze, um mit fehlenden Werten umzugehen. Diese Ansätze reichen vom kompletten Entfernen von Instanzen mit fehlenden Attributen, bis hin zu Ansätzen, welche fehlende Werte mit möglichst wahrscheinlichen Werten füllen oder gar wiederum Lernverfahren anwenden, um diese Werte zu ermitteln [HK01].

Anhand der Ergebnisse von verschiedenen Arbeiten aus der Literatur kann sich jedoch keine Methode vollständig von den anderen hervorheben [JH01]. Im Rahmen dieser Arbeit wird der zweite Ansatz testweise angewendet und die Auswirkungen verglichen (siehe Abschnitt 5.4.7).

Fehlerhaftes Feedback

Fehlerhaftes Feedback beschreibt Trainingsinstanzen deren assoziierte Kontextklasse nicht mit dem eigentlichen Konzept des Nutzers übereinstimmt(X,h(X))|h(X)= h(X). Zum einen können solche Trainingsinstanzen durch versehentliche Falschangaben seitens des Nutzers entstehen. Zum anderen können solche Effekte auch bei auto-matisierten Vorgängen entstehen, beispielsweise wenn das System vorsieht, automatisch (positives) Feedback zu generieren (siehe Abschnitt 5.2.2). Eine solche automatische Generierung von positivem Feedback kann durchge-führt werden, indem Instanzen, welche nach einem gewissen Zeitraum nicht vom Nutzer als falsch identifiziert oder korrigiert wurden, automatisch mit der damaligen Entscheidung des Modells versehen(X,f(X))und als Feedback verwendet werden.

Konzeptänderung

Das Konzept beschreibt das vom Nutzer gewünschte Verhalten des Systems. Ändern sich die Wünsche, das Verhalten oder die Umgebung des Teilnehmers auf die das System trainiert wurde, so entspricht das neue Ziel-Konzept nicht mehr dem gelernten Modell. Diese entstehenden Konzeptwechsel werden in der Literatur auch als Konzeptdrift (engl.Conceptdrift) bezeichnet [Tsy04, CJK+01].

Problem: Over-Training

Im Zusammenhang mit Konzeptänderungen entsteht ein neues Problem – das sogenannteOver-Training. Dieser Begriff beschreibt das Phänomen, dass je länger ein Modell auf ein stabiles Konzept trainiert worden ist, es umso länger dauert es, einen Wechsel des Konzeptes durch das Modell zu adaptieren [WK96].

Ansätze zur Erkennung von Konzeptänderungen

Die Erkennung von Konzeptänderungen kann genutzt werden, um die Generierung des Modells zu beeinflussen und um gegebenenfalls Maßnahmen zu ergreifen und die Konzeptänderung schnell durch das Modell zu adap-tieren. Zur Erfassung von Konzeptänderungen bedienen sich Klingenberg und Renz drei verschiedener Indikato-ren [KR98]:

Betrachtung der Genauigkeit des Modells:Basierend auf der aktuellen Klassifikationsgenauigkeit des Ziel-konzeptes kann bestimmt werden, ob sich das Nutzerkonzept verändert hat. Sinkt die durchschnittliche Genauigkeit plötzlich ab, so kann ein Konzeptwechsel die Ursache dafür sein.

Eigenschaften des Klassifikationsmodells:Beispielsweise über die Erfassung der Komplexität des Nutzer-konzeptes oder die Anzahl der Klassifikationsregeln. Ändert sich das Konzept eines Nutzers, so reichen die

86 5.3 Integration von Lernverfahren

Aussagen oder Regeln des Konzeptes möglicherweise nicht mehr aus, um das neue Verhalten abzudecken.

Entsprechend wird von dem Lernverfahren die Menge der Aussagen erweitert. Gerade bei Systemen, welche eine Generalisierung vornehmen, ist die Anzahl der Aussagen, welche das Konzept beschreiben ein guter Indikator, ob das Konzept des Nutzers erfasst werden kann.

Charakteristika der Trainingsinstanzen:Eine Analyse der Verteilung der Attributwerte oder der Verände-rungen in ihrer Gruppierung kann ebenfalls herangezogen werden, um eine Konzeptveränderung anzuzei-gen. Ein neues Konzept führt zu Trainingsinstanzen, welche im Allgemeinen vermehrt andere oder neue Sensorwerte beinhalten. Somit kann über Verfahren wie beispielsweise Clustering bestimmt werden, ob die neuen Trainingsinstanzen zu den in der Vergangenheit gesammelten Instanzenpassen.

Gerade das Auftreten von fehlerhaftem Feedback kann die Erkennung von Konzeptänderungen beeinflussen und zu Fehlern in der Erkennung führen.

Klassifizierung von Konzeptdrift und Konzeptshift

Man kann die Konzeptveränderungen nach der Stärke ihrer Ausprägung, sowie nach ihrer Schnelligkeit klassi-fizieren [CGM03]. Je größer die Konzeptveränderung ist, desto mehr Aufwand zur Variation des Konzeptes muss ein Lernsystem erbringen, um die korrekte Klassifikation der veränderten Kontextdaten zu gewährleisten.

Von einer Konzeptveränderung kann das gesamte Konzept oder aber nur ein Teil des Konzeptes betroffen sein.

Der Abstand beziehungsweise die Differenz zweier Konzepte beschreibt wie stark die Konzeptveränderung ausge-prägt ist.

Widmer und Kubat definieren die Geschwindigkeit einer Konzeptänderung (speed of drift) und differenzieren somit zwischen rapiden und langsamen bzw. trägen Übergängen zwischen Konzepten. Die Geschwindigkeit wird dabei durch eine Funktionαfestgelegt.αbeschreibt die Wahrscheinlichkeit, dass das aktuell gültige Nutzerkonzept noch mit den alten Kontextdaten übereinstimmt. Entsprechend beschreibtα=1die volle Gültigkeit des alten Kon-zeptes A, währendα=0die komplette Übernahme des neuen Konzeptes B beschreibt. Die folgende Abbildung 5.6 veranschaulicht diese Geschwindigkeitsfunktion beim Wechsel des Kontextes.

1 2

Abbildung 5.6:Geschwindigkeitsfunktion eines Konzeptdrifts [WK96].

Nach einer Anzahl vonx1Beispielen tritt das alte Konzept in die Wechselphase ein und benötigt entsprechend Δx Trainingsinstanzen, um einen kompletten Übergang zum neuen Konzept zu bewirken. Der Wert der Variable α definiert somit die Anzahl benötigter Trainingsinstanzen für den Übergang. Zu jedem Lernzeitpunkt werden folglich α∗100% der Instanzen bezüglich des alten Konzeptes und (1−α)·100% gemäß dem neuen Konzept klassifiziert [WK96].

Anhand dieser Messgrößen kann zwischen einem Konzeptdrift und einem Konzeptshift differenziert werden:

Konzeptdrift: Ein kontinuierlich und langsam verlaufender Konzeptwechsel. Dieser beinhaltet in der Regel ein geringes Ausmaß der Konzeptverschiebung (extend of drift) sowie eine niedrige Änderungsrate (rate of drift).

Konzeptshift:Ein abrupt und sprunghaft auftretender Wechsel des Konzeptes. Im Allgemeinen bedeutet dies ein höheres Ausmaß des Wechsels und eine ebenfalls höhere Rate der Konzeptänderungen [All96].

In dieser Arbeit werden beide Effekte als Konzeptänderung mit jeweils unterschiedlich starker Ausprägung be-zeichnet.

5 Informationsauswertung 87

Wiederkehrende Konzepte

Wiederkehrende Konzepte sind in realen Domänen häufig anzutreffen. Oft beruhen solche scheinbar wiederkeh-renden Konzepte jedoch auf fehlenden Informationen. So kann das Konzept eines Nutzers für das Lernverfahren, wie zwei gänzlich unterschiedliche Konzepte wirken, sobald ein Attribut zur Differenzierung zwischen den beiden Konzept-Teilen fehlt. In Abbildung 3.7 aus Abschnitt 3.4.4 wurde diese Problematik skizziert. Wenn das fehlende Attribut oder Merkmal beispielsweise die Lokation der Person beschreibt, die Person den Raum wechselt und dort ein entsprechend anderes Verhalten aufweist, so kann diese Situation für das Lernverfahren fälschlicherweise als Konzeptwechsel gedeutet werden.

Ein ständig neues Erlernen dieser wiederkehrenden Konzepte ist wohl die einfachste, aber auch ineffizienteste Lösung. Entsprechend bietet es sich an, eindeutig identifizierbare Lernzustände mit hoher Qualität aufzubewahren und bei erneutem Bedarf wieder zu laden [HH98, WK96].

Die Herausforderung besteht nun einerseits in der Identifikation akzeptabler Konzepte, welche für eine Abspei-cherung in Frage kommen. Andererseits ist es notwendig bereits gespeicherte Konzepte zu analysieren, um diese eventuell zu laden und damit Teile des aktuellen Zielkonzeptes zu ersetzen.

Zur Lösung dieser Problematiken sind wiederum heuristische Verfahren hilfreich. Allerdings ist darauf zu achten, dass nur gezielt ausgewählte Konzepte aufbewahrt werden. Speichert eine Heuristik zu viele Konzepte ab, ergibt sich daraus ein erheblicher Performanceverlust des Lernsystems durch den erhöhten Ressourcenaufwand. So wird in allen gängigen Lernsystemen, die ein solchesLangzeitgedächtnisunterstützen, bei wiederkehrenden Konzepten eine Suche imGedächtnisvollzogen [Koy01, Koy00a]. Auf der anderen Seite erzeugt ein solches Langzeitgedächtnis zusätzlichen Aufwand in Form von Speicherplatz zur Hinterlegung von Modellen, als auch Rechenkapazität zum Vergleich des aktuellen Modells mit gespeicherten zur Bestimmung, ob sich dasalteModell besser auf das aktuelle Konzept anwenden lässt.