• Keine Ergebnisse gefunden

Auswahlstrategien zur Aktiven Segmentierung

Im Dokument Aktive Segmentierung (Seite 68-73)

Ein sehr zentraler Teil aktiver (pool-based) Lernverfahren ist die Auswahlstrategie (uti-lity function, sampling criteria, query strategy), wie sie unter den nicht-klassifizierten Beispielen U jenes ermittelt, welches als nächstes nachgefragt wird. Auf der Grundlage der noch nicht klassifiziertenU und/oder der bereits klassifiziertenL wird eine Auswahl-funktion errechnet, mit deren Hilfe das als nächstes, durch das Orakel zu klassifizierende Beispiel, ermittelt wird.

Berücksichtigt man nun die Besonderheiten der Problemstellung des Aktiven Lernens einer Segmentierung, ergeben sich für die Entwicklung von Auswahlstrategien folgende, zu beachtende Unterschiede im Vergleich zum konventionellen Aktiven Lernen:

• Das finale Ziel des Aktiven Lernens einer Segmentierung ist es nicht, ein Modell zu ermitteln, welches am Ende eine hohe erwartete Vorhersagegenauigkeit aufweist, sondern vielmehr, dass die vom Modell abgeleitete (planare) Segmentierung Up

(Gleichung 3.2) den Erwartungen des Nutzers entspricht. Es sollen also möglichst viele Segmente korrekt ermittelt werden. Die MengeUp spielt daher bei Auswahl-strategien zur Aktiven Segmentierung eine große Rolle.

• Neben der eigentlichen numerischen Beschreibung der Segmente (Merkmalsraum) stehen außerdem die räumlichen Koordinaten jedes Segments zu Verfügung. Da-durch können räumliche Beziehungen zwischen Segmenten (zum Beispiel Nachbar-schaft oder Überlappung) hergestellt und genutzt werden.

• Gemäß Abschnitt 3.3 weist das Problem der Ermittlung einer Segmentierung aus einer beliebigen Menge von Segmenten U besondere Charakterisierungen auf, wel-che einem Ein-Klassen-Lernproblem sehr ähnlich sind. Dadurch sind gegebenenfalls konventionelle aktive Auswahlstrategien wirkungslos, wie zum Beispiel explorative Ansätze (siehe Abschnitt 3.3.3). Die besonderen Charakteristika des Lernproblems müssen somit auch in der Auswahlstrategie unbedingt berücksichtigt werden.

Im Rahmen dieser Arbeit werden daher die folgenden Bewertungsfunktionen berück-sichtigt und in Experimenten anhand von Zellbildern evaluiert (siehe Abschnitt 6.3 in Kapitel 6):

Erwartete Gesamtmodellkonfidenz Seien die Wahrscheinlichkeitsverteilung ˆP(~x|p), der Klassifikator ˆc(~x), geschätzt auf der Grundlage gegebener TrainingsbeispieleL, gegeben. Dann lässt sich eine Gesamtmodellkonfidenz co(L) ermitteln, so dass

co(L) = X

x∈UP

Pˆ(~x|p)[ˆc(~x) = p]. (3.15)

Die erwartete Gesamtmodellkonfidenz für ein gegebenes~x ist dann die Gesamtmo-dellkonfidenzco, unter der Annahme ~x sei ein positives Trainingsbeispiel, also

u(~x) = co(L ∩ {(~x, p)}). (3.16) Bemerkungen: Aufgrund der zu hohen Berechnungskomplexität ist diese Bewer-tungsfunktion eher von theoretischer Bedeutung. Wird die Wahrscheinlichkeits-verteilung jedoch durch die Wahrscheinlichkeitsdichte (siehe Abschnitt 3.3.1) ge-schätzt, so erhöhen insbesondere jene Beispiele die Gesamtmodellkonfidenz, wel-che viele nahe Nachbarn im Merkmalsraum haben, also in einer dichten Region

im Merkmalsraum liegen. Somit kann die Dichte im Merkmalsraum zur Näherung herangezogen werden.

Dichte im Merkmalsraum Um nicht nur lokal in einer bestimmten Region des Merk-malsraumes zu verweilen, ist es auch wünschenswert, andere Teile des Merkmals-raum zu explorieren, indem die gesamte Verteilung aller BeispieleU im Merkmals-raum berücksichtigt wird. Viele Explorationskriterien nehmen dabei an, dass vor allem dichte Regionen im Merkmalsraum interessant sind. Ein Explorationskriteri-um ist zExplorationskriteri-um Beispiel die von Ebert et al. [21] vorgeschlagene Graphendichte. Dazu wird ein k-Nächste-Nachbarn-Graph definiert, so dass zwei Beispiele ~xi, ~xj genau dann über eine Kante verbunden sind (Gij = 1), wenn mindestens eines der bei-den Beispiele zu bei-den k-nächsten-Nachbarn des anderen gehört. Sonst ist Gij = 0.

Zusätzlich werden die Kanten invers proportional zur paarweisen Distanz d(~xi, ~xj) gewichtet, so dass

Wij =Gijexp −d(~xi, ~xj2

!

(3.17) Normalisiert mit der Anzahl der Kanten eines Beispiels (Knoten) ergibt die Be-wertungsfunktion:

u(~x) =

P

iWij

P

iGij (3.18)

In jedem Iterationsschritt wird die Dichte der direkten Nachbarn ~xj des zuletzt gewählten (und vom Orakel klassifizierten) Beispielsx~i verringert, so dassu(~xj) = u(~xj)−u(~xi)Gij. Dies verhindert, dass mehrfach Beispiele aus derselben dichten Region gewählt werden.

Ein anderes Explorationskriterium ist das von Cebron et al. [14] vorgeschlagene sogenannte Knotenpotential, welches jedoch laut Ebert et al. [21] im Vergleich zur Graphendichte in Experimenten schlechter abschneidet.

Bemerkungen: Im Rahmen dieser Arbeit wurde der k-Nächste-Nachbarn-Graph ein wenig modifiziert, so dass zwei Beispiele (Segmente) nur dann über eine Kante verbunden sein können, wenn diese nicht überlappen. Die beschriebene Auswahl-strategie wird zwar den Suchraum explorieren, jedoch ist zu erwarten, dass auch viele eigentlich negative Beispiele dichte Regionen im Merkmalsraum bilden, da sie außerdem zahlmäßig wesentlich häufiger sind. Die Auswahlstrategie ist dann

gegebenenfalls eher irreführend und die Anzahl der benötigten Trainingsbeispiele kann nicht signifikant reduziert werden.

Risikominimierung Der Arbeit über das aktiven Ein-Klassen-Lernen von Ghasemi et al. [28] zufolge wird als nächstes zu klassifizierendes Beispiel jenes gewählt, welches den erwarteten geschätzten Fehler des Modells minimiert (Risikominimierung). Ge-mäß der Betrachtung in Abschnitt 3.3.3 ist dies proportional zur geschätzten Dichte Pˆ(~x|p) und die Bewertungsfunktion ist damit

u(~x) =

0 if ~x∈ L

Pˆ(~x|p) else (3.19)

Bemerkungen: Diese Herangehensweise wird potentiell viele als positiv zu klas-sifizierende Beispiele erfragen und damit die Klassifikationsgrenze gut verfeinern können. Der restliche Beispielraum wird jedoch nicht berücksichtigt und unähnli-che, aber ebenso positive Objekte werden nicht erfasst. Die praktische Umsetzung der Dichteschätzung (Gleichung 3.5) benötigt eine Distanzfunktion (zum Beispiel Euklidischen Distanz). Variationen dieser Distanzfunktion könnten dann zu ganz unterschiedlichen Ergebnissen führen, so dass beispielsweise lediglich die Größe von Segmenten betrachtet wird. In den Experimenten in Kapitel 6 wird dies berück-sichtigt.

Modellunsicherheit Die notwendigen Komponenten des Modells zur Ermittlung einer planaren Segmentierung sind gemäß Gleichung 3.2 in Abschnitt 3.2.1 ein Klassi-fikator c(x) und eine Wahrscheinlichkeitsverteilung aller Segmente P(x|p). Eine Möglichkeit ist es nun, die Klasse genau jenen Segments zu erfragen, das die größte Modellunsicherheit aufweist und in der finalen planaren Segmentierung enthalten Up (Gleichung 3.2) ist:

u(~x) =

−P(~x|p)[ˆc(~x) =p] if ~x∈ Up

−∞ else (3.20)

Bemerkungen: Bereits klassifizierte Beispiele haben stets eine sehr geringe Bewer-tung, da deren Wahrscheinlichkeit P(x|p) hoch ist. Dies verhindert, dass sie wie-derholt vorgeschlagen werden.

Räumliche Spärlichkeit Gilt die Annahme, dass eine relativ gleichmäßige räumliche

Verteilung der Segmente über die Bilder hinweg zu erwarten ist, kann es hilfreich sein, wenn vor allem Beispiele abgefragt werden, welchenicht in der planaren Zwi-schensegmentierung enthalten sind, jedoch gleichzeitig, falls positiv klassifiziert, darin in einer räumlichen dünnen Region auftauchen würden. Sei ~px ∈ R2 die räumliche Position (Zentroid) des Beispielsegments x, dann kann die Bewertungs-funktion folgendermaßen formuliert werden:

Bemerkungen: Sind erst einmal alle in Frage kommenden räumlichen Bereiche mit Segmenten abgedeckt, wird diese Auswahlstrategie keine weiteren nützlichen In-formationen liefern können und andere Auswahlstrategien zur Verfeinerung der Segmentierung sind dann notwendig.

Anzahl der Überlappungen Jedem Segment kann eine Anzahl der Segmente zuge-ordnet werden, mit denen es räumlich überlappt und anschließend sukzessive die Segmente mit der höchsten Anzahl der Überlappungen abgefragt werden. Dadurch werden zuerst die Segmente mit sehr vielen potentiellen Alternativen abgefragt. Ist U, also die Menge aller Segmente, bereits planar (es treten also keine Überlappun-gen auf) oder wurden bereits alle überlappenden Segmente abgefragt, muss eine andere Auswahlfunktion zum Einsatz kommen.

Bemerkungen: Voraussichtlich wird diese Auswahlstrategie ein gutes exploratives Verhalten aufweisen, so dass auch relativ schnell viele potentiell positive Segmen-te aufgedeckt werden können. Gleichzeitig wird der Benutzer aber auch in jeder Iteration deutlich mehr (einander überlappende) Segmente zu klassifizieren haben, beziehungsweise aus einer tendenziell umfangreicheren Liste das eine positive Seg-mente bestimmen müssen.

Hat der Nutzer schlussendlich ein zu klassifizierendes Segment gewählt, gegebenen-falls eines auf der Grundlage einer Bewertungsfunktion vorgeschlagenes Segment, so wird er, im Gegensatz zum konventionellen Aktiven Lernen, aufgefordert sein, nicht nur die Klasse des einen Segments zu bestimmen, sondern gleichzeitig auch die Klassen meh-rerer mit diesem Segment überlappender Segmente. Dabei wird maximal ein Segment der positiven Klasse zugeordnet und beliebig viele der Negativen. Alle anderen blei-ben unklassifiziert. Denn aus einer Menge überlappender Segmente kann am Ende nur

höchstens eines in der finalen planaren(!) Segmentierung enthalten sein.

Im Dokument Aktive Segmentierung (Seite 68-73)