• Keine Ergebnisse gefunden

Computer Vision: AdaBoost

N/A
N/A
Protected

Academic year: 2022

Aktie "Computer Vision: AdaBoost"

Copied!
10
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Computer Vision: AdaBoost

D. Schlesinger () Computer Vision: AdaBoost 1 / 10

(2)

Idee

Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine „geschickte“ Kombination der schwachen.

Vergleiche mit SVM – komplizierte Merkmalsräume,einKlassifikator.

Ausgangspunkt:

– Die Menge der schwachen KlassifikatorenH

Beispiel: lineare Klassifikatoren für zwei Klassenh∈ H:X → {−1,+1}

h(x) = sign hx,wi+b

– Eine klassifizierte Lernstichprobe (x1,k1),(x2,k2). . .(xm,km)

,xi∈ X,ki∈ {−1,+1}

Gesucht wird ein Klassifikator

f(x) = sign

X

T

t=1

αtht(x)

mitht∈ H,αt∈R, der die Lernstichprobe richtig (oder am besten) separiert.

Fragen:

– Ist es überhaupt für eine beliebige Lernstichprobe möglich?

– Eigenschaften der Konvergenz, Generalisierbarkeit.

(3)

Mächtigkeit der Menge der Entscheidungsstrategien

Ja, es ist für eine beliebige (endliche) Lernstichprobe möglich

(wenn die Anzahl der zu verwendeten Klassifikatoren nicht eingeschränkt ist).

Beispiel mitx∈R, d.h.h(x) = sign(hx,wi+b) =±sign(x−b)

Der Klassifikator wird aus einfachen Klassifikationen gebildet, die jeweils für ein bestimmtes Muster die richtige Klasse liefern und

„neutral“ für alle anderen sind.

D. Schlesinger () Computer Vision: AdaBoost 3 / 10

(4)

Mächtigkeit der Menge der Entscheidungsstrategien

Beispiele fürx∈R2

(5)

Algorithmus

Gegeben: (x1,k1),(x2,k2). . .(xm,km)

,xi∈ X,ki∈ {−1,+1}

InitialisiereGewichtefür alle Beispiele mitD(1)(i) = 1/m Fürt= 1, . . . ,T

1. Wähle (lerne) einen schwachen Klassifikatorht∈ H unter Berücksichtigung aktueller GewichteD(t) 2. Wähleαt

3. Aktualisiere die Gewichte:

D(t+1)(i) =D(t)(i)·exp −αtyiht(xi)

Zt

mit der NormierungskonstanteZtso, dass

P

iD(t+1)(i) = 1.

Der „starke“ Klassifikator ist:

f(x) = sign

X

T

t=1

αtht(x)

D. Schlesinger () Computer Vision: AdaBoost 5 / 10

(6)

Algorithmus

1. Wähle (lerne) einen schwachen Klassifikatorht∈ H.

ht= arg min

h∈H

(D(t),h) = arg min

h∈H

X

i

D(t)(i)·1I yi,h(xi)

d.h. wähle den besten bezüglich aktuellerD(i) – (SVM) Voraussetzung:(D(t),h)<1/2

– der bestehtsoll nicht schlechter sein, als eine zufällige Entscheidung.

Anderenfalls – Abbruch.

2. Wähleαt. Das Ziel ist,f(x) so zu konstruieren, dass sein Fehler (f) =

P

i1I yi,f(xi)

minimal ist.

Obere Schranke für den Fehler ist(f)≤

Q

T t=1Zt.

⇒wähleαt(gierig) so dassZtminimal ist.

Zt=

X

i

D(t)(i)·exp −αtyiht(xi)

→min

αt

Die Aufgabe ist konvex und differenzierbar→

αt= 1/2 ln

1−(D(t),ht) (D(t),ht)

(7)

Algorithmus

3. Aktualisiere die Gewichte:

D(t+1)(i)∼D(t)(i)·exp −αtyiht(xi)

Merke:αt>0

yiht(xi)>0 (richtig klassifiziert) ⇒ exp −αtyiht(xi)

<1 yiht(xi)<0 (falsch klassifiziert) ⇒ exp −αtyiht(xi)

>1 Die (aktuell) falsch klassifizierten Muster werden stärker gewichtet

⇒der Klassifikatorht+1in der nächsten Runde wird versuchen gerade diese richtig zu klassifizieren.

– Beispiel von Matas

– Beispiele von Freund:http://cseweb.ucsd.edu/~yfreund/adaboost/

D. Schlesinger () Computer Vision: AdaBoost 7 / 10

(8)

Zusammenfassung

Geschichte (Arbeiten):

1990 – Boost-by-majority algorithm (Freund) 1995 – AdaBoost (Freund & Schapire)

1997 – Generalized version of AdaBoost (Schapire & Singer) (heute) 2001 – AdaBoost in Face Detection (Viola & Jones)

Interessante Eigenschaften:

– AB ist eine einfache Kombination linearer Klassifikatoren – sehr einfach.

– AB konvergiert zum Logarithmus der Likelihood-Verhältnis.

– AB hat gute Generalisierbarkeit (?).

– AB ist ein Merkmalselektor.

(9)

Viola & Jones (CVPR 2001):

Rapid Object Detection using a Boosted Cascade of Simple Features

Haar Merkmale – schnell berechenbar

24×24 Fenster×. . .→180.000 Merkmalswerte pro Position!!!

Ein „schwacher“ Klassifikator

– Wert der Faltung mit Haar-Maske≶(optimaler) Schwellwert AdaBoost für das Lernen – Auswahl der Merkmale

Die zwei beste Merkmale

Die besseren – 0.1 bis 0.3 Fehler, die später gewählten – 0.4 bis 0.5 Etwas extra noch...

D. Schlesinger () Computer Vision: AdaBoost 9 / 10

(10)

Viola & Jones (CVPR 2001):

Rapid Object Detection using a Boosted Cascade of Simple Features

Datenbank: 130 Bilder, 507 Gesichter

Gesamtfehlerrate – ca. 7%

Referenzen

ÄHNLICHE DOKUMENTE

Conferences Computational Learning Theory (COLT), Neural Information Processing Systems (NIPS), Int. Journals Machine Learning, Journal of Machine Learning

The real-time optical flow enhanced AdaBoost cascade face tracker aims at calling the Viola-Jones algorithm at every 20 th frame.. In the frames in between, face detec- tion is done

[r]

Finde heraus, ob das Wort mit einem d oder einem t endet. Verl ä ngere es und mache

Die Auswirkungen des Klimawandels auf die zukünftige Schneedeckendauer und -ausdehnung wurde im Rahmen des ACRP-Projekts CC-Snow (CC-Snow, 2013 a, b) exemplarisch für die

Stressbedingte physiologische Krankheiten (durch Trockenheit, erhöhte Temperaturen), wie die Traubenwelke, können durch verstärkten Nährstoffstress oder unausgeglichene

Diese Insekten sind meist plastischer in ihrer Lebensweise und von breiterer ökologischer Amplitude, so dass sie unter sich wandelnden Umweltbedingungen den angepassten,

[r]