• Keine Ergebnisse gefunden

Concept learning -

N/A
N/A
Protected

Academic year: 2021

Aktie "Concept learning -"

Copied!
59
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Concept Learning Machine Learning– WS 2011/2012

Machine Learning

-

Concept learning

Vorlesung

(2)

Concept Learning Machine Learning– WS 2011/2012

• Lernen von Beispielen

• Lernen und Suchen

• Hypothesen erstellen

• Version Space und Candidate Elimination

• Beispiele auswählen

• Bias

Überblick

Übersicht

(3)

Concept Learning Machine Learning– WS 2011/2012

Trainingsbeispiele

•Wie lautet das allgemeine Konzept?

(4)

Concept Learning Machine Learning– WS 2011/2012

Trainingsbeispiele

•Wie lautet das allgemeine Konzept?

•Wann besuche ich die Vorlesung?

Vorlesung besuchen

(5)

Concept Learning Machine Learning– WS 2011/2012

Hypothesen

• Wie kann man solche Konzepte darstellen?

• Hier als Menge von Constraints.

• Jeder Constraint beschreibt:

• Einen genauen Wert (e.g.Temp = Warm)

• Keine Einschränkung (e.g. Temp = ?)

• Kein Wert erlaubt (e.g. Temp = Ø)

(6)

Concept Learning Machine Learning– WS 2011/2012

Hypothesen

Ein Beispiel für eine Hypothese:

Sky, Temp, Humid, Wind, Water, Forecast {<Sunny, ?, ?, Strong, ?, Same>}

(7)

Concept Learning Machine Learning– WS 2011/2012

Hypothesen

Damit gibt es eine Menge von Hypothesen

• Ein Konzept lernen kann man interpretieren als

“die richtige” Hypothese zu finden.

• Eine Hypothese finden, die passend zu allen Beispieldaten (Trainingsinstanzen) ist.

(8)

Concept Learning Machine Learning– WS 2011/2012

Hypothesen

Damit gibt es eine Menge von Hypothesen

Ein Konzept lernen bedeutet also

“die richtige” Hypothese zu finden.

(9)

Concept Learning Machine Learning– WS 2011/2012

Prototypische Konzeptlernenaufgabe

Gegeben:

• Instanzen X: Mit Werten für Sky, Hummid etc.

• Zielfunktion c: Vorlesung besuchen: X → {0,1}

• Hypothesen H: E.g.:

• (?, Cold, High, ?,?,?)

• Trainingsbeispiele D: positive und negative Beispiele der Zielfunktion. (x, c(x), y,c(y), ...)

Gesucht:

• Eine Hypothese h in H mit h(x) =c(x) für alle x in D

(10)

Concept Learning Machine Learning– WS 2011/2012

(11)

Concept Learning Machine Learning– WS 2011/2012

Instanzen und Hypothesen

(12)

Concept Learning Machine Learning– WS 2011/2012

Find-S Algorithmus

(13)

Concept Learning Machine Learning– WS 2011/2012

Find-S Algorithmus

(14)

Concept Learning Machine Learning– WS 2011/2012

Find-S Algorithmus

(15)

Concept Learning Machine Learning– WS 2011/2012

Find-S Algorithmus

(16)

Concept Learning Machine Learning– WS 2011/2012

Find-S Algorithmus

(17)

Concept Learning Machine Learning– WS 2011/2012

Find-S Algorithmus

(18)

Concept Learning Machine Learning– WS 2011/2012

Find-S Algorithmus

(19)

Concept Learning Machine Learning– WS 2011/2012

Find-S Algorithmus

(20)

Concept Learning Machine Learning– WS 2011/2012

Nachteile des Find-S Algorithmus

•Man kann nicht entscheiden:

• ob dass Konzept gelernt wurde.

•ob die Trainingsbeispiele inkonsistent sind.

•Find S wählt immer die maximal eingeschränkteste

Hypothese h, die mit allen positiven Beispielen konsistent ist.

(21)

Concept Learning Machine Learning– WS 2011/2012

Version Space

•Eine Hypothese ist konsistent mit einer Menge von Trainingsbeispielen, wenn h(x) = c(x) für alle

Trainingsbeispiele gilt.

•Der Version Space VSH,D zu einer Hypothesenmenge H und Trainingsbeispielen D ist die Teilmenge von

Hypothesen in H, die konsistent zu D ist.

(22)

Concept Learning Machine Learning– WS 2011/2012

List-Then-Eliminate Algorithmus

(23)

Concept Learning Machine Learning– WS 2011/2012

Version Space

(24)

Concept Learning Machine Learning– WS 2011/2012

Version Space

(25)

Concept Learning Machine Learning– WS 2011/2012

Candidate Elimination Algorithmus

(26)

Concept Learning Machine Learning– WS 2011/2012

Candidate Elimination Algorithmus

(27)

Concept Learning Machine Learning– WS 2011/2012

Candidate Elimination Algorithmus

(28)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

S : {<Ø, Ø,Ø,Ø,Ø, Ø>}

G: {<?,?,?,?,?,?>}

(29)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

S1 : {<Sunny, Warm, Normal, Strong, Warm, Same>}

G1: {<?,?,?,?,?,?>}

(30)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

S2 : {<Sunny, Warm, ?, Strong, Warm, Same>}

G2: {<?,?,?,?,?,?>}

(31)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

S3 : {<Sunny, Warm, ?, Strong, Warm, Same>}

G3 {<Sunny,?,?,?,?,?> <?,Warm, ?,?,?,?> <?,?,Normal,?,?,?> <?,?,?,Light, ?,?> <?,?,?,?, Cool,?> <?,?,?,?,?,Same>}

G2: {<?,?,?,?,?,?>}

(32)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

S3 : {<Sunny, Warm, ?, Strong, Warm, Same>}

G3 {<Sunny,?,?,?,?,?> <?,Warm, ?,?,?,?> <?,?,?,?,?,Same>}

G2: {<?,?,?,?,?,?>}

(33)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

S3 : {<Sunny, Warm, ?, Strong, Warm, Same>}

G3 {<Sunny,?,?,?,?,?> <?,Warm, ?,?,?,?><?,?,?,?,?,Same>}

(34)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

S4 : {<Sunny, Warm, ?, Strong, ?, ?>}

G3 {<Sunny,?,?,?,?,?> <?,Warm, ?,?,?,?><?,?,?,?,?,Same>}

(35)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

S4 : {<Sunny, Warm, ?, Strong, ?, ?>}

G4 {<Sunny,?,?,?,?,?> <?,Warm, ?,?,?,?>}

(36)

Concept Learning Machine Learning– WS 2011/2012

Beispiel

(37)

Concept Learning Machine Learning– WS 2011/2012

Klassifizieren bei Mehrdeutigkeit

(Rainy, Cold, Normal, Light, Warm, Same) (Sunny, Warm, Normal, Strong, Cool, Change)

(38)

Concept Learning Machine Learning– WS 2011/2012

Klassifizieren bei Mehrdeutigkeit

(Sunny, Warm, Normal, Light, Warm, Same) (Sunny, Cold, Normal, Light, Cold, Same)

(39)

Concept Learning Machine Learning– WS 2011/2012

Klassifizieren bei Mehrdeutigkeit

Selbst wenn keine Eindeutige Zuordnung möglich ist, kann eine Wahrscheinlichkeit angegeben werden.

Bias: Wir nehmen an, dass das Konzept c als Konjunktion von Literalen dargestellt werden kann.

(40)

Concept Learning Machine Learning– WS 2011/2012

Welches Trainingsbeispiel als nächstes?

(41)

Concept Learning Machine Learning– WS 2011/2012

Welches Trainingsbeispiel als nächstes?

(Sunny, Warm, Normal, Light, Warm, Same)

(42)

Concept Learning Machine Learning– WS 2011/2012

Wie gut ist Candidate Elimination?

(43)

Concept Learning Machine Learning– WS 2011/2012

Wie gut ist Candidate Elimination?

•Konvergiert gegen die richtige Hypothese!

•Gibt immer die verbleibende Mehrdeutigkeit (Ambiguität) an.

(44)

Concept Learning Machine Learning– WS 2011/2012

Wie gut ist Candidate Elimination?

•Konvergiert gegen die richtige Hypothese!

•Gibt immer die verbleibende Mehrdeutigkeit (Ambiguität) an.

Falls keine Fehler in den Trainingsdaten sind und die richtige Hypothese in H enthalten ist.

(45)

Concept Learning Machine Learning– WS 2011/2012

Bias

Wie garantieren wir, dass die richtige Hypothese in unserem Hypothesenraum enthalten ist?

Was ist mit (Sky = Sunny) or (Sky = Cloudy)?

Was mit (Sky = Sunny) or (Water = Cold)?

(46)

Concept Learning Machine Learning– WS 2011/2012

Bias

Wie garantieren wir, dass die richtige Hypothese in unserem Hypothesenraum enthalten ist?

Was ist mit (Sky = Sunny) or (Sky = Cloudy)?

Was mit (Sky = Sunny) or (Water = Cold)?

Die folgenden Überlegungen sind gültig für alle induktiven Lernverfahren!

(47)

Concept Learning Machine Learning– WS 2011/2012

Bias

Wie garantieren wir, dass die richtige Hypothese in unserem Hypothesenraum enthalten ist?

Was ist mit (Sky = Sunny) or (Sky = Cloudy)

(48)

Concept Learning Machine Learning– WS 2011/2012

Ein unvoreingenommener Lerner

(49)

Concept Learning Machine Learning– WS 2011/2012

An unbiased Learner

(50)

Concept Learning Machine Learning– WS 2011/2012

An unbiased Learner

Jede mögliche Hypothese ist im Hypothesenraum H enthalten.

Es gibt in dem Beispiel 96 verschiedene Belegungen für die sechs Attribute. (3*2*2*2*2*2=96)

Damit gibt es 296 verschiedene Hypothesen.

(51)

Concept Learning Machine Learning– WS 2011/2012

A unbiased Learner

Jede mögliche Hypothese ist im Hypothesenraum H enthalten.

Es gibt in dem Beispiel 96 verschiedene Belegungen für die sechs Attribute. (3*2*2*2*2*2=96)

Damit gibt es 296 verschiedene Hypothesen.

Wie viele Trainingsbeispiele werden benötigt um die richtige Hypothese zu ermitteln?

(52)

Concept Learning Machine Learning– WS 2011/2012

A unbiased Learner

Jede mögliche Hypothese ist im Hypothesenraum H enthalten.

Es gibt in dem Beispiel 96 verschiedene Belegungen für die sechs Attribute. (3*2*2*2*2*2=96)

Damit gibt es 296 verschiedene Hypothesen.

Wie viele Trainingsbeispiele werden benötigt um die richtige Hypothese zu ermitteln?

96 verschiedene (also alle Instanzen!)

(53)

Concept Learning Machine Learning– WS 2011/2012

Unbiased Learning

Mitchell:

„A learner that makes no a priori assumption regarding the identity of the target concept has no rational basis for

classifying any unseen instances“

(54)

Concept Learning Machine Learning– WS 2011/2012

Unbiased Learning

Kann man Wahrscheinlichkeiten für die unbekannten Instanzen angeben?

(55)

Concept Learning Machine Learning– WS 2011/2012

Candidate Elimination Algorithmus

(56)

Concept Learning Machine Learning– WS 2011/2012

Candidate Elimination Algorithmus

(57)

Concept Learning Machine Learning– WS 2011/2012

Inductive Bias

Das Induktive Bias ist eine minimale Menge von Annahmen bezüglich der Zielfunktion c.

(58)

Concept Learning Machine Learning– WS 2011/2012

Inductive Bias

(59)

Concept Learning Machine Learning– WS 2011/2012

Three Learners with different Biases

Referenzen

ÄHNLICHE DOKUMENTE

Po výbere fotografií pre tlač stlačte tlačidlo Print Setting (Nastavenie tlače), čím zobrazíte voliteľné ponuky s nastaveniami, kde môžete nastavit’ papier, rozloženie,

Pomocou tlačidiel l alebo r zvýraznite na prvej obrazovke položku Play Movie and Print Photos (Prehranie videa a tlač fotografií) a potom stlačte tlačidlo OK..

The angle of repose given by Eq. 1 is a convenient sim- plification, and to assess whether this angle is adopted dur- ing the evolution of rapidly rotating rubble piles, we perform

To confirm that the diamond shape is a self-organized phenomenon brought on by deposition and is not an incidental byproduct of flattening that previous work has shown is caused

Over a snow covered surface, at a viewing zenith angle of 84 , the luminance exceeds the zenith lumi- nance by a factor of 8.2 and 7.6 for a solar zenith angle of 86 and 48

This report contains a proposed “Indicative Resource Guide for UN Member States and Entities Reporting on the Implementation of the United Nations Global Counter-Terrorism

• In gamma-ray energies (E=0.1–100 GeV), the origin of 80% of the unresolved diffuse emission (after removing the known, detected sources) is not completely understood?. • Only

spectrum of matter density fluctuations in the present-day universe. The experiment involves a survey of the galaxy distribution over