Praktikum 3
Machine Learning (SS 17)
Stefan Edelkamp
1. März 2017
Sämtliche Aufgaben sind von der Gruppe selbstständig zu lösen. Die Verwendung von Hilfsmitteln und Quellen auÿerhalb der Vorlesungsunterlagen gilt es in
expliziter Weise zu dokumentieren.
Abgabe ist am Montag, den 3.2.2017 in der Übung.
1 Begrisdenitionen
1. Was ist der Bias bei Hidden Markov Modellen. Gegen Sie Beispiele an, wann dieser Bias (5 P) zutrit und wann nicht.
2. Warum ist The inductive learning hypothesis (s.u.) aus der Vorlesung falsch? Geben Sie ein (10 P) Gegenbeispiel!
The inductive learning hypothesis Any hypothesis found to approximate the target function well over a suciently large set of training examples will also approximate the target function well over other unobserved examples.
2 Hidden Markov Modell
Laut Spielstandsänderung P(Laut Spielstandsänderung)
Ole KÄ 0.8
Toor KÄ 0.05
Ohhh KÄ 0.15
Ole TG 0.1
Toor TG 0.2
Ohhh TG 0.7
Ole TD 0.1
Toor TD 0.8
Ohhh TD 0.1
Tabelle 1: Sensormodell
Spielstandsänderung(t) Spielstandsänderung(t+1) P(Spielstandsänderung(t+1)Spielstandsänderung(t))
KÄ KÄ 0.6
KÄ TG 0.2
KÄ TD 0.2
TD KÄ 0.4
TD TG 0.3
TD TD 0.3
TG KÄ 0.4
TG TG 0.4
TG TD 0.2
Tabelle 2: Transitionsmodell
Um die GEZ Kosten während des Studiums zu sparen, verzichten wir auf jegliche Form von Nachrichten, würden aber dennoch gerne über den aktuellen Spielstand informiert sein. Zu die- sem Zweck mieten wir eine Wohnung in der Nähe des Weserstadions. Dank der Machine Learning Vorlesung kennen wir das Hidden Markov Modell mit dessen Hilfe wir auf den aktuellen Spiel- stand basierend auf den Schreien der Zuschauer schlieÿen wollen. Wir können dabei folgende
Maschinelles Lernen Praktikum 3
Laute unterscheiden: Ole, Ohhh und Tooor. Je nach Windrichtung sind diese Laute nicht ganz zuverlässig, daher benötigen wir (neben einem Transitionsmodell (s. Tabelle 2)) auch ein Sensor- modell (s. Tabelle 1), das wir im Vorfeld empirisch ermittelt haben! Folgende versteckte Zustände wollen wir unterscheiden: Keine Änderung (KÄ), Tor Gegner (TG), Tor Darmstadt (TD)
1. Verwenden Sie den FORWARD-Algorithmus um nach jedem Laut auf den aktuellen Spiel- (20 P) stand zu schlieÿen (durch die Spielstandsänderung) bei folgender Lautbeobachtung: Ole, Ole,
Ohh, Ole, Toor! Geben Sie jeden Berechnungsschritt an! Verwenden Sie eine gleichverteilte a priori Wahrscheinlichkeit!
2. Welche a priori Wahrscheinlichkeitsverteilung erscheint Ihnen sinnvoll. Beschreiben Sie ver- (5 P) schiedene Startsituationen und begründen Sie die Wahl ihrer a priori Verteilung.
3 Naive Bayes
Für einen Kommilitonen der es leider in seinem Studium verpasst hat, die Machine Learning Veranstaltung zu besuchen, muss ein Klassikator Klassikator erstellt werden. Dieser Klas- sikator Klassikator soll klassizieren, welchen Klassikator man bei einer gegebenen Problem- stellung einsetzen sollte. Da diese Entscheidung natürlich nicht pauschal getroen werden kann, soll ein probabilistisches Modell verwendet werden.
1. Lernen Sie einen Naive Bayes Klassikator Klassikator. Dieser soll klassizieren, wel- (25 P) cher Klassikator für eine durch die Attribute Wertebereich, Trainingsdatenumfang und
Rauschen beschriebene Problemstellung häug verwendet wird (best practice). Die Referenz- daten werden in ml/code unter Dateien als CSV (Comma Seperated Value) Datei hinterlegt.
Sie müssen aus dieser Datei die Attribute bestimmen, die Wertebereiche der Attribute und die Wertebereiche der Klasse bestimmen. Es wird angenommen, dass die letzte Spalte die Klasse enthält. Nachfolgend müssen die relevanten Wahrscheinlichkeiten aus den Referenz- daten bestimmt werden. Eine weitere CSV enthält Anfragedaten (ebenfalls in ml/code), die klassiziert werden müssen. Dazu soll bei jeder Klassikation die Wahrscheinlichkeitsvertei- lung über die Klassen angegeben werden.
Seite 2/2