• Keine Ergebnisse gefunden

Praktikum 3 Machine Learning (SS 17)

N/A
N/A
Protected

Academic year: 2021

Aktie "Praktikum 3 Machine Learning (SS 17)"

Copied!
2
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Praktikum 3

Machine Learning (SS 17)

Stefan Edelkamp

1. März 2017

Sämtliche Aufgaben sind von der Gruppe selbstständig zu lösen. Die Verwendung von Hilfsmitteln und Quellen auÿerhalb der Vorlesungsunterlagen gilt es in

expliziter Weise zu dokumentieren.

Abgabe ist am Montag, den 3.2.2017 in der Übung.

1 Begrisdenitionen

1. Was ist der Bias bei Hidden Markov Modellen. Gegen Sie Beispiele an, wann dieser Bias (5 P) zutrit und wann nicht.

2. Warum ist The inductive learning hypothesis (s.u.) aus der Vorlesung falsch? Geben Sie ein (10 P) Gegenbeispiel!

The inductive learning hypothesis Any hypothesis found to approximate the target function well over a suciently large set of training examples will also approximate the target function well over other unobserved examples.

2 Hidden Markov Modell

Laut Spielstandsänderung P(Laut Spielstandsänderung)

Ole KÄ 0.8

Toor KÄ 0.05

Ohhh KÄ 0.15

Ole TG 0.1

Toor TG 0.2

Ohhh TG 0.7

Ole TD 0.1

Toor TD 0.8

Ohhh TD 0.1

Tabelle 1: Sensormodell

Spielstandsänderung(t) Spielstandsänderung(t+1) P(Spielstandsänderung(t+1)Spielstandsänderung(t))

0.6

TG 0.2

TD 0.2

TD 0.4

TD TG 0.3

TD TD 0.3

TG 0.4

TG TG 0.4

TG TD 0.2

Tabelle 2: Transitionsmodell

Um die GEZ Kosten während des Studiums zu sparen, verzichten wir auf jegliche Form von Nachrichten, würden aber dennoch gerne über den aktuellen Spielstand informiert sein. Zu die- sem Zweck mieten wir eine Wohnung in der Nähe des Weserstadions. Dank der Machine Learning Vorlesung kennen wir das Hidden Markov Modell mit dessen Hilfe wir auf den aktuellen Spiel- stand basierend auf den Schreien der Zuschauer schlieÿen wollen. Wir können dabei folgende

(2)

Maschinelles Lernen Praktikum 3

Laute unterscheiden: Ole, Ohhh und Tooor. Je nach Windrichtung sind diese Laute nicht ganz zuverlässig, daher benötigen wir (neben einem Transitionsmodell (s. Tabelle 2)) auch ein Sensor- modell (s. Tabelle 1), das wir im Vorfeld empirisch ermittelt haben! Folgende versteckte Zustände wollen wir unterscheiden: Keine Änderung (KÄ), Tor Gegner (TG), Tor Darmstadt (TD)

1. Verwenden Sie den FORWARD-Algorithmus um nach jedem Laut auf den aktuellen Spiel- (20 P) stand zu schlieÿen (durch die Spielstandsänderung) bei folgender Lautbeobachtung: Ole, Ole,

Ohh, Ole, Toor! Geben Sie jeden Berechnungsschritt an! Verwenden Sie eine gleichverteilte a priori Wahrscheinlichkeit!

2. Welche a priori Wahrscheinlichkeitsverteilung erscheint Ihnen sinnvoll. Beschreiben Sie ver- (5 P) schiedene Startsituationen und begründen Sie die Wahl ihrer a priori Verteilung.

3 Naive Bayes

Für einen Kommilitonen der es leider in seinem Studium verpasst hat, die Machine Learning Veranstaltung zu besuchen, muss ein Klassikator Klassikator erstellt werden. Dieser Klas- sikator Klassikator soll klassizieren, welchen Klassikator man bei einer gegebenen Problem- stellung einsetzen sollte. Da diese Entscheidung natürlich nicht pauschal getroen werden kann, soll ein probabilistisches Modell verwendet werden.

1. Lernen Sie einen Naive Bayes Klassikator Klassikator. Dieser soll klassizieren, wel- (25 P) cher Klassikator für eine durch die Attribute Wertebereich, Trainingsdatenumfang und

Rauschen beschriebene Problemstellung häug verwendet wird (best practice). Die Referenz- daten werden in ml/code unter Dateien als CSV (Comma Seperated Value) Datei hinterlegt.

Sie müssen aus dieser Datei die Attribute bestimmen, die Wertebereiche der Attribute und die Wertebereiche der Klasse bestimmen. Es wird angenommen, dass die letzte Spalte die Klasse enthält. Nachfolgend müssen die relevanten Wahrscheinlichkeiten aus den Referenz- daten bestimmt werden. Eine weitere CSV enthält Anfragedaten (ebenfalls in ml/code), die klassiziert werden müssen. Dazu soll bei jeder Klassikation die Wahrscheinlichkeitsvertei- lung über die Klassen angegeben werden.

Seite 2/2

Referenzen

ÄHNLICHE DOKUMENTE

The Bayesian view allows any self-consistent ascription of prior probabilities to propositions, but then insists on proper Bayesian updating as evidence arrives. For example P(cavity)

Bayesian concept learning: the number game The beta-binomial model: tossing coins The Dirichlet-multinomial model: rolling dice... Bayesian

I Discriminative: These classifiers focus on modeling the class boundaries or the class membership probabilities directly. No attempt is made to model the underlying class

– Discriminative Learning – Empirical Risk minimization (sub-gradient algorithms), Large Margin learning (quadratic optimization) etc.. The difference to unstructured models –

In particular: linear algebra (vectors, matrices, SVD, scalar products), a bit geometry, functions (derivative, gradients, integrals, series), optimization, probability theory

Design a network (weights and biases for each neuron) so that the energy of a configuration is proportional to the number of cracks, i.e..

Example: Objects are nodes of a weighted graph, is the length of the shortest path from to4. Distances for “other”

Let (in addition to the training data) a loss function be given that penalizes deviations between the true class and the estimated one (the same as the cost function in