• Keine Ergebnisse gefunden

Übungsblatt 4 Machine Learning (WS 16/17)

N/A
N/A
Protected

Academic year: 2021

Aktie "Übungsblatt 4 Machine Learning (WS 16/17)"

Copied!
2
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Übungsblatt 4

Machine Learning (WS 16/17)

Stefan Edelkamp

29. November 2016

Sämtliche Aufgaben sind von der Gruppe selbstständig zu lösen. Die Verwendung von Hilfsmitteln und Quellen auÿerhalb der Vorlesungsunterlagen gilt es in expliziter Weise zu dokumentieren.

Abgabe ist am Donnerstag, den 15.12.2016 im Tutorium.

1 Begrisdenition

1. Modellieren Sie ein Hidden Markov Modell, bei dem sechs verschiedene Würfel (W4, W6, (15 P) W8, W12, W20, W100) gleichzeitig gewürfelt werden. Das Ergebnis eines Würfels legt den

Würfel fest, dessen Ergebnis als Beobachtung verwendet wird. Beschreiben Sie das Modell, insbesondere sind Sensor und Transitionsmodell anzugeben.

2. Passen Sie Ihr Modell an, so dass immer der zuletzt ausgewählte Würfel den nächsten Würfel (10 P) auswählt. Wieder sind Sensor und Transitionsmodell anzugeben und zu erklären.

3. Erklären Sie die Gemeinsamkeiten / Unterschiede zwischen einer Markov Kette und einem (5 P) Markov Decision Process!

4. Erklären Sie die Funktionsweise der Bellman-Gleichung! Wie interpretiert Value Iteration (5 P) die Bellman Gleichung?

2 Markov Ketten

Um das Studuim weiter nanzieren zu können, bieten sich Fuÿball TOTO-Wetten an. Obwohl wir keine Ahnung von Fuÿball haben, wollen wir helfen. Es bietet sich an eine Markov Kette / Markov Modell für Werder Bremen zu erstellen. Wir beobachteten dazu in einer Saison, welche Spiele Werder Bremen gewonnen (G), verloren (V) oder unentschieden (U) gespielt hat und verwenden eine Markov Kette mit der Markov Annahme erster Ordnung für eine Vorhersage des Spielergebnisses in der Folgesaison.

G V G V G V U V G V V Tabelle 1: Beobachtete Saison von Werder Bremen

1. Geben Sie die a priori Wahrscheinlichkeiten für die Zustände Gewonnen, Verloren, Unent- (5 P) schieden an.

2. Erstellen Sie das Markov Modell basierend auf den Beobachtungen der letzten Saison. Da (15 P) wir aus relativ vertrauenswürdiger Quelle wissen, dass Werder am ersten Spieltag gewinnen

wird, verwenden wir für den ersten Spieltag folgende Wahrscheinlichkeitsverteilung:G= 0.9, V = 0.1, U = 0. Geben Sie mit Hilfe des Markov Modells die Wahrscheinlichkeit für die möglichen Spielergebnisse der beiden weiteren Spieltage (2. und 3. Spieltag) der neuen Saison an! Geben Sie den Lösungsweg an!

3. Geben Sie 20 - 50 Prozent des Gewinnes bei dem Dozenten der Veranstaltung ab. Die (X P) Verluste dürfen versucht werden von der Steuer abzusetzen.

(2)

Maschinelles Lernen Übungsblatt 4

Laut Spielstandsänderung P(Laut Spielstandsänderung)

Ole KÄ 0.8

Toor KÄ 0.05

Ohhh KÄ 0.15

Ole TG 0.1

Toor TG 0.2

Ohhh TG 0.7

Ole TW 0.1

Toor TW 0.8

Ohhh TW 0.1

Tabelle 2: Sensormodell

Spielstandsänderung(t) Spielstandsänderung(t+1) P(Spielstandsänderung(t+1)Spielstandsänderung(t))

0.6

TG 0.2

KA TW 0.2

TW 0.4

TW TG 0.3

TW TW 0.3

TG 0.4

TG TG 0.4

TG TW 0.2

Tabelle 3: Transitionsmodell

3 Hidden Markov Modell

Um die GEZ Kosten während des Studiums zu sparen, verzichten wir auf jegliche Form von Nachrichten, würden aber dennoch gerne über den aktuellen Spielstand informiert sein. Zu die- sem Zweck mieten wir eine Wohnung in der Nähe des Weserstadions. Dank der Machine Learning Vorlesung kennen wir das Hidden Markov Modell mit dessen Hilfe wir auf den aktuellen Spiel- stand basierend auf den Schreien der Zuschauer schlieÿen wollen. Wir können dabei folgende Laute unterscheiden: Ole, Ohhh und Tooor. Je nach Windrichtung sind diese Laute nicht ganz zuverlässig, daher benötigen wir (neben einem Transitionsmodell (s. Tabelle 3)) auch ein Sensor- modell (s. Tabelle 2), das wir im Vorfeld empirisch ermittelt haben! Folgende versteckte Zustände wollen wir unterscheiden: Keine Änderung (KÄ), Tor Gegner (TG), Tor Werder (TW)

1. Verwenden Sie den FORWARD-Algorithmus um nach jedem Laut auf den aktuellen Spiel- (20 P) stand zu schlieÿen (durch die Spielstandsänderung) bei folgender Lautbeobachtung: Ole, Ole,

Ohh, Ole, Toor! Geben Sie jeden Berechnungsschritt an! Verwenden Sie eine gleichverteilte a priori Wahrscheinlichkeit!

2. Welche a priori Wahrscheinlichkeitsverteilung erscheint Ihnen sinnvoll. Beschreiben Sie ver- (5 P) schiedene Startsituationen und begründen Sie die Wahl ihrer a priori Verteilung.

Seite 2/2

Referenzen

ÄHNLICHE DOKUMENTE

→ the scalar product can be computed in the input space, it is not necessary to map the data points onto the feature space

– Discriminative Learning – Empirical Risk minimization (sub-gradient algorithms), Large Margin learning (quadratic optimization) etc.. The difference to unstructured models –

In particular: linear algebra (vectors, matrices, SVD, scalar products), a bit geometry, functions (derivative, gradients, integrals, series), optimization, probability theory

Design a network (weights and biases for each neuron) so that the energy of a configuration is proportional to the number of cracks, i.e..

Example: Objects are nodes of a weighted graph, is the length of the shortest path from to4. Distances for “other”

The Bayesian view allows any self-consistent ascription of prior probabilities to propositions, but then insists on proper Bayesian updating as evidence arrives. For example P(cavity)

Bayesian concept learning: the number game The beta-binomial model: tossing coins The Dirichlet-multinomial model: rolling dice... Bayesian

I Discriminative: These classifiers focus on modeling the class boundaries or the class membership probabilities directly. No attempt is made to model the underlying class