• Keine Ergebnisse gefunden

Praktikum 5 Machine Learning (SS 17)

N/A
N/A
Protected

Academic year: 2021

Aktie "Praktikum 5 Machine Learning (SS 17)"

Copied!
2
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Praktikum 5

Machine Learning (SS 17)

Stefan Edelkamp

8. März 2017

Sämtliche Aufgaben sind von der Gruppe selbstständig zu lösen. Die Verwendung von Hilfsmitteln und Quellen auÿerhalb der Vorlesungsunterlagen gilt es in

expliziter Weise zu dokumentieren. Abgabe ist am Freitag, den 10.3.2017.

1. Recherchieren Sie, was ein Partially Observable Markov Decision Process (POMDP) ist! (5 P) Erklären Sie kurz worum es dabei geht und welches Verfahren vom letzten Übungszettel

einen wesentlichen Gedanken des POMDPs teilt! Begründen Sie!

2. Bei welchen Problemen/Methoden im Machine Learning kann der EM Algorithmus ange- (5 P) wendet werden. Erklären Sie die Anwendungsweise!

1 Perzeptron

Um einen intelligenten Super Computer zu entwickeln wollen wir statt eines herkömmlichen Arbeitsspeichers ein Neuronales Netz einsetzen. Für die Entwicklungs eines Prototyps verwenden wir das Konzept des künstlichen Perzeptrons um bekannte logische Operatoren zu entwickeln.

Das besondere an unserem Super Computer soll sein, dass nicht nur binäre Werte verwendet werden sollen, sondern reel-wertige. Als erstes wollen wir einen Versuch mit der Disjunktion (Oder-Verknüpfung) durchführen. Eine Wahrheitstabelle zu dem herkömmlichen Oder-Operator ist in Abb. 2 zu sehen.

Abbildung 1: Das Perzeptron für den Super Computer

I0 I1 O

0 0 0

1 0 1

0 1 1

1 1 1

Abbildung 2: Wahrheitstabelle der Disjunktion

σ(y) = 1

1 +e−y (1)

dσ(y)

dy =σ(y)∗(1−σ(y)) (2)

1. Trainieren Sie den Super Oder Operator: Verwenden Sie das Verfahren des stochastischen (10 P) Gradientenabstiegs (Online-Training), um ein Perzeptron mit zwei Eingabeneuronen und

einem Bias-Neuron mit dem Wert −1 (s. Abb. 1) entsprechend den Referenzdaten in Abb.

(2)

Maschinelles Lernen Praktikum 5

2 zu trainieren! Es soll die Lernrate 10.0 und die initialen Gewichte w0 = w1 = w2 = 0 verwendet werden! Dokumentieren Sie jede Gewichtsänderung mit allen Zwischenschritten (inkl. Fehler, Gewichtsanpassung etc.)! Trainieren Sie soviele Epochen, bis die Summe der quadrierten Fehler den Wert0.1unterschreitet! Als Aktivierungsfunktion soll die Sigmoid (oder auch logistische) Funktion verwendet werden (s. Gleichung 1 und die Ableitung in Gleichung 2)! Erklären Sie das Verfahren und beschreiben Sie jeden Schritt!

2. Um die Disjunktion unseres Super-Computers zu testen geben wir als Eingabe (a)I0 =I1= (5 P) 0.5und (b)I0=I1 = 0.1ein. Zu welchem Ergebnis kommt der Super Oder Operator in diesen

Fällen? Entsprechen die Ergebnisse Ihren Vermutungen (in Bezug zu den Referenzdaten)?

Begründen Sie!

3. Erklären Sie den Einuss der Lernrate auf den Prozess des Gradientenabstiegs! Was pas- (5 P) siert bei einer sehr kleinen Lernrate? Welches Problem kann bei einer zu groÿen Lernrate

auftreten?

2 A Priori-Algorithmus

Betrachten sie folgende Tabelle von Transaktionen in einem Supermarkt.

Transaktionsnummer Einkaufsliste

t0 Brot, Bier

t1 Schokolade, Cola, Chips

t2 Wasser

t3 Saft, Cola, Bier, Wein

t4 Cola, Bier

t5 Saft, Wasser

t6 Saft, Cola, Wein

t7 Saft, Cola, Bier

t8 Schokolade, Schinken, Brot

Minimaler Support sei 2 und der minimale Kondenzwert liege bei 75%

1. Wenden sie den Apriori-Algorithmus zur Entdeckung von Assoziationsregeln an. (10 P) 2. Dokumentieren Sie die einzelnen Schritte des Verfahren. (10 P) 3. Diskutieren Sie Verbesserungen des grundlegenden Algorithmus. (5 P)

Seite 2/2

Abbildung

Abbildung 1: Das Perzeptron für den Super Computer

Referenzen

ÄHNLICHE DOKUMENTE

The Bayesian view allows any self-consistent ascription of prior probabilities to propositions, but then insists on proper Bayesian updating as evidence arrives. For example P(cavity)

Bayesian concept learning: the number game The beta-binomial model: tossing coins The Dirichlet-multinomial model: rolling dice... Bayesian

In particular: linear algebra (vectors, matrices, SVD, scalar products), a bit geometry, functions (derivative, gradients, integrals, series), optimization, probability theory

Example: Objects are nodes of a weighted graph, is the length of the shortest path from to4. Distances for “other”

Die Firma WIDM ist sich nicht sicher, ob Sie zwei oder drei Roboter auf dem Mars hat und (10 P) weiß auch nicht genau wo diese sind.. Von Zeit zu Zeit können aber

Da Sie sich wieder bei ihren Kollegen beliebt machen wollen, versuchen Sie ihren Chef zu überzeugen, dass er sich von einigen Kunden trennen sollte um weite Wege zu vermeiden.. Da

Dank der Machine Learning Vorlesung kennen wir das Hidden Markov Modell mit dessen Hilfe wir auf den aktuellen Spiel- stand basierend auf den Schreien der Zuschauer schlieÿen

Aus einer weiteren lustigen Testreihe haben Sie berechnet, in welche Richtung der volltrunkene Kommilitone laufen möchte im Vergleich zu der Richtung, in die er tatsächlich läuft: