• Keine Ergebnisse gefunden

Algorithmische Grundlagen des Maschinellen Lernens Sommersemester 2020

N/A
N/A
Protected

Academic year: 2022

Aktie "Algorithmische Grundlagen des Maschinellen Lernens Sommersemester 2020"

Copied!
1
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Anne Driemel

Thomas Kesselheim 8. Juni 2020

Xianghui Zhong Abgabe bis: 15. Juni 2020, 12 Uhr

Algorithmische Grundlagen des Maschinellen Lernens Sommersemester 2020

Ubungsblatt 7 ¨

Aufgabe 1: (3+2 Punkte)

Sei X = R, F = R3 und ψ: X → F mit ψ(x) = (1, x, x2). Betrachten Sie die Hypothesen- klassen H1 ={ha,b,c |a, b∈R, c ∈ {−1,+1}}, H2 ={hw |w∈R3}, wobei

ha,b,c(x) =

(c falls x∈[a, b]

−c sonst und hw=

(+1 fallshw, ψ(x)i ≥0

−1 sonst .

(a) Zeigen Sie, dass H1 ⊆ H2. (b) Zeigen Sie, dass H1 6⊇ H2.

Aufgabe 2: (3+2 Punkte)

Sei X = R2, F = R3 und ψ: X → F mit ψ(x1, x2) = (x1, x2, x21 +x22). Betrachten Sie die Hypothesenklassen H1 = {hp,r | p ∈ R2, r ∈ R, r ≥ 0} und H2 = {hw,u | w ∈ R3, u ∈ R} wobei

hp,r(x) =

(+1 fallskx−pk ≤r

−1 sonst hw,u(x) =

(+1 falls hw, ψ(x)i ≥u

−1 sonst (a) Zeigen Sie, dass H1 ⊆ H2.

(b) Zeigen Sie, dass H1 6⊇ H2.

Aufgabe 3: (3+2 Punkte)

Seien ψ: X → F eine Einbettung und f(w) = λkwk2 + m1 Pm

i=1max{0,1−yihw, ψ(xi)i}

die Soft-SVM-Zielfunktion auf (ψ(x1), y1), . . . ,(ψ(xm), ym). Betrachten wir nun ˆf: Rm →R definiert ¨uber ˆf(α1, . . . , αm) = f(Pm

i=1αiψ(xi)).

(a) Zeigen Sie, dass ˆf konvex ist. Sie d¨urfen ohne Beweis nutzen, dassf konvex ist.

(b) Dr¨ucken Sie ˆf(α1, . . . , αm) in Abh¨angigkeit der zu ψ zugeh¨origen Kernel-Funktion K: X×X →R aus, entfernen Sie dabei alle Vorkommen von ψ(xi).

Aufgabe 4: (5 Punkte)

Sei S eine Menge von m Datenpunkte mit Labels (x1, y1), . . . ,(xm, ym), xi ∈ X := R, yi ∈ {−1,+1}; xi 6= xj f¨ur i 6= j. Wir betrachten nun die polynomielle Einbettung von X = R in F = Rk+1 mit ψ(x) = (1, x, x2, . . . , xk). Zeigen Sie, dass f¨ur m = k + 1 ein linearer Klassifikator hw in F existiert, sodass hw(ψ(xi)) = yi f¨ur alle i, wobei hw(ψ(xi)) = 1, falls hw, ψ(xi)i ≥0,−1 sonst.

Tipp: Polynominterpolation.

Referenzen

ÄHNLICHE DOKUMENTE

Da im Falle eukaryotischer Translationsstarts die Signale auch speziesübergreifend gelernt werden können, steht hier eine deutlich größere Menge verifizierter Trainings- daten

In einer Simulation konnte gezeigt werden, dass es mit Methoden des bestärkenden Lernens möglich ist, ein künstliches neuronales Netz so zu trainieren, dass die Regelung

Dies gilt nicht nur für Objekte, sondern auch für Haltungen, zum Beispiel die der Neugier: Wie meine Neugier sich kanalisiert, ist kulturell geformt, nicht nur. 1 Dies gilt auch

Es seien S und S 0 zwei Mengen von jeweils m Samples unabh¨ angig gezogen aus der gleichen Verteilung. Ihr Beispiel sollte keine 4 Punkte enthalten, die affin abh¨

Geben Sie ein Beispiel im realisierbaren Fall an, in dem die Soft-SVM-L¨ osung eine Hypothese liefert, die nicht alle Datenpunkte

Sei die Gerade durch ihre Steigung a und Achsenabschnitt b

Die Vorverarbeitung sollte daf¨ ur eine geeignete Datenstruktur auf der Menge S berechnen und darf beliebig viel Zeit kosten. (c)

From different values of x and y, we will conclude properties of the payments that an incentive compatible mechanism would need to fulfill. We keep bidder 2’s valuation and report