• Keine Ergebnisse gefunden

Algorithmische Grundlagen des Maschinellen Lernens Sommersemester 2020

N/A
N/A
Protected

Academic year: 2022

Aktie "Algorithmische Grundlagen des Maschinellen Lernens Sommersemester 2020"

Copied!
1
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Anne Driemel

Thomas Kesselheim 15. Juni 2020

Xianghui Zhong Abgabe bis: 22. Juni 2020, 12 Uhr

Algorithmische Grundlagen des Maschinellen Lernens Sommersemester 2020

Ubungsblatt 8 ¨

Aufgabe 1: (5+2 Punkte)

Wir betrachten X = R, Y = {−1,1} und H als die Klasse aller Schwellenwertfunktionen (ha(x) = 1, fallsx≥a,−1 sonst). Als Loss-Funktionen betrachten wir den 0/1 Loss, definiert uber¨ `0−1(h, z) = 0 wenn z durch h korrekt klassifiziert wird, 1 sonst.

(a) SeiAein Algorithmus, der den TrainingsfehlerL0−1S minimiert. Zeigen Sie, dassAnicht universell austauschstabil ist. Das heißt, konstruieren Sie f¨ur alle m ∈ N ein S, i und z0, sodass `(hSi, zi)−`(hS, zi)≥1.

Tipp: Dies tritt bereits in realisierbaren Instanzen auf.

(b) Begr¨unden Sie kurz mithilfe von Satz 5.1, dass der erwartete Verallgemeinerungsfehler trotzdem f¨urm→ ∞ verschwindet.

Aufgabe 2: (4 Punkte)

Wir betrachten eine Menge von Datenpunkte inRmit Labels S ={(x1, y1), . . . ,(xm, ym)} ⊆ R× {−1,1}. Konstruieren Sie eine Hypotheseh als Linearkombination von Schwellenwert- funktionen, sodassh(xi) = yi f¨ur allei. Sie d¨urfen dabei annehmen, dassSkeine zwei Punkte enth¨alt mitxi =xj undyi 6=yj. Es sind auch negative Koeffizienten in der Linearkombination erlaubt.

Aufgabe 3: (4 Punkte)

Zeigen Sie, dass f¨ur alle Schrittet in AdaBoost gilt X

i:ht(xi)6=yi

p(t+1)i = 1 2 .

Diese Gleichung gibt auch eine sch¨one intuitive Erkl¨arung f¨ur die Wahl vonp(t+1): Es handelt sich um eine Wahrscheinlichkeitsverteilung, sodass ht nicht besser ist als zuf¨alliges Raten.

Aufgabe 4: (5 Punkte)

SeiSeine Menge vonmDatenpunkt-/Label-Paaren (x1, y1), . . . ,(xm, ym), wobeixi = (xi,1, xi,2)∈ R2 und

yi =

(+1 falls xi,1 ≥0 und xi,2 ≥0

−1 sonst .

Zeigen Sie, dass es f¨ur jede solche MengeS einen linearen Klassifikator hw,u (w∈R2, u∈R, hw,u(x) = 1, falls hw, xi ≥ u, -1 sonst) gibt mit errS(hw,u) ≤ 13. Beachten Sie, dass f¨ur w auch der Nullvektor zugelassen ist.

Referenzen

ÄHNLICHE DOKUMENTE

UBUNGEN ZUR VARIATIONSRECHNUNG IM SS 2011 ¨ BLATT 9 (BESPRECHUNG AM 26. MAI)..

Erweitern Sie ihre Darstellung aus 2., indem Sie die exakten L¨ osung zusammen mit der nume- rischen L¨ osung darstellen.. Verwenden Sie f¨ ur die Diskretisierung ∆x = 1/100

” Verdoppelungsstrategie“, d.h., er setzt im k-ten Spiel einen Einsatz von 2 k−1 Euro und bricht das Spiel ab, wenn er erstmals gewinnt.. (i) Nehmen Sie an, dass der Spieler

Dafür ist es nützlich, von den konkreten Räumen und partiellen Ableitungen

Es seien S und S 0 zwei Mengen von jeweils m Samples unabh¨ angig gezogen aus der gleichen Verteilung. Ihr Beispiel sollte keine 4 Punkte enthalten, die affin abh¨

Geben Sie ein Beispiel im realisierbaren Fall an, in dem die Soft-SVM-L¨ osung eine Hypothese liefert, die nicht alle Datenpunkte

Sei die Gerade durch ihre Steigung a und Achsenabschnitt b

Sommersemester 2010 Universität Bielefeld. Ubungsaufgaben zur Analysis II ¨ Blatt III