• Keine Ergebnisse gefunden

SEMINAR – MAXIMUM-LIKELIHOOD PRINZIP Aufgabe 1

N/A
N/A
Protected

Academic year: 2022

Aktie "SEMINAR – MAXIMUM-LIKELIHOOD PRINZIP Aufgabe 1"

Copied!
2
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

MUSTERERKENNUNG,

6. SEMINAR – MAXIMUM-LIKELIHOOD PRINZIP

Aufgabe 1. Ein Objekt kann sich in zwei Zuständen k= 1,2 befinden. Die a-priori Wahrscheinlichkeitenp(k=1)undp(k=2)seien bekannt. Die bedingten Wahrschein- lichkeiten für die Merkmalex∈Rnsind Gaußsch verteilt:

p(x|k) = 1 (√

2π σk)nexp

h−kx−µk2k2

i .

Beide Verteilungen haben dasselbe Zentrum µ aber unterschiedliche Streuungen σk. Gegeben sei eine klassifizierte StichprobeL= (x1,k1), . . . ,(x|L|,k|L|)

. Seien die Streu- ungenσkbekannt. Man schätzeµ mit Hilfe des Maximum-Likelihood Prinzips.

Aufgabe 2.

a)Die Wahrscheinlichkeitsverteilung einer skalaren Größex∈Rist p(x) =C·exp

−τ|x−µ|

mit reellen Parametern τ und µ. Sie sollen nach dem Maximum-Likelihood Prinzip anhand einer LernstichprobeL= (x1, . . . ,x|L|)gelernt werden. Wie ergeben sich daraus die gesuchten Größen?

b)Lösen Sie diese Aufgabe für die Wahrscheinlichkeitsverteilung p(x) =

C·exp

−τ(x−µ)

wenn x≥µ,

0 sonst.

1

(2)

Aufgabe 3. Die Merkmale eines Objektes, welches sich in zwei Zuständen k =1,2 befinden kann, sind Vektorenx= (x1,x2)∈R2. Die Wahrscheinlichkeitsverteilung ist

p(k=1) = p(k=2), p(x|k=1) =C·exp

−(x1−µ1)2 σ2

, p(x|k=2) =C·exp

−(x2−µ2)2 σ2

,

mit den Parameternµ12,σ ∈R.

a) Wie sieht die Klasse der Entscheidungsregeln für dieses Wahrscheinlichkeits- modell aus?

b) Seien die Parameter µ1 und µ2 unbekannt. Gegeben sei eine Lernstichprobe (x1,k1), . . . ,(xm,km)

. Finden Sie die unbekannten Parameter nach dem Maxi- mum Likelihood Prinzip.

c) Finden Sie die Entscheidungsregel, die die Anzahl der Fehlklassifikationen auf der Lernstichprobe minimiert.

Referenzen

ÄHNLICHE DOKUMENTE

Wahlberechtigten soll die Hypothese H 0 (“Wäre am nächsten Sonntag Wahl, so erhielte die Partei P einen Stimmenanteil < 5%”) getestet werden.. Man bestimme einen Test zum

Oft: Modell-PDF nur durch Monte-Carlo bekannt  benötige >10-fache MC- Statistik..  In 1D: Glätten

Es werde angenommen, dass das Alter Erstgeb¨ arender als eine N (µ, 3 2 )-verteilte Zufallsvariable angesehen und die Stichprobeninformation als Realisation einer einfachen Stich-

Finden Sie die unbekannten Parameter nach dem Maxi- mum Likelihood Prinzip.. c) Finden Sie die Entscheidungsregel, die die Anzahl der Fehlklassifikationen auf der

bei endlichen Lernstichproben stimmt der Mittelwert des geschätzten Parameters nicht unbedingt mit dem tatsächlichen überein. Beispiele: ML für µ ist erwartungswerttreu, ML für σ

(Allgemein): Das Modell ist eine Wahrscheinlichkeitsverteilung p(x,k; Θ) für Paare x (Beobachtung) und k (Klasse).. In der Lernstichprobe ist die Information unvollständig – die

c) Finden Sie die Entscheidungsregel, die die Anzahl der Fehlklassifikationen (das Em- pirische Risiko mit C(k, k 0 ) = 1I(k 6= k 0 )) auf der Lernstichprobe minimiert.. Formulieren

iii.) Vergleichen Sie die gewonnenen Verteilungen mit der Standardnormalverteilung N (0, 1). Plot- ten Sie die Normalverteilung dazu gemeinsam mit den Histogrammen aus ii.) und