• Keine Ergebnisse gefunden

¨Ubung 9 Neuronale Netze WS06-07

N/A
N/A
Protected

Academic year: 2022

Aktie "¨Ubung 9 Neuronale Netze WS06-07"

Copied!
2
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Ubung 9 Neuronale Netze WS06-07 ¨

Prof. Dr. S. Posch

Dipl.BioInform. Andr`e Gohr(@informatik.uni-halle.de)

Institut f¨ur Informatik Universit¨at Halle Abgabe: bis 20.12.

Aufgabe 9.1 (14 Punkte)

Betrachten Sie folgendes Multilagen-Perzeptron

x1

) x2

f ( x1, x2

Beschriften Sie die gegebene Skizze entsprechend der Notation aus der Vorlesung (f¨ugen Sie die bias- Terme hinzu)!

Welche Funktion f(x1, x2) wird durch dieses Netz realisiert? Geben Sie f in Abh¨angigkeit von Ge- wichten und Biases an!

Betrachten Sie die Fehlerfunktion des Netzes:

E(W) = 1

2(y−f(x1, x2))2

wobei y den erw¨unschten Ausgabewert f¨ur die Eingabe (x1, x2) bezeichnet. W bezeichnet die Menge aller Gewichte des MLPs. E soll iterativ durch einen Gradientenabstieg minimiert werden. Jedes Gewicht bzw. jeder Bias wird in einem Iterationsschritt um den Betrag ∆w bez. ∆Θ ge¨andert:

wneu = walt+ ∆w

∆w = −ǫ∂E∂w

∆Θ = −ǫ∂E∂Θ

Die Konstanteǫwird als Lernschrittweite bezeichnet. Berechnen Sie die ¨Anderungen f¨ur alle Gewichte und Biase des obigen MLPs f¨ur den Gradientenabstieg (entsprechend backprop-Lernregel)!

Welche Gewichte und Biase erwarten Sie, wenn das gezeigte MLP das XOR-Problem l¨ost?

Implementieren Sie unter Verwendung Ihrer ¨Uberlegungen zum objekt-orientierten Konzept eines neu- ronalen Netzes das gezeigte MLP. Das Konzept muß etwas erweitert werden, um die backpropagation- Lernregel zu realisieren.

Lernen Sie nun das Netz, so dass es das XOR-Problem l¨ost. W¨ahlen Sie als Aktivierungsfunktion f¨ur alle Neurone:

g(x) = 1 1 +exp(−x)

Trainingsparameter: 3500 Epochen wobei 1 Epoche = einmaliges Pr¨asentieren eines jeden Trainings- beispiels des folgenden Trainingsdatensatzes

x1 x2 y =XOR(x1, x2)

0 0 0

0 1 1

1 0 1

1 1 0

1

(2)

Lernschrittweite ǫ= 0.5. Welche Werte ergeben sich?

Lassen Sie die gut kommentierten Source-Codes Ihrer Implementierung per email dem ¨Ubungsleiter zukommen.

F¨ur das korrekte Lernen ist die korrekte Berechnung der ∆w und ∆Θ wichtig. Sind Sie sich unsicher, bitten Sie den ¨Ubungsleiter um Vergleich der Zwischenergebnisse.

2

Referenzen

ÄHNLICHE DOKUMENTE

(c) Betrachten wir nun (kosmisch simplifizierend) das Gehirn als eine “Black Box”, die im Laufe der Zeit eine Anzahl von jeweils n-stelligen Bin¨ arfunktionen. f i : {0, 1} n →

Die Form und die Lage der 16 rezeptiven Felder G i bestimmen, wie die Lage (x, y) des Lichtpunktes im (bin¨aren) Aktivit¨atsmuster der 16 Neuronen kodiert ist, und mit

Institut f¨ur Informatik Universit¨at Halle

Institut f¨ur Informatik Universit¨at Halle

Institut f¨ur Informatik Universit¨at Halle

Innere Neurone erhalten ihre Eingaben von ihren Vorg¨angerneuronen in Form von deren Ausgaben (deren berechneter Aktivierungszustand) und berechnen daraus die synaptische Summation

Diskutieren Sie, warum beim Training mit backpropagation die Gewichte zuf¨allig nahe Null initialisiert werden sollten, und bei bin¨aren Problemen als Zielfunktion nicht die

• bestimmen Sie nach jeder Epoche die Klassifikationsrate r(t) t ∈ [1; 100000] des bis dahin gerlern- ten MLPs, wenn dieses zum Klassifizieren der Elemente der beiden