• Keine Ergebnisse gefunden

¨Ubung 11 Neuronale Netze WS06-07

N/A
N/A
Protected

Academic year: 2022

Aktie "¨Ubung 11 Neuronale Netze WS06-07"

Copied!
2
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Ubung 11 Neuronale Netze WS06-07 ¨

Prof. Dr. S. Posch

Dipl.BioInform. Andr`e Gohr(@informatik.uni-halle.de)

Institut f¨ur Informatik Universit¨at Halle Abgabe: 11./12.1. in der ¨Ubung

Transkriptions-Faktor-Bindestellen (tfbss) sind kurze Abschnitte der DNA (einstr¨angig), an die Trans- kriptions-Faktoren mit hoher Affinit¨at binden k¨onnen. Die Vorhersage von tfbss ist hilfreich unter anderem f¨ur die Entschl¨usselung der Genregulation.

Auf der Website zur ¨Ubung finden Sie drei Dateien. tfbs_train.datund tfbs_test.datenthalten eine Menge von tfbss der L¨ange 12. nontfbs.dat enth¨alt eine Menge von DNA-Sequenzen gleicher L¨ange, von denen man weiß, daß sie keine tfbss sind. Es handelt sich um ein 2-Klassenproblem. Es sind 12-dim Merkmalsvektoren der einen (tfbss (positiv)) und der anderen Klasse (non-tfbss (negativ)) gegeben.

Aufgabe 11.1 (6 Punkte)

Die 12-dim-Vektoren (jede Komponente kann 4 m¨ogliche Werte annehmen entps. DNA-Alphabet) sollen dem backprop-MLP kodiert gegeben werden. Jede der 4 Basen soll als ein Basisvektor im R4 dargestellt werden. Die Eingabevektoren f¨ur das MLP bestehen dann aus 48 Komponenten, wobei jede Base einfach durch den zugeh¨origen 4-dim Basisvektor ersetzt wird.

Das MLP besteht aus einer Eingabe- einer verdeckten - und einer Ausgabeschicht. Die Eingabeschicht bestehe aus 48 Eingabeneuronen. Die Ausgabeschicht aus 2 Ausgabeneuronen, die jeweils vollst¨andig mit allen Neuronen in der verdeckten Schicht verbunden sind. Das heißt, dass das MLP eine 2-dim Ausgabe liefert wobei die Sollausgaben f¨ur die tfbss-Klasse (1,0) und die Sollausgabe f¨ur die non- tfbss-Klasse (0,1) ist. In der verdeckten Schicht sollen sich:

• 5

• 10

• 50

Neurone befinden, die jeweils voll mit den 48 Eingabeneuronen verbunden sind.

Setzen Sie diese drei backprop-MLPs mit Hilfe Ihres erweiterten objekt-orientierten Konzeptes f¨ur neuronale backprop-Netze um!

Aufgabe 11.2 (6 Punkte)

Die vorgeschlagenen backprop-MLPs sollen nun trainiert und zur Klassifikation der tfbss verwendet werden. Gehen Sie dabei vor folgt vor:

• splittem Sie zuf¨allig den non-tfbs-Datensatz in 80% und 20% große Teildatens¨atze (der 80%- Datensatz sei der jeweilige train-Datensatz, der 20%-Datensatz sei der jeweilige test-Datensatz)

• verwenden Sie tfbs_train.datals Trainingsbeispiele undtfbs_test.datals Testbeispiele f¨ur die tfbs-Klasse

• alle (rechnenden) Neurone sollen g(h) = 1+exp(−1 h) als Aktivierungsfunktion verwenden

• trainieren Sie die 3 backprop-MLPs unter Verwendung der beiden train-Datens¨atze (100000 Epochen (eine Epoche = einmaliges Zeigen aller Elemente der Vereinigung der beiden train- Datens¨atze in zuf¨alliger Reihenfolge), Lernschrittweite ǫ= 0.5)

• bestimmen Sie nach jeder Epoche die Klassifikationsrater(t)t∈[1; 100000] des bis dahin gerlern- ten MLPs, wenn dieses zum Klassifizieren der Elemente der beiden train-Datens¨atze verwendet wird

1

(2)

• bestimmen Sie nach jeder Epoche die Klassifikationsrates(t)t∈[1; 100000] des bis dahin gerlern- ten MLPs, wenn dieses zum Klassifizieren der Elemente der beiden test-Datens¨atze verwendet wird

• plottem Sie r(t) & s(t)

Beim klassifizieren soll sich das backprop-MLP f¨ur die Klasse entscheiden, deren zugeh¨origes Neuron die gr¨oßte Antwort liefert: z.B. sei (0.7,0.5) die Anwort der Ausgabeneurone, dann entscheidet sich das MLP f¨ur Klasse 1 (tfbs). Die Klassifikationsrate ist der Prozentsatz von allen getesteten Eingaben, die richtig klassifiziert wurden.

Werten Sie Ihre Ergebnisse aus sowohl hinsichtich r(t) unds(t) als auch hinsichtlich der Anzahl der Neurone in der verdeckten Schicht!

Lassen Sie auch Ihre gut kommentierten Source-Codes dem ¨Ubungsleiter per email zukommen.

2

Referenzen

ÄHNLICHE DOKUMENTE

F ¨ur die Unterscheidung der beiden Materialien soll ein Ger¨auschsensor eingesetzt werden, dessen Ausgangssignal zur Lautst¨arke des S¨ageger¨ausches

Institut f¨ur Informatik Universit¨at Halle

Institut f¨ur Informatik Universit¨at Halle

Innere Neurone erhalten ihre Eingaben von ihren Vorg¨angerneuronen in Form von deren Ausgaben (deren berechneter Aktivierungszustand) und berechnen daraus die synaptische Summation

Implementieren Sie unter Verwendung Ihrer ¨ Uberlegungen zum objekt-orientierten Konzept eines neu- ronalen Netzes das gezeigte MLP.. Das Konzept muß etwas erweitert werden, um

Beim Einlesen von Dateien ist zu beachten, dass R anstatt eines Backslash ( \ ) einen einfachen Schr¨agstrich (/) f¨ ur Pfadangaben verwendet.. Weiterhin muss die

Gegeben sei eine Menge der Datenpunkten in R n , die einem Objekt entsprechen (nach welchem schließlich gesucht wird).. Zusätzlich sei bekannt, dass der Objekt bestimmte

Die Output-Schicht eines Teiles in einer Position (i,j) des Bildes liefert Information über die Umgebung um (i,j) – Berechnung lokaler Merkmale.. Beim Lernen eines solches Netzes