• Keine Ergebnisse gefunden

Neuronale Netze

N/A
N/A
Protected

Academic year: 2021

Aktie "Neuronale Netze"

Copied!
11
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Neuronale Netze

Eine Reihe von ganz verschiedenen Methoden werden als Neuronale Netze (NN) bezeichnet. Die wichtigsten sind:

- “Feed forward, back propagation”-NN (am meisten verwendet) - Kohonen-Netze: Abbildung vieldimensionaler Vektoren auf 2D (explorative Datenanalyse)

- Counterpropagation-NN

- ART-Netze (Adaptive Resonance Theory): Eine Art Clusteranalyse, besonders geeignet für grosse Datenmengen.

Neuronale Netze haben mit der Funktionsweise von Neuronen nichts zu tun.

Verschiedene Programme sind als Shareware/Freeware erhältlich.

Literatur: J. Zupan, J. Gasteiger: Neural Networks in Chemistry and Drug Design, VCH, Weinheim, 2nd Ed. 1999, ISBN 978-3-527-29779-5

(2)

Feed Forward Back Propagation NN

. . .

. . .

Input layer

Hidden layer Output layer

X1

w1 w2 w3

X2 X3

Input =Sxiwi

Transform

Output

(3)

Feed Forward NN: Training

Start: Zufallszahlen als Gewichte.

Training mit einer grossen Zahl von bekannten Input-Output Paaren.

Korrekturterm der Gewichte aus der Abweichung des Outputs vom Sollwert berechnen.

Gefahr: Overtraining: das Netz hat oft mehr Parameter als unabhängige Information. Dadurch kann die Beispiele auswendig lernen, hat aber dann keine Voraussagefähigkeit für unbekannte Fälle.

Monitoring mit einem unabhängigen Testsatz. Training abbrechen, wenn die Voraussage nicht mehr besser oder gar schlechter wird.

Gefahr lokaler Minima: Das Netz mit verschiedenen Startwerten mehrfach trainieren.

Der Aufwand des Trainings ist hoch. Dafür ist die Anwendung des Netzes sehr schnell.

Gefahr von Extrapolation ...

(4)

Gefahr: Extrapolation

Ein Netz wurde zwischen x = –0.5 und x = 0.5 mit der Funktion y = x2 trainiert. Kreuze: Trainingssatz, Kreise: Vorhersagen

Interpolation, 6000 Zyklen

0.00 0.05 0.10 0.15 0.20 0.25 0.30

-0.50 -0.40 -0.30 -0.20 -0.10 0.00 0.10 0.20 0.30 0.40 0.50

x y=x*x

(5)

Gefahr Extrapolation

Ein Netz wurde zwischen x = 0 und x = 0.5 mit der Funktion y = x2 trainiert.

Kreuze: Trainingssatz, Kreise: Vorhersagen

Extrapolation, 1200 Zyklen

0.00 0.05 0.10 0.15 0.20 0.25 0.30

-0.50 -0.40 -0.30 -0.20 -0.10 0.00 0.10 0.20 0.30 0.40 0.50

x y=x*x

(6)

Gefahr Extrapolation

Das Netz wurde zwischen x = –0.5 und x = 0.5 mit der Funktion y = x2 trainiert. Kreuze: Trainingssatz, Kreise: Vorhersagen

Extrapolation, 6000 Zyklen

0.00 0.50 1.00 1.50 2.00 2.50 3.00 3.50 4.00 4.50

-2.50 -2.00 -1.50 -1.00 -0.50 0.00 0.50 1.00 1.50 2.00 2.50

x y=x*x

(7)

Anzahl Neuronen in Hidden Layer

Artificial neural networks for quantification in unresolved capillary electrophoresis peaks G. Bocaz-Beneventi, R. Latorre, M. Farkova, J. Havel

Anal. Chim. Acta 2002, 452, 47–63.

Voraussage der Konzentrationen von Fluorescein und 2,7-Dibromoquecksilberfluorescein aus dem Elektropherogramm mit stark überlappenden Peaks

(8)

Auswahl von Anwendungen

Spektreninterpretation:

Abschätzung von 1H-NMR Chemischen Verschiebungen (Counterpropagation-NN), Aires-de-Sousa et al., Anal. Chem. 2002, 74, 80–90.

Abschätzung von IR-Spektren, Clerc et al., Chemom. Intell. Lab. Syst. 1993, 21, 151-157.

Interpretation von NIR-Spektren, Wu et al., Chemom. Intell. Lab. Syst. 1996, 35, 127-135.

Mustererkennung (pattern recognition):

Ursprung von Olivenölproben mit Pyrolyse GC-MS, Salter et al., J. Anal. Appl. Pyrol. 1997, 40, 159-170.

Klassifizierung von Algen mit Flow Cytometry, Smits et al., Anal. Chim. Acta, 1992, 258, 11-25.

Fuel indentification with vapor-sensitive sensor arrays, McCarrick et al., Anal. Chem. 1996, 68, 4264-4269.

Identifizierung von Propibacterium acnes mit Pyrolyse MS: J. Appl. Bacteriol. 1994, 76, 124-134.

Fuel identification with laser induced fluorescende, Andrews et al., Anal. Chim. Acta, 1994, 285, 237-246.

(9)

Warnung

Korrelation der pharmakolokischen Wirkung (Tranquilizer oder Sedativ) mit den Massenspektren (30 ausgewählte m/z-Werte). Das System wurde mit 66 Produkten trainiert und konnte dann erfolgreich die Wirkung von 6 weiteren Produkten aufgrund der Massenspektren voraussagen.

K.L.H. Ting, R.C.T. Lee, G.W.A. Milne, M. Shapiro, A.M. Guarino, Science 1973, 180, 417.

(10)

"Artificial intelligence"

Um den Unsinn der Korrelation der Massenspektren mit der pharmakologis- chen Wirkung zu zeigen, hat J.T. Clerc die Massenspektren der gleichen 66 Verbindungen verwendet (30 m/z Werte) und eine lineare Lernmaschine trainiert, die erkennt, ob der systematische Name der Verbindungen eine gerade oder eine ungerade Anzahl Buchstaben hat.

Das System konnte dann für die 6 Testfälle erfolgreich voraussagen, ob die Anzahl Buchstaben ihrer systematischen Namen gerade oder ungerade war.

J.T. Clerc, P. Naegeli, J. Seibl, Chimia, 1973, 27, 12.

(Die Publikation wurde im August 1973 als Letter to the Editor of Science ein- gereicht. Da Science sich bis zum 13. November nicht zur Annahme der Arbeit geäussert hatte, zogen die Autoren sie zurück und publizierten in der Zeitschrift Chimia.)

(11)

MS und pharmakologische Wirkung

In der Zwischenzeit haben verschiedene Forschungsgruppen die erwähnte Science-Studie kritisch untersucht. Drei Fehler wurden identifiziert:

1. Die Strukturen der Verbindungen waren hoch korreliert. Barbiturate bzw.

Phenothiazine kamen in den beiden Gruppen jeweils dominant vor.

2. Ein Testsatz von 6 Verbindungen ist viel zu klein. Die Wahrscheinlichkeit von Zufallskorrelationen ist hoch.

3. Die Anzahl der Parameter war relativ zu den Testproben (Freiheitsgrade) viel zu hoch. Die 30 m/z Werte (auch schon hoch) wurden aus etwa 300 aus- gelesen. Die ursprüngliche Anzahl der überprüften Parameter darf nicht höher sein als die Anzahl Freiheitsgrade, auch wenn man nacher nur wenige relevante Parameter herausliest.

Referenzen

ÄHNLICHE DOKUMENTE

Definition: Ein nichtrekurrentes Netz kann derart in Schichten eingeteilt werden, daß alle Gewichtungen, die von einer Unit der Schicht ausgehen, in einer Unit der Schicht enden,

• Feed-forward Netze mit einer Hiddenschicht können jede kontinuierliche Funktion lernen. • Die Anzahl der Neuronen ist allerdings ein Problem, sie kann

(bei Klassifikation) oder Wahrscheinlichkeitsdichte für die gesuchte Größe t. Funktionsweise: Training

Gegeben sei eine Menge der Datenpunkten in R n , die einem Objekt entsprechen (nach welchem schließlich gesucht wird).. Zusätzlich sei bekannt, dass der Objekt bestimmte

Die Output-Schicht eines Teiles in einer Position (i,j) des Bildes liefert Information über die Umgebung um (i,j) – Berechnung lokaler Merkmale.. Beim Lernen eines solches Netzes

Auch hierbei wird durch die verwendete Software ein Terminal emuliert und über eine Wählverbindung "lediglich" der Zu- gang zu einem TCP/IP-fähigen Rechner gesucht, von

• >10 Jahre später: Entdeckung, dass diese Aussage für mehrstufige Netze nicht gilt. mehrstufige Netze

• Heute werden sogenannte tiefe Netze (deep neural networks) verwendet, bei denen Neuronen ¨ uber viele Schichten verbunden sind (siehe z.B.. von Google, Apple, Facebook, NSA, BND