• Keine Ergebnisse gefunden

• Werkzeuge aber keine Rezepte

N/A
N/A
Protected

Academic year: 2021

Aktie "• Werkzeuge aber keine Rezepte"

Copied!
51
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Optimierung

Zielsetzungen:

• Systematische Sichtweise

• Verschiedene Strategien

• Werkzeuge aber keine Rezepte

(2)

Analyse

Input System Output

Im ersten Schritt der Analyse eines Problems müssen möglichst alle Inputs und Outputs gefunden werden

z.B. HPLC:

Inputs: Säulenmaterial, pH, Elutionsmittel, Gradienten, Temperatur Outputs: Retentionszeit, Form und Fläche der Signale

z.B. Optimierung einer Reaktion

Input: Konzentrationen, Temperatur, Druck, Katalysator, ...

Output: Ausbeute

z.B. Ernährung und Gesundheit

(3)

Faktoren und irrelevante Inputs

Faktoren sind Inputs, die den Output beeinflussen

Auffinden relevanter Faktoren

Verhindern unkontrollierter Einwirkungen (z.B. Korrelation der Zeit, mit Konzentrationen, Temperatur, Sonneneinstrahlung ...)

--> Randomisierung: zeitlich, räumlich

Faktoren

Output System

Irrelevante Einwirkungen

(4)

Kontrollierbare und nicht kontrollier- bare Faktoren

Input

irrelevant

relevant (Faktoren)

kontrollierbar

nicht kontrollierbar

(5)

Definition einer Zielgrösse

Eine Voraussetzung der Optimierung ist die Definition einer einzigen Zielgrösse

z. B: Chromatographische Trennung:

Output: Chromatogramm (Retentionszeiten, Signalformen)

Zielgrösse: Eine "hinreichend gute Trennung" (d.h. die Auflösung der beiden am wenigsten gut aufgelösten Signale)

Faktoren

Ziel-

grösse

Output

System

Irrelevante Einwirkungen

(6)

Vorbereitung der Optimierung

VOR der Optimierung müssen:

• eine Zielgrösse definiert werden

• der Bereich der Variablen definiert werden

• die Anzahl der Versuche festgelegt werden

• die Strategie festgelegt werden

(7)

Optimierungsmethoden

• Modellierung der Antwortfläche (Anpassung eines linearen Modells)

• Direkte Methoden (Simplex, ein Faktor das Mal)

• Erste Ableitungen (Box-Wilson Methode)

• Stochastische Optimierungsmethoden

(Simulated Annealing, Genetische Algorithmen)

(8)

Wahl der Optimierungsmethode

Je nach Problem und Vorinformation kann die eine oder andere Methode vorteilhaft sein

Gefahr lokaler Minima: Keine Methode garantiert das Auffinden des globalen Optimums

Modellierung der Antwortfläche: Vorteilhaft für die Feinoptimierung Stochastische Methoden: Vorteilhaft um globale Minima zu suchen

(9)

Modellierung der Antwortfläche

1. Das allgemeine lineare Modell zweiten Grades anpassen:

z.B. (für zwei unabhängige Variablen):

yi = bo + b1x1i + b2x2i + b11x1i2 + b22x2i2 + b12x1ix2i + ei 2. Erste Ableitung gleich null setzen:

z. B. dy/dx1 = b1 + 2 b11x1 + b12x2

= dy/dx2 = b2 + 2 b22x2 + b12x1 = 0 und für x1 und x2 lösen

3. Kontrollieren, dass alle zweiten Ableitungen das gleiche Vorzeichen haben (positiv für minima)

(10)

Hyperfläche mit Sattelpunkt

(11)

Modell mit Wechselwirkungsterm

(12)

Modell ohne Wechselwirkungsterm

(13)

1D- und 2D-Modell

(14)

Anzahl Parameter

Faktoren, n Parameter, (n+1)(n+2)/2

2 6*

3 10

4 15

5 21

*z. B. b o , b 1 , b 11 , b 2 , b 22 , b 12

(15)

Anzahl notwendiger Versuche

Die Anzahl anzupassender Parameter entspricht der minimalen Anzahl der notwendigen Versuche

Die Kombination der unabhängigen Variablen muss richtig ausgewählt werden Zusätzliche Versuche sind nötig, wenn die Messfehler abgeschätzt werden sollen und der "lack of fit" geprüft werden soll

--> Versuchsplanung

(16)

Anzahl notwendiger Versuche

n Messungen

f Faktorenkombinationen (verschiedne Kombinationen der unabhänigen Variablen)

p Modellparameter Resultieren:

n-f Freiheitsgrade für die Schätzung des Messfehlers

f-p Freihetisgrade für die Prüfung der Qualität des Modells

(17)

Versuchsplanung

Bestimmung der Kombination der Faktoren bei der man messen soll:

Faktorielle Pläne Zentraler Plan

Zentral zusammengesetzter Plan

"D-optimaler" Plan

(18)

Faktorielle Pläne

Stufen (verschiedene Werte der Faktoren): k Faktoren: n

Verlangt: k

n

Versuche (wird als k

n

-Plan bezeichnet) Faktoren n Stufen k Versuche k

n

2 2 4

2 3 9

3 2 8

3 3 27

4 2 16

4 3 81

Für ein quadratisches Modell müssen mindestens 3 Stufen vorliegen

(19)

2 3 Faktorieller Plan

Faktor 1 Faktor 2

Faktor 3

(20)

3 2 Faktorieller Plan

Faktor 1

Faktor 2

(21)

Zentraler Plan

Faktor 1

Faktor 2

Geeignet für die Anpassung von Modellen zweiten Grades ohne Wechselwirkungsterm

Faktor 1

Faktor 2

Faktor 3

(22)

Zentraler Plan: Anzahl Versuche

Faktoren n Versuche 2 n + 1

1 3

2 5

3 7

4 9

Modell zweiten Grades ohne Wechselwirkungsterme

(23)

Zentral zusammengesetzter Plan

Faktor 1

Faktor 2

Kombination eines zentralen Plans mit einem 2n faktoriellen Plan für die Anpassung von Modellen zweiten Grades mit Wechselwirkungstermen

Faktor 1

Faktor 2

Faktor 3

(24)

Zentral zusammengesetzter Plan

(25)

Zentral zusammengesetzter Plan

Faktoren n Versuche 2n + 2n +1 Parameter (n+1)(n+2)/2

2 9 6

3 15 10

4 25 15

Modell zweiten Grades mit Wechselwirkungstermen

(26)

D-Optimaler Plan

Ein Versuchsplan mit einer gegebenen Anzahl von Experimenten ist D-optimal, wenn die Determinante der Varianz-Kovarinazmatrix der Parameter (Det(XTX)-1) minimal ist.

Dies ist gelichbedeutend mit dem Kriterium, dass die Determinante der

"Informationsmatrix" (XTX) maximal sein soll da:

Det(XTX) = 1/Det(XTX)-1

Die oben diskutierten Pläne sind meist D-optimal. Der hier gezeigte

Zusammenhang erlaubt es aber, Pläne mit beliebiger Anzahl von Versuchen optimal zu gestalten.

(27)

Ein Faktor zur Zeit

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

0 0.2 0.4 0.6 0.8 1

(28)

Ein Faktor zur Zeit

8 9 10 11

7

Dielektrizitskonstante

78

76

74

72

pH G

F D E

C A B

(29)

Ein Faktor zur Zeit

8 9 10 11

7

Dielektrizitskonstante

78

76

74

72

pH G

F D

E

C A B

(30)

Schätzung der ersten Ableitung

Bei dieser Methode von Box und Wilson werden Versuche nach einem 2n

faktoriellen Plan durchgeführt und die Richtung der neuen Messungen (nicht aber die Schrittlänge) aufgrund der ersten Ableitung bestimmt:

x1 x2

x11 x12 x21

x22

x12 - x11 y3 + y4 - y1 -y2 x22 - x21 y2 + y4 - y1 -y3 k =

1 2

3 4

=1 für Quadrat

A

B

Steigung k:

(31)

Simplex

In einem N-dimensionalen Faktorenraum startet man mit N+1 Experimenten, jedes bei einer anderen Kombination der Faktoren. Die N+1 Punkte definie- ren den Startsimplex.

Aufgrund der Antworten errechnet man aus den Faktorenwerten des Startsimplex die Faktoren des nächsten Experiments. Dazu bestimmt man den Schwerpunkt "centroid" wie folgt: Von den N+1 Faktorenkombinationen wird diejenige mit der schlechtesten Antwort gestrichen. Der Durchschnitt der anderen Faktorenkombinationen definiert den Schwerpunkt.

Für die nächste Messung erhält man die Faktorenkombination durch Spiegelung der Faktorenwerte der schlechtesten Antwort über den Schwerpunkt. Die weiteren Schritte erfolgen nach dem gleichen Prinzip.

(32)

Simplex

Der Name der Methode "Simplex" bezeichnet den einfachsten

konvexen Polyeder eines Raumes gegebener Dimension (Dreieck bzw.

Tetraeder für zwei und drei Dimensionen).

• •

• •

Schlechtester Wert Neuer Messpunkt

• •

(33)

Simplex

(34)

Modifizierter Simplex

J.A. Nelder and R. Mead, A simplex method for function minimization, Computer Journal, 7, 308-313 (1965).

E. Morgan and K.W. Burton, Optimization using the super-modified simplex method, Chemom. Intell. Lab, Systems, 8, 97-107 (1990).

m w

b

n

2n

n/2 -n/2

Erste drei Messungen: b: best, m:

medium, w: weakest Neue Messung nach Standardverfahren bei n

(35)

Modifizierter Simplex

m w

b

n

2n

n/2 -n/2

Neuer Simplex

wenn m < n < b m n b

wenn b < n :

dann neue Messung bei 2n

wenn b < 2n m 2n b wenn 2n < b m n b

wenn w < n < m m n/2 b

wenn n < w m -n/2 b

(36)

Stochastische Optimierungsmethoden

Mit Einzelversuchen: Simulated Annealing Mit Populationen: Evolutonäre Algorithmen

Genetische Algorithmen

Vorteil: Lokale Minima können überwunden werden

Nachteil: Nahe zum Optimum nicht effizient --> Hybridmethoden Aber: Keine Methode kann das Auffinden des globalen Optimums garantieren!

(37)

Einzelversuche und Populationen

Optimierung mit Einzelversuchen

Optimierung mit Populationen

Faktorenwerte, Vektor, Chromosom, Individuum

Eltern Kinder

(38)

Simulated Annealing

1. Bei einer zufällig generierten Faktorenkombination (a) wird „gemessen“

(Antwort Ea)

2. Die Faktoren werden durch zufälligen Störungen verändert

3. Eine neue Faktorenkombination (n) wird mit der relativen Wahrscheinlichkeit P akzeptiert: P = 1 wenn En<Ea

P = e-(En-Ea)/c wenn En>Ea

c Temperaturparameter, wird während der Optimierung schrittweise verkleinert

4. Auswirkung: lokale Energieminima können überwunden werden. Durch die schrittweise Verkleinerung von c nimmt die Wahrscheinlichkeit, mit der ein schlechterer Wert akzeptiert wird, ab.

*Annealing: Glühen, Härten, Tempern

(39)

Genetische Algorithmen

Optimierung mit Populationen statt Einzelzuständen

Die Startpopulation wird durch zufällige Faktorenkombinationen erzeugt Die nächste Generation wird durch die genetischen Operationen erzeugt:

Cross-Over und Mutation

Die Wahrscheinlichkeit dafür, dass ein Individuum bei der Erzeugung der neuen Population zu den Eltern aufgenommen wird, hängt von seiner Qualität (Fitness) ab

Die Faktoren können binär kodiert oder auch reele Zahlen sein

(40)

Fitnessfunktion

Das Qualitätsmerkmal wird oft in eine Fitnessfunktion transformiert.

Einige übliche Transformationsfunktionen sind:

Die Fitnessfunktion kann während der Optimierung automatisch angepasst werden.

(41)

Selektionsmethoden

Roulettrad: Die Wahrscheinlichkeit der Selektion ist dem Fitness proportional Linear Ranking: Die Wahrscheinlichkeit der Selektion hängt von der Position in

der Rangliste ab

Truncation selection: Die besten n Individuen werden mit gleicher Wahrscheinlichkeit selektiert

Tournament selection: Es werden zufällig n Individuen ausgewählt, das beste von ihnen wird selektiert

(42)

Cross-Over

Beim Cross-Over werden gewisse zufällig ausgewählte Faktoren zwischen zwei für die Erzeugung eines Kindes ausgewählten Individuen

ausgetauscht

Single-point cross-over:

aaaaa|aaa aaaaabbb

|

bbbbb|bbb bbbbbaaa

Uniform cross-over

aaaaaaaa abaaabba

/ \ __ /-\_

bbbbbbbb babbbaab

The cross-over point is randomly chosen

For each parameter a parent is randomly selected. The second child is the opposite.

(43)

Mutation

Bei der Binärkodierung bedeutet die Mutation, dass an den zufällig ausgewählten Positionen 0 durch 1 und umgehehrt erstezt werden.

Bei reeller Kodirung, wird an die Faktoren bei den zufällig ausgewählten

Positionen jeweils eine Zufallszahl addiert. Der Bereich der Zufallszahlen soll der Aufgabe sinnvoll angepasst werden (z. B. -30 – +30 bei einer

Optimierung der Konformation).

(44)

Sharing

Es ist vorteilhaft, wenn ein Individuum einer Population nahe zum Optimum liegt und die anderen Individuen andere Teile der Suchfläche belegen:

Deshalb wird oft eine zusätzliche Mutation eingeschaltet, wenn ein neu erzeugtes Individuum zu ähnlich zu einem anderen ist.

Dadurch verhindert man, dass alle Individuen in die Nähe des gleichen Minimums kommen (premature convergence). Diese Strategie nennt man (etwas irreführend) "sharing" (sharing: teilend, gemeinsame Benutzung)

(45)

Generation gap, Elitism

Um die besten Individuen nicht zur verlieren, werden die n besten einer Population unverändert, d. h. ohne genetischen Operationen in die nächste Generation übernommen (normalerweise sollte n klein sein).

(46)

Flussschema eines GAs

Select parents

Cross-Over Mutation

Sharing

Population size reached ? Save best

chromosomes for new generation

no

yes

(47)

Auswahl von Wellenlängen, Literatur

(1) Wavelengths selection and optimization of pattern recognition methods using the genetic algorithm.

Smith, B. M.; Gemperline, P. J.

Anal. Chim. Acta 2000, 423, 167-177.

(2) Genetic algorithms as a tool for wavelength selection in multivariate calibration.

Jouan-Rimbaud, D.; Massart, D.-L.; Leardi, R.; De Noord, O. E.

Anal. Chem. 1995, 68, 4295-4301.

(3) Genetic algorithm-based wavelength selection for near infrared determination of glucose in biological matrices: Initialization strategies and effects of spectral resolution.

Ding, Q.; Small, G. W.; Arnold, M. A.

Anal. Chem. 1998, 70, 4472-79.

(48)

NIR Optimierung: Problemstellung

Optimierung der Zuordnung einer Probe zu verschiedenen Substanzgruppen. Von jeder Substganzgruppe liegt ein Satz von Spektren vor.

Vorgehen:

Hauptkomponentenanalyse und dann

entweder Mahalabonis-Distanz, des Spektrums von den Zentren der Spektren einzelner Gruppen, oder SIMCA: Summe der Fehlerquadrate zwischen dem Spektrum der der für die einzelnen Gruppen

vorausgesagten Spektren Zu optimieren:

Spektren oder ihre Derivate benützen?

Wieviele Hauptkomponenten benützen?

Mahalabonis oder Simca?

Welche Wellenlängen wählen?

Fragen: Wie sieht ein Chromosom aus?

Wie definiert man die Fitness-Funktion?

Wavelengths selection and optimization of pattern recognition methods using the genetic algorithm. Smith, B. M.; Gemperline, P. J. Anal. Chim. Acta 2000, 423, 167-177.

(49)

Wahl der Fitnessfunktion

Jedes Individuum (Chrmosom) beschreibt:

Rohspektren oder erste Derivate?

Mahalanobis oder Simca?

Anzahl Hauptkomponenten die berücksichtigt werden sollen?

Welche Wellenlängen werden berücksichtigt?

Mit jedem Individuum werden alle Testobjekte klassifiziert. Der Anteil der richtigen Zuordnung ist Pr und der falschen Zuordnung Pf. Die Fitnessfunktion ist dann:

Fitness = P

r2

+ (1 - P

f

)

2

Pr Pf Fitness

1 0 1.41421356

0.9 0.1 1.27279221 0.8 0.2 1.13137085 0.5 0.5 0.70710678 0.2 0.8 0.28284271 0.1 0.9 0.14142136

0 1 0 0

(50)

Auswahl von Wellenlängen

(51)

Fig. 4. Plot of scores 1 and 2 showing the complete separation of Avicel® PH101 and PH102 training set clusters using Maha- lanobis distance, derivative spectra, wavelength regions speci ed by Table 4, and four principal components.

Fig. 3. Plot of scores 1 and 2 of the Avicel® PH101 (x ) and PH102 (O) test sets t to the AvicelÆ PH101 training set model prior to optimization.

Abbildung

Fig. 4. Plot of scores 1 and 2 showing the complete separation of Avicel® PH101 and PH102 training set clusters using  Maha-lanobis distance, derivative spectra, wavelength regions speci ed by Table 4, and four principal components.

Referenzen

ÄHNLICHE DOKUMENTE

Der vierte findet sich schon im Stockholmer Cabinet (Cl. — Auch die Hamdaniden halten nur einen Repräsentanten, gepr. in Kufa 331, der sich in dem Upsalaer Cabinet befindet.

nicbt folgen zu können, da eine Form quainta, die doch eine wenn. auch kurze selbständige Existenz geführt haben müsste,

kis als Umbildung von ki scheitert daran, daß in diesem Fall auch andere wortscbließende k{i) zu kis hätten werden mUssen. Übrigens bleiben für den, der dieses ki-s anders

nimmt, daß es sie zerbricht oder zerschmettert. Gar nicht einleuchtend aber ist es, wenn auch ürmibhib plnvamänab sich auf das „rötliche Roß&#34;. beziehen soll. Oij)enbebo's

Hammerschmiclt (Hrsg.): Proceedings ofthe XXXII Intemational Congress for Asian and Nonh African Studies, Hamburg, 25th-30lh August 1986 (ZDMG-Suppl... in Los Angeles in

Wenn man eine Parenthese-Analyse für die Konstruktionen des Typs wer glaubst du hat recht nicht ausschließ en kann - und alle Argumente dagegen scheinen einer nä heren

Dabei wird von der Uberzeugung ausgegangen, daß die Bedürfnisse und Erwartungen der Mitarbeiter hinsicht- lich ihrer Arbeitsaufgaben nicht allein durch Geld und soziale

Als Nachteil dagegen muß angeführt wer- den, daß Verformungskörper nach dem Schubfeldprinzip nur einen gewissen Meß- bereich überstreichen können. Nach unten wird dieser