• Keine Ergebnisse gefunden

5 OPTIMIERUNG UND PROZESSINTEGRATION

5.1 Optimierung

5.1.2 Optimierungsalgorithmen

5.1 Optimierung 97

~(

) ( ) (

) p p

p = f +ψ (5.8)

f

eingeführt, wodurch sich das Vektoroptimierungsproblem nach (5.1) und (5.2) bzw.

die Ersatzprobleme (5.6) und (5.7) zu

R I

P:= p∈ |g(p)=0,h(p)≤0,ppp

P f p f p f p ψ p

p = +

~( ) ( ) ( )

mit )

~( min

{

n u o

}

(5.9)

verändern. Der Strafterm kann verschiedenartig gestaltet werden. So kann er konstant oder abhängig von der Art und Weise der Verletzung sein, jedoch immer so hoch, dass er die Ersatzzi erklich verändert. Viele Algorithmen bewerten

nwender erieren sich einen zufälligen Anfangsentwurf.

Ausgehend von dieser Anfangslösung teilen sich die Optimierungsalgorithmen in

e der Ableitung einer Funktion

) (p ψ

elfunktion m

den Entwurf durch Verwendung einer derartigen Ersatzzielfunktion ~( ) p f .

k k

k p s

p +1= +ς (5.11)

zu verringern, wobei ς ≥0 eine skalare Schrittweite und der Richtungsvektor der Liniensuche ist. Damit für

sk

≥0

ς Lösungen existieren, d.h. kleinere Gütefunktionswerte gefunden werden können, muss der Anstieg von

an der Stelle )) ( ( k+1 ς f p ))

( ( k+1 ς

f p ς =0 negativ sein und damit die Suchrichtung in We

Bereich

sk

Richtung des Abstiegs weisen. Das Suchen in Richtung der ermittelten Richtung wird solange durchgeführt, bis sich die rte der Gütefunktion nur noch in einem vorgegebenen kleinen μ verändern, d.h. es gilt

μ

+ )− ( ) ( k 1 f k

f p p . (5.12)

Ist (5.12) erfüllt, wird die Liniensuche abgebrochen und eine neue Suchrichtung bestimmt. Dieser Vorgang wird solange wiederholt, bis Bedingung (5.12) Die Steuerung der Schrittweitengröße

+1

sk

erfüllt ist.

ς bzw. deren Steuerung kann nach verschiedenen Methoden vorgenommen werden. Eine Möglichkeit ist, durch Vergrößerung von ς zunächst ein Minimum zwischen Ursprung und aktuel Funktionswert einzuschließen und anschließend das so entstandene Intervall zu unterteilen, um eine akzeptable Parameterkombination zu finden, (Bestle, 1994). Wie bereits erwähnt, werden bei gradientenbasierten Verfahren für die Suchrichtung durch Ableitungen ermittelte Informationen herangezogen sk =−Gkf(pk), wodurch sich die allgemeine Liniensuche nach

lem

(5.11) zu

(

( )

)

1 k k k

k p G f p

p + = −ς ∇ (5.13)

verändert, mit Gk als positiv definite Matrix und als Gradient für . Die Matrix kann sowohl die Einheitsmatrix als auch die invertierte zweiten Ableitung der Zielfunktion in Form der Hessematrix sein, was (5.13) modifizi

) ( k f p

pk

Gk

) ( k f p

∇∇ ert:

(

( ) 1 ( )

)

1 k k k

k p f p f p

p + = ς ∇∇ ∇ . .14)

Ersteres, d.h.

− (5

(

( )

)

1 k k

k p f p

p + = −ς ∇ kommt bei der Methode des stärksten Abstiegs zur Anwendung, letzteres wird als Newton-Verfahren bezeichnet und zeichnet sich durch eine schnelle Konvergenz besonders in der Nähe des Optimums aus. Nachteil des Newton-Verfahrens ist die Bildung der ersten und zweiten Ableitung sowie die

ertierung der Hessem

numerische Inv atrix, (Kost, 2003).

5.1 Optimierung 99

Gradientenbasierte Verfahren steuern durch die Abstiegseigenschaft auf das nächstgelegene Minimum zu, wodurch sie für die Suche nach einem globalen Optimum nicht geeignet sind. Weiterhin reagieren die oben genannten Verfahren sensibel auf relativ kleine Funktionswertänderungen, was nachteilig sein kann, wenn

erfahren und bilden eine Klasse von Verfahren, die sich die biologische Evolution aus der Natur zum Vorbild nehmen. Nach Gerdes et al. (2004)

• genetische Programmierung.

Allen drei Hauptrichtungen liegt das gleiche Grundprinzip zugrunde: nachdem ein

Problem ugen die evolutionären

Alg t s zufällig gewählten Entwurfsparametersätzen, den Individuen. Von dieser Startpopulation ausgehend werden schrittweise neue nicht sichergestellt ist, dass diese Änderungen nur von einem neuen Entwurfsparametersatz abhängen und nicht durch äußere Phänomene bedingt werden.

Beispielsweise sind Funktionswerte aus einer FE-Analyse vom erzeugten Netz abhängig. In diesem Fall kann das gradientenbasierte Verfahren eine Netzoptimierung statt eine Suche nach dem physikalischen Optimum bewirken. Zudem können diese Optimierungsverfahren nur dann für die Mehrzieloptimierung eingesetzt werden, wenn das Optimierungsproblem mit Hilfe der bereits erläuterten Verfahren skalarisiert wird.

Im Unterschied dazu können mit Hilfe von Evolutionären Algorithmen echte Mehrzieloptimierungen durchgeführt werden. Sie gehören zur Gruppe der stochastischen V

können drei Hauptrichtungen innerhalb der evolutionären Algorithmen unterschieden werden:

• Evolutionsstrategien,

• genetische Algorithmen und

und die Zielfunktionen definiert sind, erze ori hmen eine Startpopulation au

Parametersätze bzw. Populationsmitglieder erzeugt, indem aus einer vorhandenen Generation Individuen ausgewählt werden, die als Elternpopulation Nachkommen, d.h. eine Kinderpopulation, zeugen. Bei der Generierung der Kinderpopulation kommen die Kreuzung (auch Crossover genannt), die zwei Individuen miteinander kreuzt bzw. kombiniert, und die Mutation, die eine zufällige Änderung an einem Individuum vornimmt, als genetische Operationen zur Anwendung, Bild 5.6. In die nächste Elterngeneration werden in der Regel immer nur die besten Individuen übernommen, was dem Selektionsmechanismus „der Stärkere überlebt“ (englisch:

„survival of the fittest“) entspricht. Dies kann sowohl ein Individuum aus der vorherigen Elternpopulation als auch aus der daraus erzeugten Kinderpopulation sein.

Im Allgemeinen werden im Laufe der Generationen immer bessere Lösungen gefunden und der Algorithmus konvergiert, d.h. einzelne Individuen bilden die Gruppe der nichtdominierten (bzw. dominierenden) Lösungen. Trotz dieser Gemeinsamkeiten im Grundprinzip unterscheiden sich die drei Hauptrichtungen in ihrem Ursprung und in Details. Durch die ständige Weiterentwicklung der genetischen Algorithmen und Evolutionären Strategien ist heute eine harte Unterscheidung allerdings kaum mehr möglich.

Eltern

Kreuzung

Kinder

Mutation

Evaluation (Fitness) Entfernen

Die Evolutionsstrategien und deren Einsatz in der numerischen Optimierung wurden zuerst von Rechenberg (1964) veröffentlicht. Im Rahmen seines Vortrages konnte er vorführen, wie sich eine Gelenkplatte im Windkanal evolutiv zur Form des geringsten Widerstands entwickelte. Hans-Paul Schwefel griff die Ansätze für Evolutionsstrategien auf und entwickelte diese zuerst allein am Beispiel einer Zwei-Phasen Überschalldüse (1968) und anschließend unter Rechenberg weiter. Die biologische Evolution dient für die Evolutionsstrategien nur als Wegweiser und Richtungsgeber. Die verwendeten Parameter können sowohl reell als auch diskret im Parametervektor vorliegen. Frühe Evolutionsstrategien verwenden hauptsächlich die Mutation und die Selektion. Bei der Selektion wird der bessere ausgewählt oder,

Bild 5.6: Prinzipieller Ablauf eines Evolutionszyklus Selektion

5.1 Optimierung 101

wenn es kein besseres Individuum gibt, entscheidet der Zufall. Für weitergehende Informationen wird auf die Literatur von Rechenberg (1973, 1994) und Schwefel (1975, 1995) verwiesen.

Genetische Algorithmen gehen auf Holland (1975) und De Jong (1975) zurück, wobei letzterer diese zum ersten Mal für Optimierungsprobleme einsetzte. Im Unterschied zu den Evolutionsstrategien arbeitet der genetische Algorithmus ursprünglich mit

auf die Parameteroptimierung konzentrieren, steht bei der genetischen Programmierung die

weise von genetischen Algorithmen wurde in Kapitel 5.1.2 bereits beschrieben, jedoch sollen die wichtigsten Bausteine wie Fitnessfunktion,

io ren Kreuzung und Mutation näher betrachtet

und dieses aus Genen, d.h. Gene stellen einzelne Teilstücke eines Chromosoms dar, Bild

ensetzen. Sie dient der Bewertung der einzelnen Individuen und ist entscheidend für die Überlebenswahrscheinlichkeit bzw. Selektionswahrscheinlichkeit der Individuen.

binärer Kodierung, das bedeutet, dass der Parametervektor bzw. das Individuum durch Bitstrings kodiert ist. Als genetische Operationen wird auf Kreuzung und Mutation zurückgegriffen, wobei der Schwerpunkt bei der Kreuzung liegt.

Die genetische Programmierung ist vor allem von Koza (1990) entwickelt worden. Im Vergleich zu den anderen beiden Richtungen, die sich nur

Entwicklung von optimalen Strategien in Form von einfachen Computerprogrammen im Vordergrund, (Gerdes et al., 2004). Im Folgenden sollen die genetischen Algorithmen und der, in der vorliegenden Arbeit angewendete Algorithmus NSGA-II näher betrachtet werden.

5.1.3 Der genetische Algorithmus