• Keine Ergebnisse gefunden

L¨osungsvorschlag zur Vorlesung

N/A
N/A
Protected

Academic year: 2022

Aktie "L¨osungsvorschlag zur Vorlesung"

Copied!
3
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Technische Universit¨at Darmstadt Fachbereich Mathematik

Prof. Dr. S. Ulbrich

Wintersemester 2009/10 Blatt 5

L¨osungsvorschlag zur Vorlesung

Nichtglatte Optimierung und Anwendungen

G13. Subdifferential des gr¨oßten Eigenwerts SeiSn={A∈Rn,n : A=AT}und

λmax :A∈Sn7→ max

kvk=1vTAv der gr¨oßte Eigenwert.

Unser Ziel ist der Nachweis, dass

∂λmax(A) ={W ∈Sn : W 0, spur(W) = 1, W •A=λmax(A)}.

Bemerkung:Es gilt spur(B−1AB) =spur(A)undA•B =spur(ABT).

Zeigen Sie:

a) SeiW ∈∂λmax(A). Dann muss geltenW •A=λmax(A).

Tip:λmax(tA) =tλmax(A)f¨ur allet≥0.

Die Subgradientenungleichung lautet

λmax(B)−λmax(A)≥W •(B−A) ∀B ∈Sn. F¨urB=tA,t≥0ergibt sich

λmax(tA)−λmax(A) = (t−1)λmax(A)≥(t−1)W •A ∀t≥0.

Einsetzen vont= 2undt= 0liefertλmax(A) =W •A.

b) SeiW ∈∂λmax(A). Dann gilt spur(W) = 1.Tip:BetrachteB=A+tI.

F¨urB=A+tIergibt sich

λmax(A+tI)−λmax(A) =t≥tW •I =tspur(W) ∀t.

Dies zeigt spur(W) = 1.

c) SeiW ∈ ∂λmax(A). Dann giltW •B ≤ λmax(B)f¨ur alleB ∈ Sn. Folgern Sie, dass W 0gelten muss.

Wegen a) liefert die Subgradientenungleichung

λmax(B)≥W •B ∀B ∈Sn.

W¨areW nicht positiv definit, dann existiertv ∈ Rn mitvTW v = W •(vvT) < 0. Die WahlB =−vvT ergibt nun den Widerspruch

0 =λmax(−vvT)≥ −vTW v >0.

(2)

d) Sei umgekehrtW ∈ SnmitW 0, spur(W) = 1, W •A = λmax(A). Zeigen Sie dass dann giltW •B ≤λmax(B)f¨ur alleB ∈Snund folgern SieW ∈∂λmax(A).Tip:

Nutzen SieW•B =spur(W B)Transformieren SieBauf Diagonalform und nutzen Sie die Eigenschaften der Spur.

Die Subgradientenungleichung ist ¨aquivalent zu

λmax(B)≥W •B ∀B ∈Sn.

Sei nunQorthogonal mitQTBQ=D=diag(λ1, λn). und setzeQTW Q= (mij)Dann giltmii≥0, daQTW Q0, und

spur(W) =spur(QTW Q) =X

i

mii= 1.

Weiter gilt

W •B =spur(W B) =spur(QTW QQTBQ) =spur(QTW QD)

=X

i

miiλi ≤λmax(B)X

i

miimax(B).

G14. Optimalit¨atsbedingungen f ¨ur nichtglatte restringierte Probleme Seif :Rn→Rkonvex undC⊂Rnnichtleer, abgeschlossen und konvex.

Der Tangentialkegel vonCinxist definiert als

TC(x) :={s∈Rn : ∃t >0 :x+ts∈C}.

Wir betrachten das Optimierungsproblem

minf(x) s.t. x∈C. (P)

Wir definieren die Indikatorfunktion χC(x) =

(0, x∈C

∞, x /∈C

F¨urx∈Cdefinieren wir analog wie bisher zuR-wertigen Funktionen

∂χC(x) ={g∈Rn : χC(y)−χC(x)≥gT(y−x) ∀y∈C}.

Zeigen Sie:

a) (P) is ¨aquivalent zu

minf(x) +χC(x).

b) Seix∈C. Dann gilt:

∂χC(x) ={g∈Rn : gTs≤0 ∀s∈TC(x)}.

⊂: Seig∈∂χC(x). Dann gilt

0≥gT(y−x) ∀y∈C.

Sei nuns∈Rnmitx+ts∈Cf¨ur eint >0. Dann folgt0≥gT(ts), alsogTs≤0. Aus Steigfkeitsgr¨unden gilt dies auch f¨ur den AbschlussTC(x)dieser Richtungen.

⊂: SeigTs≤0 ∀s∈TC(x). F¨ury /∈C ist die Subgradientenungleichung trivial. F¨ur y∈Cists=y−x∈TC(x)und daher gilt

gT(y−x)≤0 =χC(y)−χC(x).

(3)

c) Istx¯∈Coptimale L¨osung von (P), dann gilt:

∃g∈∂f(¯x) : gTs≥0 ∀s∈TC(¯x).

Bemerkung:Sie d¨urfen verwenden, dass inx¯die Summenregel f¨ur Subdifferentiale an- gewendet werden darf.

Es gilt

0∈∂(f +χC)(¯x) =∂f(¯x) +∂χC(¯x).

Es gibt alsog∈∂f(¯x)mit−g∈∂χC(¯x). b) ergibt nun die Behauptung.

In der Nichtlinearen Optimierung lautet die Optimalit¨atsbedingung v¨ollig analog:

¯

x∈C und ∇f(¯x)Ts≥0 ∀s∈TC(¯x).

d) Sei nunC := {x∈Rn : ci(x)≤0, i= 1, . . . , m}mit stetig differenzierbaren konve- xen Funktionen ci : Rn → R. Kann man unter einer Constraint Qualification aus c) analog zur Nichtlinearen Optimierung KKT-Bedingungen ableiten. Wie sehen sie aus?

Unter einer Constraint Qualification stimmen wie in der Nichtlinearen Optimierung der TangentialkegelTC(¯x)und der Linearisierungskegel

TL(¯x, c) =

s∈Rn : ∇ci(¯x)Ts≤0 ∀i∈ A(¯x)

¨uberein, wobeiA(¯x)die aktive Indexmenge bezeichnet. Anwendung des Farkas Lemmas liefert nun die KKT-Bedingungen: Es gibtg∈∂f(¯x)und¯λ∈Rmmit

c(¯x)≤0, g+∇c(¯x)¯λ= 0,

¯λ≥0, c(¯x)Tλ¯= 0.

Referenzen

ÄHNLICHE DOKUMENTE

F¨ur grosse m verl¨auft der zentrale Pfad also immer n¨aher entlang der x 2

Ändern Sie ihr Gradientenverfahren aus der ersten Übung so, dass bei der Wahl von stpsize = 2 die Powell-Wolfe-Schrittweite gewählt wird. Testen Sie Ihr Verfahren an den Funktionen

Berechnen Sie nun zunächst H k+1 DF P v, um die erste Gleichung zu zeigen.. Nutzen Sie ausserdem, dass H k+1 DF P die

d): Das Beispiel zeigt, dass sich das Verfahren nur im glatten Teil aufh¨alt und gegen den falschen

Technische Universit¨at Darmstadt Fachbereich

G13.. Kann man unter einer Constraint Qualification aus c) analog zur Nichtlinearen Optimierung

Aufgabe H3 (Exakte Penalty-Funktionen) Betrachte das Optimierungsproblem. min x

Hinweis: Die zus¨atzlichen Variablen y −1 und y n+1 aus (6) sind keine zus¨atzlichen Unbe- kannten, weil sie durch (6) festgelegt sind. Sie tauchen deshalb auch nicht im diskreten