Technische Universit¨at Darmstadt Fachbereich Mathematik
Prof. Dr. S. Ulbrich
Wintersemester 2009/10 Blatt 5
L¨osungsvorschlag zur Vorlesung
Nichtglatte Optimierung und Anwendungen
G13. Subdifferential des gr¨oßten Eigenwerts SeiSn={A∈Rn,n : A=AT}und
λmax :A∈Sn7→ max
kvk=1vTAv der gr¨oßte Eigenwert.
Unser Ziel ist der Nachweis, dass
∂λmax(A) ={W ∈Sn : W 0, spur(W) = 1, W •A=λmax(A)}.
Bemerkung:Es gilt spur(B−1AB) =spur(A)undA•B =spur(ABT).
Zeigen Sie:
a) SeiW ∈∂λmax(A). Dann muss geltenW •A=λmax(A).
Tip:λmax(tA) =tλmax(A)f¨ur allet≥0.
Die Subgradientenungleichung lautet
λmax(B)−λmax(A)≥W •(B−A) ∀B ∈Sn. F¨urB=tA,t≥0ergibt sich
λmax(tA)−λmax(A) = (t−1)λmax(A)≥(t−1)W •A ∀t≥0.
Einsetzen vont= 2undt= 0liefertλmax(A) =W •A.
b) SeiW ∈∂λmax(A). Dann gilt spur(W) = 1.Tip:BetrachteB=A+tI.
F¨urB=A+tIergibt sich
λmax(A+tI)−λmax(A) =t≥tW •I =tspur(W) ∀t.
Dies zeigt spur(W) = 1.
c) SeiW ∈ ∂λmax(A). Dann giltW •B ≤ λmax(B)f¨ur alleB ∈ Sn. Folgern Sie, dass W 0gelten muss.
Wegen a) liefert die Subgradientenungleichung
λmax(B)≥W •B ∀B ∈Sn.
W¨areW nicht positiv definit, dann existiertv ∈ Rn mitvTW v = W •(vvT) < 0. Die WahlB =−vvT ergibt nun den Widerspruch
0 =λmax(−vvT)≥ −vTW v >0.
d) Sei umgekehrtW ∈ SnmitW 0, spur(W) = 1, W •A = λmax(A). Zeigen Sie dass dann giltW •B ≤λmax(B)f¨ur alleB ∈Snund folgern SieW ∈∂λmax(A).Tip:
Nutzen SieW•B =spur(W B)Transformieren SieBauf Diagonalform und nutzen Sie die Eigenschaften der Spur.
Die Subgradientenungleichung ist ¨aquivalent zu
λmax(B)≥W •B ∀B ∈Sn.
Sei nunQorthogonal mitQTBQ=D=diag(λ1, λn). und setzeQTW Q= (mij)Dann giltmii≥0, daQTW Q0, und
spur(W) =spur(QTW Q) =X
i
mii= 1.
Weiter gilt
W •B =spur(W B) =spur(QTW QQTBQ) =spur(QTW QD)
=X
i
miiλi ≤λmax(B)X
i
mii=λmax(B).
G14. Optimalit¨atsbedingungen f ¨ur nichtglatte restringierte Probleme Seif :Rn→Rkonvex undC⊂Rnnichtleer, abgeschlossen und konvex.
Der Tangentialkegel vonCinxist definiert als
TC(x) :={s∈Rn : ∃t >0 :x+ts∈C}.
Wir betrachten das Optimierungsproblem
minf(x) s.t. x∈C. (P)
Wir definieren die Indikatorfunktion χC(x) =
(0, x∈C
∞, x /∈C
F¨urx∈Cdefinieren wir analog wie bisher zuR-wertigen Funktionen
∂χC(x) ={g∈Rn : χC(y)−χC(x)≥gT(y−x) ∀y∈C}.
Zeigen Sie:
a) (P) is ¨aquivalent zu
minf(x) +χC(x).
b) Seix∈C. Dann gilt:
∂χC(x) ={g∈Rn : gTs≤0 ∀s∈TC(x)}.
⊂: Seig∈∂χC(x). Dann gilt
0≥gT(y−x) ∀y∈C.
Sei nuns∈Rnmitx+ts∈Cf¨ur eint >0. Dann folgt0≥gT(ts), alsogTs≤0. Aus Steigfkeitsgr¨unden gilt dies auch f¨ur den AbschlussTC(x)dieser Richtungen.
⊂: SeigTs≤0 ∀s∈TC(x). F¨ury /∈C ist die Subgradientenungleichung trivial. F¨ur y∈Cists=y−x∈TC(x)und daher gilt
gT(y−x)≤0 =χC(y)−χC(x).
c) Istx¯∈Coptimale L¨osung von (P), dann gilt:
∃g∈∂f(¯x) : gTs≥0 ∀s∈TC(¯x).
Bemerkung:Sie d¨urfen verwenden, dass inx¯die Summenregel f¨ur Subdifferentiale an- gewendet werden darf.
Es gilt
0∈∂(f +χC)(¯x) =∂f(¯x) +∂χC(¯x).
Es gibt alsog∈∂f(¯x)mit−g∈∂χC(¯x). b) ergibt nun die Behauptung.
In der Nichtlinearen Optimierung lautet die Optimalit¨atsbedingung v¨ollig analog:
¯
x∈C und ∇f(¯x)Ts≥0 ∀s∈TC(¯x).
d) Sei nunC := {x∈Rn : ci(x)≤0, i= 1, . . . , m}mit stetig differenzierbaren konve- xen Funktionen ci : Rn → R. Kann man unter einer Constraint Qualification aus c) analog zur Nichtlinearen Optimierung KKT-Bedingungen ableiten. Wie sehen sie aus?
Unter einer Constraint Qualification stimmen wie in der Nichtlinearen Optimierung der TangentialkegelTC(¯x)und der Linearisierungskegel
TL(¯x, c) =
s∈Rn : ∇ci(¯x)Ts≤0 ∀i∈ A(¯x)
¨uberein, wobeiA(¯x)die aktive Indexmenge bezeichnet. Anwendung des Farkas Lemmas liefert nun die KKT-Bedingungen: Es gibtg∈∂f(¯x)und¯λ∈Rmmit
c(¯x)≤0, g+∇c(¯x)¯λ= 0,
¯λ≥0, c(¯x)Tλ¯= 0.