• Keine Ergebnisse gefunden

Vorlesung Einf¨uhrung in die Mathematische Optimierung (Wintersemester 2019/20)

N/A
N/A
Protected

Academic year: 2022

Aktie "Vorlesung Einf¨uhrung in die Mathematische Optimierung (Wintersemester 2019/20)"

Copied!
43
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Vorlesung Einf¨ uhrung

in die

Mathematische Optimierung (Wintersemester 2019/20)

Kapitel 7: Polynomiale Algorithmen f¨ur Konvexe Optimierungsprobleme

Volker Kaibel

Otto-von-Guericke Universit¨at Magdeburg

(Version vom 30. Januar 2020)

(2)

Gliederung

Die Ellipsoid-Methode Ellipsoide

Die Methode

Komplexit¨atsresultate

Innere-Punkte Verfahren

Grundidee und zentrale Fragen

Selbst-konkordante Barrier-Funktionen Der zentrale Pfad

Die Short-Step Barrier Methode Erweiterungen

(3)

Wiederholung: Ellipsoide

Definition

IstQ ∈Rn×n symmetrisch und positiv definit, und istz ∈Rn, so heißtEll(z,Q) :={x ∈Rn : (x−z)TQ−1(x−z)≤1} ein Ellipsoid(mit Zentrum z). F¨ur!∈R,!>0, heißt

B(z,!) := Ell(z,!2In) der Ballum z mit Radius!.

Affine Transformationen von Einheitsb¨allen

IstC eine Matrix, deren Spalten bis auf Skalierung mit den Quadratwurzeln der jeweiligen Eigenwerte eine aus Eigenvektoren vonQ bestehende Orthonormalbasis vonRn bilden, so ist

Ell(z,Q) = C ·B(On,1) +z .

(4)

Das L¨owner-John Ellipsoid eines konvexen K¨orpers

Definition 7.1

Einkonvexer K¨orper in Rn ist eine kompakte konvexe Teilmenge vonRn, die einen Ball (mit Radius !>0) enth¨alt.

Satz 7.2

f¨ur jeden konvexen K¨orperK ⊆Rn gibt es ein eindeutig

bestimmtes Ellipsoid (dasL¨owner-John-EllipsoidLoew(K)⊆Rn vonK) minimalen Volumens unter allen Ellipsoiden, die K

enthalten. Es gilt:

z+1n(Loew(K)−z) ⊆ K ⊆ Loew(K), wobeiz der Mittelpunkt vonLoew(K) sei.

Beweis z.B. in: Danzer, Gr¨unbaum, Klee,Helly’s theorem and relatives, in: V. Klee,Convexity. AMS 1963, S. 101–180.

(5)

L¨owner-John Ellipsoide abgeschnittener Ellipsoide

Satz 7.3

SeienQ ∈Rn×n symmetrisch und positiv definit,z ∈Rn und a∈Rn\On}. Dann ist

Loew!

Ell(z,Q)∩H(a,〈a,z〉)"

= Ell(z,Q) mit

z = z−n+11 b und Q = n2n21

!Q−n+12 bbT"

, wobeib= √1

aTQaQa ist.

Beweis: Abschnitt nach Theorem 3.1.9 in [Gr¨otschel, Lovasz, Schrijver]

(6)

Volumenreduktion

Satz 7.4

SindQ ∈Rn×n symmetrisch und positiv definit,z ∈Rn und a∈Rn\ {On}, so ist

Vol! Loew!

Ell(z,Q)∩H(a,〈a,z〉)""

Vol!

Ell(z,Q)" < e1/(2n)1 < 1.

Beweis: Lemma 3.1.34 in [Gr¨otschel, Lovasz, Schrijver]

(7)

Die “ideale” Ellipsoid-Methode

◮ Seien K ⊆Rn ein konvexer K¨orper undz(0) ∈Rn,R>0 mit K ⊆E(0) := B(z,R) sowie ε>0.

◮ Definiere rekursiv eine (endliche) Folge E(1), . . . ,E(k)⊆Rn von Ellipsoiden mit Zentren z(1), . . . ,z(k) wie folgt:

1. Fallsz(i)K oder volE(i)<ε: Setzek :=i (Stop) 2. Sonst: W¨ahle ein beliebiges aRn mitK H(a,a,z(i))

(existiert nach Satz 2.15) und definiere E(i+1) := Loew!

E(i)H(a,a,z(i))"

.

◮ Wegen Satz 7.4 istvolE(i) ≤e2ni volE(0) ≤ e2ni (2R)n

◮ Also ist die Folge in der Tat endlich mit

k ≤ 2 ln(2R)n2+ (2 ln1ε)n+ 1.

(8)

Bin¨arsuche

◮ Ein Zul¨assigkeitsproblem ist die Aufgabe, zu entscheiden, ob eine gegebene Menge X ∈Rn leer ist, und falls X ∕=∅ ein beliebiges x ∈X zu bestimmen.

◮ Sind X ⊆Rn,f :X →Rund L,U ∈R mit L ≤ min{f(x) : x ∈X} ≤ U gegeben, so kann man mit Hilfe einer Folge von Zul¨assigkeitsproblemen das Optimierungsproblem approximativ l¨osen.

◮ Solange U−L noch nicht klein genug ist:

{x ∈Rn : x∈X,f(x)≤ L+U2 }

#=∅ :L←(L+U)/2

∕=∅ :U ←(L+U)/2

◮ “Ideale” Ellipsoid-Methode: Approximative L¨osung konvexer Zul¨assigkeitsprobleme

(9)

Algorithmische Repr¨asentation konvexer K¨orper

Definition 7.5

Ein(starkes) Separationsorakel f¨ur eine konvexe MengeX ⊆Rn ist ein Algorithmus, der f¨ur jedesy∈Qnentscheidet, oby ∈X ist, und fallsy ∕∈X eina∈Qn und β ∈Q bestimmt mit:

X ⊆ H(a,β) aber 〈a,y〉>β

◮ P ={x ∈Rn : Ax ≤b} Polyeder mit explizit gegebener Matrix A∈Qm×n und Vektorb∈Qm: Implementation eines Separationsorakels mittels Ausrechnen vonAy und Vergleich mit b.

(10)

Algorithmische Repr¨asentation konvexer K¨orper

Definition 7.6

F¨ur eine konvexe MengeX ⊆Rn undε>0 definiere X[ε] := {y∈Rn : ||y−x||≤εf¨ur ein x∈X} und

X[ε] := {x ∈X : x+ B(On,ε)⊆X} .

Definition 7.7

Einschwaches Separationsorakelf¨ur eine konvexe

MengeX ⊆Rn ist ein Algorithmus, der f¨ury ∈Qn und ε∈Q (ε>0) feststellt, dassy ∈X[ε] ist oder eina∈Qn mit,a,= 1 bestimmt, f¨ur dasX[ε]⊆H(a,〈a,y〉+ε) ist.

(11)

Das schwache Optimierungsproblem

Definition 7.8

Dasschwache (konvexe) Optimierungproblem ist die Aufgabe, f¨ur einen konvexen K¨orperK ⊆Rn,c ∈Qn und ε∈Q(ε>0) einen Punktx" ∈Qn zu bestimmen mit x"∈K[ε] und

〈c,x〉 ≤ 〈c,x"〉+ε f¨ur alle x∈K[−ε], oderK[ε]=∅festzustellen.

◮ x" ist also fast inK und maximiert〈c,x〉 fast ¨uberK[ε].

◮ Minimieren von〈c,x〉 via Maximieren von〈−c,x〉

◮ Konvexe Zielfunktionf:

K˜ :={(x,ζ)∈Rn+1 : x ∈K,f(x)≤ζ} ist konvex mit min{f(x) : x ∈K} = min{ζ : (x,ζ)∈K˜} .

(12)

Kodierungsl¨angen

Definition 7.9

Wir definieren folgendeKodierungsl¨angen 〈·〉 f¨ur rationale Zahlen, Vektoren und Matrizen:

◮ F¨ur n∈Z:〈n〉:= 1 +⌈log2(|n|+ 1)⌉

◮ F¨ur r ∈Q:〈r〉:=〈p〉+〈q〉, wobei r = pq mitp,q∈Z teilerfremd,q >0

◮ F¨ur a∈Qn:〈a〉:=$n i=1〈ai

◮ F¨ur A= (aij)∈Qm×n:〈A〉:=$m i=1

$n j=1〈aij

(13)

Komplexit¨atsresultate f¨ur konvexe Minimierung

Satz 7.10

Es gibt einen Algorithmus und eine Polynomfunktionp, der das schwache Optimierungsproblem f¨ur durch schwache

Separationsorakel gegebene konvexe K¨orper mit h¨ochstens

p(〈c〉+〈ε〉+〈R〉) Orakelaufrufen und Rechenschritten l¨ost. Dabei istK ⊆Rn und R∈Qeine positive Zahl mit K ⊂B(On,R), die dem Algorithmus ¨ubergeben werden muss;c ∈Qn und ε>0 sind wie in Def. 7.8.

◮ Corollary 4.2.7 in [Gr¨otschel, Lovasz, Schrijver]

◮ “Vern¨unftig gestellte” konvexe Minimierungsprobleme (konvexe Zielfunktion ¨uber konvexer Menge) k¨onnen also in polynomialer Zeit approximativ gel¨ost werden.

◮ Insbesondere: Semidefinite Optimierungsprobleme

(Trennhyperebene f¨ur nicht positiv-semidefinite symmetrische Matrizen aus Eigenvektor zu negativem Eigenwert)

(14)

Komplexit¨atsresultate f¨ur lineare Optimierung

Satz 7.11

Es gibt einen Algorithmus und eine Polynomfunktionq, der lineare Optimierungsprobleme

max{〈c,x〉 : Ax ≤b} (LP) f¨ur gegebeneA∈Qm×n,b∈Qm und c ∈Qn in durch

q(〈A〉+〈b〉+〈c〉) beschr¨ankter Laufzeitexakt l¨ost, d.h., eine Optimall¨osungx"∈Qn von (LP) bestimmt oder feststellt, dass (und ob) (LP) unzul¨assig oder unbeschr¨ankt ist.

◮ Theorem 6.4.9 in [Gr¨otschel, Lovasz, Schrijver]

◮ Der Beweis (Exakte L¨osung!) braucht Strukturresultate ¨uber Polyeder aus Kap. 5.

◮ Insbesondere: Lineare Optimierungsprobleme haben rationale Optimall¨osungen (wenn sie nicht unbeschr¨ankt oder

unzul¨assig sind).

(15)

Bemerkungen zur Ellipsoid-Methode

Bemerkung 7.12

Sind die UngleichungssystemeAx ≤b nicht explizit gegeben, sondern hat man f¨ur eine Klasse von linearen

Optimierungsproblemen nur (starke) Separationsorakel f¨ur die Polyeder der zul¨assigen L¨osungen, so kann man die LPs trotzdem in polynomialer Laufzeit l¨osen, sofern die Separationsorakel polynomiale Laufzeit haben (bez¨uglich der Kodierungsl¨angen der relevanten Problemdaten).

◮ Die Ellipsoid-Methode liefert f¨ur die komplexit¨atstheoretische Klassifikation von Optimierungsproblemen eminent wichtige Ergebnisse. . .

◮ . . . jedoch keine praktisch brauchbaren Algorithmen f¨ur die lineare oder konvexe Optimierung

◮ Technische Bedingung an die Orakel f¨ur Satz 7.10 und

Bem. 7.12: Die Kodierungsl¨ange der Ausgabe muss polynomial beschr¨ankt sein in der Kodierungsl¨ange der Eingabe.

(16)

Das Setup

◮ min{〈c,x〉 : x∈X}

◮ X ∈Rn: konvexe Menge,c ∈Rn

◮ (Konvexe Zielfunktion f :Rn→R:min{t : f(x)≤t,x ∈X})

0.2 0.4

0.6

0.8

0.2 0.4

0.6 0.8

0 2 4 6

0.2 0.4

0.6

0.8

0 0.2 0.4 0.6 0.8 1

0 0.2 0.4 0.6 0.8 1

Beispiel: min{〈c,x〉 : x ∈X},X = [0,1]2,c = (5,2)

(17)

Beispiel

◮ F¨ur η>0definiere fη : int(X)→R mittels:

fη(x) = η·〈c,x〉+!

−lnx1−lnx2−ln(1−x1)−ln(1−x2)"

0.2 0.4

0.6

0.8

0.2 0.4

0.6 0.8

20 40 60 80 100

0.2 0.4

0.6

0.8 0 0.2 0.4 0.6 0.8 1

0 0.2 0.4 0.6 0.8 1

◮ fη streng konvex, Minimum eindeutig in z(η)∈int(X)

◮ F¨ur großes η:z(η) in der N¨ahe einer Optimall¨osung von min{〈c,x〉 : x∈X}.

◮ Newton-Verfahren f¨ur fη zur Approximation vonz(η)

(18)

Verschiedene η

η= 0.1 η= 1 η= 10

◮ Wichtig f¨ur Newton-Verfahren: Start nah beiz(η)

◮ Ansatz: Folge η12< . . .

Bestimmeη0und Punktx(0) int(X)in der N¨ahe vonz0).

F¨urk >0: Bestimmeηk >ηk−1 und mache einen Newton-Schritt f¨urfηk vonx(k−1) zux(k)int(X).

(19)

Fragen

1. Welche Funktionen k¨onnen i.A. die Rolle von

−lnx1−lnx2−ln(1−x1)−ln(1−x2) spielen? (⇝ (selbstkonkordante) Barrier-Funktionen) 2. Konvergiert z(η)f¨ur η→ ∞ gegen eine Optimall¨osung?

3. Wie findet manη0 und x(0)?

4. Wie erreicht man, dass x(k) in int(X)ist? Wie groß darf ηk −ηk−1 sein, damit x(k) ebenfalls nah anz(ηk) ist (vorausgesetzt, dassx(k1) nah anz(ηk1) ist)?

5. Was heißt “nah”?

6. Wie groß muss k sein, damit (f¨ur vorgegebenes ε>0)

〈c,x(k)〉 −min{〈c,x〉 : x∈X}<ε ist?

7. Welche arithmetischen Operationen m¨ussen durchgef¨uhrt werden?

(20)

Intrinsische Skalarprodukte

Generalvoraussetzungen von jetzt an:

◮ D ⊆Rn offen und konvex

◮ f :D →Rzweimal stetig differenzierbar

◮ hessxf positiv definit f¨ur allex ∈D (f streng konvex) Definition 7.13

F¨ur jedesx ∈D sei 〈·,·〉x :Rn×Rn →R das durch

〈v,w〉x = 〈v,(hessxf)w〉=〈(hessxf)v,w〉=vT(hessxf)w definierte Skalarprodukt aufRn. Die von diesem Skalarprodukt induzierte Norm bezeichnen wir mit,·,x :Rn→R:

,v,x = %

〈v,v〉x

Deroffene Ball vom Radius!>0 bzgl. ,·,x um v ist Bx(v,!) = {w ∈Rn : ,w −v,x <!} .

(21)

Beispiele

(22)

Selbstkonkordante Funktionen

◮ D → n,x 2→hessxf ist stetig

◮ F¨ur allev ∈Rn\ {On} und f¨ur jedesx ∈D undε>0gibt es eine UmgebungU ⊆D von x mit:

1−ε ≤ ,v,x

,v,y ≤ 1 +ε f¨ur alle y ∈U

Definition 7.14

Die Funktionf heißt selbstkonkordant, wenn f¨ur alle x∈D gilt:

◮ Bx(x,1)⊆D und

◮ F¨ur alley ∈Bx(x,1)ist 1−,y−x,x ≤ ,v,x

,v,y ≤ 1

1− ,y−x,x f¨ur alle v ∈Rn\{On} (Literatur:strongly non-degenerateself-concordant function)

(23)

In der N¨ahe des Randes

Satz 7.15

Sindf selbstkonkordant und(x(k))k∈N eine Folge inD mit

klim→∞x(k)∈bd(D) ,

(mitbd(D) = cl(D)\D) so gelten

k→∞lim f(x(k)) =∞

und

klim→∞||gradx(k)f||=∞ .

Beweis: [Renegar, Thm. 2.2.9]

James Renegar, A Mathemtical View of Interior-Point Me- thods in Convex Optimization. MPS-SIAM Series on Op- timization , SIAM 2001.

(24)

Newton-Schritte

Definition 7.16 Wir bezeichnen mit

newx(f) := −(hessxf)−1gradxf ∈ Rn denNewton-Schritt f¨urf in x ∈D.

◮ Wir haben: newx(f) =On ⇔ gradxf =On

◮ Also wegen der Konvexit¨at von f:

Beobachtung 7.17

Ein Punktx∈D ist genau dann der Minimierer vonf (¨uberD), wennnewx(f) =Ongilt.

(25)

Absch¨atzungen f¨ur selbstkonkordante Funktionen

Satz 7.18

Sindf selbstkonkordant undx ∈D mitγ :=,newx(f),x <1, so istx =x+ newx(f)∈D und es gilt:

,newx(f),x ≤ ! γ

1γ

"2

.

Beweis: [Renegar, Thm. 2.2.4]

Satz 7.19

Sindf selbstkonkordant undx ∈D mitγ :=,newx(f),x14, so hatf einen eindeutigen Minimierer z ∈D, und es gilt

,x−z,x ≤ γ+ (1−γ)23 . Beweis: [Renegar, Thm. 2.2.5]

(26)

Barrier-Funktionen

Definition 7.20

Die Funktionf :D→R ist eine Barrier-Funktion, wenn sie selbstkonkordant ist und ihrKomplexit¨atswert

ϑf := sup{,newx(f),x : x∈D} < ∞ endlich ist.

Satz 7.21

Istf eine Barrier-Funktion mit Komplexit¨atsparameterϑf, so gilt

〈gradxf,y−x〉<ϑf f¨ur allex,y ∈D.

Beweis: [Renegar, Thm. 2.2.3]

(27)

Addition von Barrier-Funktionen

Satz 7.22

Sindf1 :Df1 →Rund f2 :Df2→R Barrier-Funktionen mit D:=Df1∩Df2 ∕=∅und Komplexit¨atsparametern ϑ1 bzw. ϑ2, so istf1+f2 :D→R eine Barrier-Funktion mitϑf ≤ϑ12. Beweis: [Renegar, Thm. 2.2.6 und 2.3.1]

Bemerkung 7.23

Durchf(x) :=−lnx wird eine Barrierfunktion auf

++:={x ∈R : x >0} definiert mitϑf = 1.

Korollar 7.24 Durchf(x) :=−$n

i=1lnxi ist eine Barrier-Funktion auf n++ mit ϑf ≤n definiert.

(28)

Barrier-Funktionen f¨ur Polyeder

Satz 7.25

Istf : ++⊆Reine Barrierfunktion und sind a∈Rn\ {On}, β∈R, so ist auch

fa,β : {x ∈Rn : 〈a,x〉<β}→R mit fa,β(x) =f(β− 〈a,x〉) eine Barrier-Funktion mitϑfa,β ≤ϑf.

Beweis: [Renegar, Theoreme 2.2.7 und 2.3.2]

Korollar 7.26

SindA∈Rm×n und b∈Rm so, dass

{x ∈Rn : Ax <b}= int(P(A,b)) ∕= ∅ ist, so istf : int(P(A,b))→Rmit

f(x) = −

&m i=1

ln(bi −Ai,"x) eine Barrier-Funktion mitϑf ≤m.

(29)

Affine Unterr¨aume

◮ Sei A⊆Rn affiner Unterraum.

◮ Affiner Isomorphismus A↔Rp liefert

Differenzierbarkeitsbegrifff¨ur Funktionen auf A

◮ ⇝ Begriffder Selbstkonkordanzvon auf (relativ offenen) Teilmengen von Adefinierten Funktionen

◮ Unabh¨angig von Wahl des Ismorphismus A↔Rp Bemerkung 7.27

Sindf eine Barrier-Funktion undA⊆Rn ein affiner Unterraum mitD∩A∕=∅, so ist die Einschr¨ankungf|A von f auf Aeine Barrier-Funktion aufD∩Amit ϑf|A ≤ϑf.

(Siehe [Renegar, Abschn. 2.2.1 und 2.3.1]) Korollar 7.28

SindA∈Rm×n und b∈Rm so, dass es ein x˜∈ n++ gibt mit A˜x =b, so ist durchf(x) :=−$n

i=1lnxi eine Barrier-Funktion aufrelint{x∈ n+ : Ax =b}mit ϑf ≤n definiert

(30)

Eine Barrier-Funktion f¨ur

k+

Satz 7.29

Die Funktionf : relint( k+)→R mitf(X) =−ln(detX) ist eine Barrier-Funktion mitϑf =k.

Beweis: [Renegar, Abschn. 2.2.1]

Korollar 7.30

SindA(1), . . . ,A(m)k,b∈Rm so, dass es eine positiv definite MatrixX˜ ∈ k gibt mit〈A(i),X˜〉=bi f¨ur alle i ∈[m], so definiert f(X) =−ln(det(X))eine Barrier-Funktion auf

relint{X ∈ k+ : 〈A(i),X〉=bi f¨ur alle i ∈[m]}

mitϑf ≤k.

(31)

Der zentrale Pfad

Generalvoraussetzungen von jetzt an:

◮ D ⊆Rn offen und konvex

◮ f :D →RBarrier-Funktion

◮ A⊆Rn affiner Unterraum (A=Rn m¨oglich)

◮ D =D∩A∕=∅ beschr¨ankt,X = cl(D)

◮ c ∈Rn,ω := min{〈c,x〉 : x∈X} Definition 7.31

F¨urη ∈ + definiere streng konvexe Funktionenfη :D →R durch fη(x) := η〈c,x〉+f(x)

f¨ur allex ∈D. Der Minimierer vonfη sei z(η)∈D. Derzentrale Pfadvon(fη)η + ist{z(η) : η∈ +}.

Beobachtung 7.32

Die intrinsischen Skaparprodukte bzgl. der Funktionenfη sind die intrinsischen Skalarprodukte bzgl.f; insbesondere sind allefη

selbstkonkordant.

(32)

Auf dem zentralen Pfad

◮ Es gilt: gradz(η)fη =On f¨ur alleη ∈ +

◮ Andererseits:gradz(η)fη =ηc + gradz(η)f

◮ Also: gradz(η)f =−ηc

◮ Wegen Satz 7.21 f¨ur alle y ∈D:〈gradz(η)f,y−z(η)〉<ϑf

◮ Also f¨ur alle y ∈D:〈c,z(η)〉 − 〈c,y〉< ϑηf Bemerkung 7.33

F¨ur alleη∈ +gilt〈c,z(η)〉 ≤ ω+1ηϑf. Insbesondere (Frage 2):

ηlim→∞〈c,z(η)〉=ω

Außerdem gilt f¨ur alley ∈Rn:

〈c,y〉 ≤ω+1ηϑf(1 +,y−z(η),z(η)) (Beweis: [Renegar, Abschnitt 2.4.1])

(33)

Der Short-Step Barrier Algorithmus

1. Bestimme eine IterationszahlK.

2. Bestimme η0 >0 und x(0)∈D mit ,newx(0)(fη0),x(0)19. 3. F¨ur k = 1, . . . ,K:

3.1 Setzeηk := (1 +81ϑ

fk−1. 3.2 Berechnenewx(k−1)(fηk)

3.3 Setzex(k) :=x(k−1)+ newx(k−1)(fηk)

Lemma 7.34 F¨ur allek gilt:

1. ,newx(k1)(fηk),x(k1) <1(also x(k)∈D f¨ur alle k) 2. ,newx(k)(fηk),x(k)19

Beweis: [Renegar, Abschnitt 2.4.2] (Fragen 4,5)

(34)

Analyse

◮ Nach Satz 7.19 also:

,x(k)−z(ηk),x(k)

1

9(89)3+ 3(19)2 (89)3 ≤ 1

6 .

◮ Definition der Selbstkonkordanz (mit x =x(k),y =z(η), v =x−y):

,x(k)−z(ηk),x(k)

,x(k)−z(ηk),z(ηk) ≥ 5 6

◮ Also f¨ur alle k:,x(k)−z(ηk),z(ηk)15

◮ Nach Bem 7.33 also:〈c,x(k)〉 ≤ω+η1k5f

Lemma 7.35

F¨urε>0und K ≥10√

ϑf ln0fε ist x(K)∈D mit

〈c,x(K)〉 ≤ω+ε.

(Frage 6)

(35)

Die Bestimmung von η

0

und x

(0)

◮ (Frage 3)

◮ newx(fη) =−η(hessxf)−1c+ newx(f)

◮ Ziel: Finde einx˜∈D mit,new˜x(f),x˜16 (Z)

◮ (newx˜(f) =On⇔ x˜ minimiertf ¨uber D)

◮ Dann setze:

η0 := 1

12,(hessx˜f)1c,x˜

◮ Dann ist ,newx˜(fη0),x˜121 +16 = 14

◮ F¨ur

x(0) := ˜x+ newx˜(fη) gilt dann wegen Satz 7.18 (mitγ = 14):

,newx(0)(fη0),x(0) ≤ '1/4 3/4

(2

= 1 9

(36)

Erreichen des Ziels (Z)

◮ Gegeben: Ein beliebiger Punkt x˜(0) ∈D

◮ Sei g :=−gradx˜(0)f

◮ F¨ur 0<ν ≤1:

Definieref˜ν:D Rviaf˜ν(x) :=νg,x+f(x)

Der Minimierer vonf˜ν seiz˜(ν)

◮ gradx˜(0)1=g+ grad˜x(0)f =On

◮ Also: z(1) = ˜˜ x(0) und newx˜(0)( ˜f1) =On

◮ Algorithmus:

1. := 0,ν0:= 1

2. Solange'new˜x(ℓ)(f)'˜x(ℓ) > 16 ist:

2.1 Inkrementiere 2.2 Setzeν:= (181

ϑfℓ−1

2.3 Berechnenewx˜(ℓ−1)(fν)

2.4 Setzex˜(ℓ):= ˜x(ℓ1)+ new˜x(ℓ−1)(fν)

◮ Analog zu Lemma 7.34 zeigt man f¨ur alle ℓ:

'newx˜(ℓ−1)( ˜fν)'x˜(ℓ−1) <1 (alsox˜(ℓ)D f¨ur alleℓ)

'newx˜(ℓ)( ˜fν)'x˜(ℓ) 19

(37)

Wie klein muss ν

werden?

◮ Gilt: newx˜(ℓ)( ˜fν) =−ν(hessx˜(ℓ)f)−1g + newx˜(ℓ)(f)

◮ Also (wegen ,newx˜(ℓ)( ˜fν),x˜(ℓ)19):

,new˜x(ℓ)(f),x˜(ℓ)19,(hessx˜(ℓ)f)1gradx˜(0)f,x˜(ℓ)

= 19 )

gradx˜(0)fT(hessx˜(ℓ)f)1gradx˜(0)f

Satz 7.36

Istf :D →Reine Barrier-Funktion, so gilt f¨ur allex,y ∈D: )

gradxfT(hessyf)1gradxf ≤ '

1 + 1

sym(x,D) (

ϑf

Beweis: [Renegar, Proposition 2.3.7]

(38)

Die Symmetrie von D

Definition 7.37

F¨urx ∈D sei L(x,D)die Menge aller affinen Geraden L⊆Amit x∈L. F¨ur L∈L(x,D) ist L∩D eine (offene) Strecke, die vonx in zwei Teile der L¨angenλ12 >0 geteilt wird; sei

r(L) := min{λλ12,λλ2

1}. DieSymmetrie von D bzgl. x ist sym(x,D) := inf{r(L) : L∈L(x,D)}.

(39)

Zur¨uck zu ν

◮ Also mit Satz 7.36:

,newx˜(ℓ)(f),x˜(ℓ)19

'1 + 1

sym(˜x(0),D) (

ϑf

◮ Daher gilt ,newx˜(ℓ)(f),x˜(ℓ)16, sobald ν≥'

18ϑf(1 + 1

sym(˜x(0),D))(−1 ist.

◮ Mit Ω:= sup{〈c,x〉 : x ∈D} kann man zeigen:

,(hessxf)1c,x ≤Ω−ω f¨ur alle x ∈D [Renegar, Abschnitt 2.4.1]

◮ Also

η0= 1

12,(hess˜xf)1c,x˜ ≥ 1 12(Ω−ω)

(40)

Das Ergebnis

Satz 7.38

F¨ur einen gegebenen Startpunktx˜(0)∈D und 0<ε<1 berechnet der Short-Step Barrier Algorithmus in

O(%

ϑf lnεsym(˜ϑxf(0),D))

Newton-Iterationen einen Punktx(K)∈D mit

〈c,x(K)〉−ω

−ω ≤ ε.

(41)

Arithmetischer Aufwand

◮ (Frage 7)

◮ Ein Newton-Schritt erfordert dabei die Berechnung von newx(fη) bzw. newx( ˜fν).

◮ Dahessxfη = hessxν = hessxf ist, muss in jedem Schritt f¨ur eing ∈Rn die L¨osungv ∈Rn eines linearen

Gleichungssystems(hessxf)v =g gefunden werden.

◮ Beispiel f(x) =−$m

i=1ln(bi− 〈Ai,",x〉),D= int(P(A,b)):

Sei∆(x)Rm×m die Diagonalmatrix mit

i,i= (bi− 〈Ai,%,x)−1

Dann isthessxf =∆(x)ATA∆(x).

ATApositiv semidefinit, also gibt es Cholesky-Zerlegung ATA=CCTmit oberer Dreiecksmatrix C.

Hat man die Cholesky-Zerlegung einmal berechnet, kann man danach in jeder Iteration das Gleichungssystem

(∆(x)C)(∆(x)C)T·z =g inO(n2)arithmetischen

Operationen l¨osen, um den Newton-Schrittz zu bestimmen.

(42)

Primal-duale Methoden f¨ur konische Probleme

◮ F¨ur f :D →Rdefiniertf"(u) =−inf{〈u,x〉+f(x) : x ∈D} die zuf konjugierte Funktion aufRn.

◮ Sind K ⊆Rn ein konvexer Kegel,D = int(K) und f eine Barrier-Funktion, so ist f" eine Barrier Funktion f¨urint(K).

◮ Primal-duale Methoden verfolgen die zentralen Pfade f¨ur primales und duales Problem simultan.

◮ Geschickte Schrittwahl (nicht Newton) durch Ausnutzen der dualen Informationen (z.B. Nesterov-Todd Richtungen)

◮ Sehr erfolgreich in der Praxis.

◮ Insbesondere: Stets aktuelle G¨utegarantie ¨uber dual zul¨assige L¨osung.

(43)

Komplexit¨atsresultate

◮ Lineare Optimierungsprobleme k¨onnen mit Barrier-Methoden in polynomialer Zeit exakt gel¨ost werden.

◮ F¨ur min{〈c,x〉 : Ax ≤b} h¨angt die Laufzeit polynomial von

〈A〉+〈b〉+〈c〉ab.

◮ Schwierigkeiten:

Wie findet man ¨uberhaupt einen zul¨assigen Punkt?

Wie findet man eine exakte L¨osung?

◮ Semidefinite Optimierungsprobleme (unter

Regularit¨atsannahmen) k¨onnen in polynomialer Zeit (approximativ) gel¨ost werden.

◮ Geeignete Varianten von Innere-Punkte Methoden sind (im Gegensatz zur Ellipsoid-Methode) praktisch effizient.

Referenzen

ÄHNLICHE DOKUMENTE

Es ist m¨ oglich die Abgabe digital im PDF-Dateiformat (z.B: als Scan der hand- schriftlichen L¨ osungen) oder “physisch” auf Papier abzugeben. Die digitale Abgabe kann per Mail

Im Simplex-Algorithmus mit der Bland-Regel f¨ uhrt jeder Basiswechsel zu einer echten Verbesserung des Zielfunktionswerts der jeweils aktuellen Basisl¨ osung.. Die folgenden

Noch nicht einmal f¨ur LPs ¨uber einfachen Polytopen ist eine Regel bekannt, die polynomiale Laufzeit garantiert. Es gibt polynomiale Average-Case Garantien (f¨ur

Ein rationales Polyeder ist genau dann ganzzahlig, wenn jede seiner minimalen Seitenfl¨achen einen ganzzahligen Punkt enth¨alt. Beweise: Vorlesung

Die aus Aufgabe 3 des letzten ¨ Ubungsblattes bekannte Formulierung f¨ ur Projektionen von Polyedern bildet u.a. das Bild

Das duale Problem soll in ¨ ahnlichem Stil formuliert sein wie das

In beiden F¨ allen sollen f¨ ur das entsprechende LP nicht einfach Symbole f¨ ur Matri- zen/Vektoren, sondern einzelne (Un-)Gleichungen (quantifiziert mit “f¨

(1) Eine Variable, die gerade in die Basis (Gleichungsformat!) eingetreten ist, kann die Basis beim n¨ achsten Schritt wieder verlassen. (2) Falls keine Basisl¨ osung degeneriert