• Keine Ergebnisse gefunden

Vorlesung Einf¨uhrung in die Mathematische Optimierung (Wintersemester 2019/20)

N/A
N/A
Protected

Academic year: 2022

Aktie "Vorlesung Einf¨uhrung in die Mathematische Optimierung (Wintersemester 2019/20)"

Copied!
22
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Vorlesung Einf¨ uhrung

in die

Mathematische Optimierung (Wintersemester 2019/20)

Kapitel 3: Optimalit¨atsbedingungen f¨ur konvexe Optimierungsprobleme

Volker Kaibel

Otto-von-Guericke Universit¨at Magdeburg

(Version vom 21. Dezember 2019)

(2)

Gliederung

Konvexe Optimierungsprobleme

Radial- und Normalenkegel

Karush-Kuhn-Tucker Bedingungen

Verallgemeinerungen

(3)

Das Setup

I Konvexes Optimierungsproblem:

min{f(x) : x∈X}

I f :Rn→Rdifferenzierbare konvexe Zielfunktion

I Zul¨assige L¨osungen:

X =

x ∈X(0) : g(i)(x)≤0 f¨ur alle i ∈[m]

h(i)(x) = 0 f¨ur alle i ∈[p]

I X(0) ⊆Rn abgeschlossene konvexe Menge (einfache Struktur)

I g(1), . . . ,g(m):Rn→Rdifferenzierbare konvexe Funktionen

I h(1), . . . ,h(p):Rn→Raffine Funktionen

I Also: X abgeschlossene konvexe Menge

(4)

Radialkegel

Definition 3.1

F¨ur eine konvexe MengeX ⊆Rn undx? ∈X heißt

Kx?(X) := cone(X − {x?})

derRadialkegel (Kegel der zul¨assigen Richtungen) von X in x.

Beobachtung 3.2

Istx? ein innerer Punkt von X, so giltKx?(X) =Rn.

(5)

Normalenkegel

Definition 3.3

F¨ur eine konvexe MengeX ⊆Rn undx ∈X heißt

Nx?(X) := Kx?(X) derNormalenkegel von X in x?.

Beobachtung 3.4

Istx? ein innerer Punkt von X, so giltNx?(X) ={On}.

(6)

Radial- und Normalenkegel an Polyeder

F¨ur A∈Rm×n, b ∈Rm undx? ∈Rn mit Ax? ≤b:

EqAx≤b(x?) :={i ∈[m]| hAi,?,x?i=bi} ⊆[m]

Bemerkung 3.5

F¨urx? ∈P(A,b) ={x ∈Rn|Ax ≤b}(mit A∈Rm×n und b∈Rm) gilt:

Kx?(P(A,b)) = {y ∈Rn| hAi,?,yi ≤0 f¨ur alle i ∈EqAx≤b(x?)}

Nx?(P(A,b)) = ccone{Ai,?|i ∈EqAx≤b(x?)}

Insbesondere sind also Radial- und Normalenkegel an Polyeder polyedrisch.

(7)

Differenzierbare Optimierung ¨ uber konvexen Mengen

Satz 3.6

Seif :X →Reine differenzierbare Funktion auf einer konvexen MengeX ⊆Rn.

1. Nimmt f in x? ∈X ein lokales Minimum ¨uberX an, so ist

−gradx?f ∈Nx?(X).

2. Istf konvex und gilt −gradx?f ∈Nx?(X), so gilt

f(x?) = min{f(x)|x ∈X}.

(8)

Differenzierbare Optimierung ¨ uber konvexen Mengen

(9)

Satz 3.6 f¨ ur konvexe Zielfunktionen

Korollar 3.7

Die differenzierbare konvexe Funktionf nimmt inx? ∈X genau dann ihr (globales) Minimum ¨uber der konvexen MengeX an, wenn

−gradx?f ∈ Nx?(X) gilt.

(10)

Einige Normalenkegel

Lemma 3.8

F¨ur konvexe KegelK ⊆Rn und x?∈K ist

Nx?(K) ={y ∈K| hx?,yi= 0}.

Bemerkung 3.9

1. F¨ur allex?∈Rn+ ist

Nx?(Rn+) ={y ∈Rn|yi = 0 f¨ur alle i∈[n] mit xi? >0}.

2. F¨ur alleX?∈Sk+ ist

NX?(Sk+) ={Y ∈Sk| hX?,Yi= 0}.

Bemerkung 3.10

F¨ur konvexe KegelKi ⊆Rni (i ∈[r]) und (x(1), . . . ,x(r))∈K1× · · · ×Kr gilt

N(x(1),...,x(r))(K1× · · · ×Kr) = Nx(1)(K1)× · · · ×Nx(r)(Kr).

(11)

Das Setup

(X0,(gi)i∈[m],(hi)i∈[p])(f¨urm,p≥0) erf¨ulle:

I X0 ⊆Rn konvex

I gi :Rn→Rkonvex und differenzierbar (f¨uri ∈[m]).

I hi :Rn→Raffin (f¨uri ∈[p]).

Menge der zul¨assigen L¨osungen:

X ={x∈X0|gi(x)≤0 f¨ur alle i ∈[m],hi(x) = 0 f¨ur alle i ∈[p]}

MitGi :=gi−1(R)⊆Rn und Hi :=h−1i ({0})⊆Rn: X =X0∩T

i∈[m]Gi ∩T

i∈[p]Hi

(12)

Der Normalenkegel f¨ ur regul¨ are Tripel

Lemma 3.11

Falls(X0,(gi)i∈[m],(hi)i∈[p])regul¨ar ist:

Nx?(X) = Nx?(X0) +P

i∈[m]Nx?(Gi) +P

i∈[p]Nx?(Hi)

(X0,(gi)i∈[m],(hi)i∈[p])regul¨ar, falls:

1. Die Menge X0 ist ein Polyeder und die Funktioneng1, . . . ,gm sind affin oder

2. Die Menge X∩int(X0)ist nicht leer, und die Funktionen g1, . . . ,gm sind affin oder

3. Es gibt ein x(s)∈X mitx(s)∈int(X0) fallsp 6= 0, f¨ur das gi(x(s))<0 f¨ur alle i ∈[m] gilt (Slater-Bedingung).

(13)

Eine differenzierbare konvexe Nebenbedingung

Satz 3.12

Istg :Rn→Rdifferenzierbar und konvex und gibt es ein x(s) ∈Rn mitg(x(s))<0, so ist f¨ur alle x?∈Rn mit g(x?)≤0

Nx?(g−1(R)) =

(cone{gradx?g} falls g(x?) = 0 {On} falls g(x?)<0 .

-2 -1

0 1

2-2 -1 0 1 2

0 1 2 3 4

-2 -1

0 1

2

(14)

Karush-Kuhn-Tucker (differenzierbar, konvex) . . .

Voraussetzungen:

I f,g1, . . . ,gm:Rn→R konvex und differenzierbar

I h1, . . . ,hp:Rn→Raffin

I X0 ⊆Rn konvex

I (X0,(gi)i∈[m],(hi)i∈[p]) regul¨ares Tripel

I X ⊆Rn sei die Menge aller x∈X0 mit

I gi(x)0 f¨ur allei [m]und

I hi(x) = 0 f¨ur allei[p].

(15)

. . . Karush-Kuhn-Tucker (differenzierbar, konvex)

Satz 3.13

Ein Punktx? ∈X ist genau dann Optimall¨osung von min{f(x)|x ∈X},

wenn es Multipliziererλ1, . . . λm ∈R+ und µ1, . . . , µp∈Rmit

gradx?f +

m

X

i=1

λigradx?gi +

p

X

i=1

µigradx?hi ∈ −Nx?(X0) (1)

und

λi = 0 f¨ur alle i ∈[m]mit gi(x?)<0 (2) gibt.

(16)

KKT f¨ ur LP (1. Variante)

Satz 3.14 (Satz vom komplement¨aren Schlupf I)

SeienA∈Rp×n,b ∈Rp und c ∈Rn. Ein Punktx? ∈Rn+ mit Ax? =b ist genau dann Optimall¨osung von

min{hc,xi |Ax =b,x ∈Rn+}, wenn esµ∈Rp gibt mitµTA≤cT und

µTA?,j =cj f¨ur alle j ∈[n]mit xj?>0.

(17)

KKT f¨ ur LP (2. Variante)

Satz 3.15 (Satz vom komplement¨aren Schlupf II)

SeienA∈Rm×n,b ∈Rm undc ∈Rn. Ein Punkt x?∈Rn mit Ax? ≤b ist genau dann Optimall¨osung von

max{hc,xi |Ax ≤b,x ∈Rn}, wenn es einen Vektorλ∈Rm+ gibt mitλTA=cT und

λi = 0 f¨ur alle i ∈[m] mithAi,?,x?i<bi.

(18)

KKT f¨ ur SDP

Satz 3.16

SeienA(1), . . . ,A(p)∈Sk,b ∈Rk und C ∈Rk×k, und gebe es eine positiv definite symmetrische MatrixX(s)∈Sk mit

hA(i),X(s)i=bi f¨ur alle i ∈[p].

Eine MatrixX? ∈Sk+ mithA(i),X?i=bi f¨ur alle i ∈[p]ist genau dann Optimall¨osung von

min{hC,Xi | hA(i),Xi=bi f¨ur alle i ∈[p],X ∈Sk+}, wenn es einen Vektorµ∈Rp gibt mit

Y :=C −

p

X

i=1

µiA(i)∈Sk+ und hX?,Yi= 0.

(19)

Konvexe nicht-differenzierbare Probleme

I Sind f,g(1), . . . ,g(m):Rn→Rzwar konvex, aber (vielleicht) nicht differenzierbar, so gilt ein mit Hilfe von Subgradienten formulierbares Analogon von Satz 3.13.

I Z.B.: [Ruszczy´nski, Thm. 3.34]

I y ∈Rn Subgradientvonf inx? ∈Rn(d.h. y ∈SGRADx?(f)):

f(x) ≥ f(x?) +hy,x−x?i f¨ur allex ∈Rn

(20)

Karush-Kuhn-Tucker (konvex) . . .

Voraussetzungen:

I f :Rn→R∪ {∞}konvex

I g1, . . . ,gm :Rn→Rkonvex

I h1, . . . ,hp:Rn→Raffin

I X0 ⊆Rn konvex

I (X0,(gi)i∈[m],(hi)i∈[p]) regul¨ares Tripel

I X ⊆Rn sei die Menge aller x∈X0 mit

I gi(x)0 f¨ur allei [m]und

I hi(x) = 0 f¨ur allei[p].

I f stetig in wenigstens einem Punkt von X

(21)

. . . Karush-Kuhn-Tucker (konvex)

Satz 3.17

Ein Punktx? ∈X ist genau dann Optimall¨osung von min{f(x)|x ∈X},

wenn es Multipliziererλ1, . . . λm ∈R+ und µ1, . . . , µp∈Rmit

SGRADx?(f) +

m

X

i=1

λiSGRADx?(gi) +

p

X

i=1

µigradx?hi

∩(−Nx?(X0))6=∅

und

λi = 0 f¨ur alle i ∈[m]mit gi(x?)<0 gibt.

(22)

Differenzierbare nicht-konvexe Probleme

I Sind f,g(1), . . . ,g(m),h(1), . . . ,h(p):Rn→Rzwar stetig differenzierbar, aber (vielleicht) nicht konvex, so sind (unter geeigneten Regularit¨atsbedingungen) die KKT-Bedingungen in Satz 3.13notwendig f¨ur das Vorliegen eines lokalen

Minimums.

I Z.B.: [Ruszczy´nski, Thm. 3.25]

I Herleitung: Tangentialkegelstatt Radialkegel

Referenzen

ÄHNLICHE DOKUMENTE

Es ist m¨ oglich die Abgabe digital im PDF-Dateiformat (z.B: als Scan der hand- schriftlichen L¨ osungen) oder “physisch” auf Papier abzugeben. Die digitale Abgabe kann per Mail

Zudem beachten Sie, dass ein LP unzul¨ assig oder unbeschr¨ ankt sein kann, was von Ihrem Code erkannt werden soll. Die L¨ osungen dieser Aufgabe sollen per Email

Im Simplex-Algorithmus mit der Bland-Regel f¨ uhrt jeder Basiswechsel zu einer echten Verbesserung des Zielfunktionswerts der jeweils aktuellen Basisl¨ osung.. Die folgenden

Noch nicht einmal f¨ur LPs ¨uber einfachen Polytopen ist eine Regel bekannt, die polynomiale Laufzeit garantiert. Es gibt polynomiale Average-Case Garantien (f¨ur

Optimierungsproblemen nur (starke) Separationsorakel f¨ur die Polyeder der zul¨assigen L¨osungen, so kann man die LPs trotzdem in polynomialer Laufzeit l¨osen, sofern

Ein rationales Polyeder ist genau dann ganzzahlig, wenn jede seiner minimalen Seitenfl¨achen einen ganzzahligen Punkt enth¨alt. Beweise: Vorlesung

In beiden F¨ allen sollen f¨ ur das entsprechende LP nicht einfach Symbole f¨ ur Matri- zen/Vektoren, sondern einzelne (Un-)Gleichungen (quantifiziert mit “f¨

(1) Eine Variable, die gerade in die Basis (Gleichungsformat!) eingetreten ist, kann die Basis beim n¨ achsten Schritt wieder verlassen. (2) Falls keine Basisl¨ osung degeneriert