• Keine Ergebnisse gefunden

Seminarvortrag “Optimierungsmethoden in Banachräumen”

N/A
N/A
Protected

Academic year: 2022

Aktie "Seminarvortrag “Optimierungsmethoden in Banachräumen”"

Copied!
140
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

“Optimierungsmethoden in Banachräumen”

Klaus Eisentraut und Andreas Schmidt

5. Juli 2012

(2)

1 Einführung

2 Globale Konvergenz

3 Motivation für Newton-Verfahren

4 Newton-Verfahren in Banachräumen

(3)

Motivation

Gegeben sei das folgende Optimalsteuerungsproblem:

min

y∈H10(Ω) u∈L2(Ω)

J(y,u)≔ 1

2||y−yd||2

L2(Ω)

2||u||2L2(Ω)

s.t. Ay=u, βlu≤βr

(4)

Gegeben sei das folgende Optimalsteuerungsproblem:

min

y∈H10(Ω) u∈L2(Ω)

J(y,u)≔ 1

2||y−yd||2

L2(Ω)

2||u||2L2(Ω)

s.t. Ay=u, βlu≤βr wobei

yH10(Ω)Zustand

uL2(Ω)Steuerung

A : H10(Ω)→H−1(Ω)=(H01(Ω))linearer elliptischer Differentialoperator zweiter Ordnung, z.B.A=−∆

(5)

Motivation

Exkurs: Zum RaumH−1

Betrachte fH10(Ω)undφ∈H01(Ω)eine Testfunktion. Dann F(φ)≔−

Z

f · ∇φ= Z

(∆f )φ=(∆f, φ)H1

0(),H01()

mitF : H10(Ω)→R, alsof(H01(Ω))H−1(Ω).

Elemente ausH−1 müssen keine Funktionen mehr sein, z.B.

δ∈H−1(]−1; 1[), daH01(]−1; 1[)⊂C(]−1; 1[).

Elemente ausH−1 sind “noch(−1)-mal differenzierbar”, es sind

“einmal differenzierteL2-Funktionen”.

(6)

reduziertes Problem:

min

u∈L2(Ω)

1 2

A−1uyd

2

L2(Ω)+ α

2||u||2L2(Ω)=: ˆJ(u) s.t. βlu≤βr

(7)

Motivation

reduziertes Problem:

min

u∈L2(Ω)

1 2

A−1uyd

2

L2(Ω)+ α

2||u||2L2(Ω)=: ˆJ(u) s.t. βlu≤βr

→Minimierungsproblem im BanachraumL2(Ω)(hier sogar Hilbertraum)

(8)

Finde Klasse von global konvergenten Algorithmen für minw∈W f (w)

mit f : W →Rstetig Fréchet-differenzierbar.

(9)

Allgemeiner Algorithmus

Finde Klasse von global konvergenten Algorithmen für minw∈W f (w)

mit f : W →Rstetig Fréchet-differenzierbar.

Idee: Abstiegsmethoden, gehe iterativ "bergab"

(10)

Finde Klasse von global konvergenten Algorithmen für minw∈W f (w)

mit f : W →Rstetig Fréchet-differenzierbar.

Idee: Abstiegsmethoden, gehe iterativ "bergab"

→suche in jeder Iterationkeine Richtungskund eine Schrittweite σk>0:

f (wkksk)< f (wk) und

( f(wk),sk)W,W <0

(11)

Allgemeiner Algorithmus

Algorithm 1 Allgemeine Iterationsvorschrift für Absteigemethoden Wähle einen Initialisierungspunktw0W

fork=0,1, . . . do Falls f(wk)= 0, STOP.

Wähle Abstiegsrichtung skW : ( f(wk),sk)W,W <0. Wähle Schrittweiteσk>0so, dass f (wkksk)< f (wk). Setzewk+1 :=wkksk

end for

(12)

d

dt f wk+t sk

||sk||W t=0

(13)

Allgemeiner Algorithmus

Betrachte d

dt f wk+t sk

||sk||W

! t=0

= ( f(wk),sk)W,W

||sk||W .

(14)

d

dt f wk+t sk

||sk||W t=0

= ( f (wk),sk)W,W

||sk||W .

Definition

1 Zulässigkeit der Suchrichtungen

(15)

Allgemeiner Algorithmus

Betrachte d

dt f wk+t sk

||sk||W

! t=0

= ( f(wk),sk)W,W

||sk||W .

Definition

1 Zulässigkeit der Suchrichtungen ( f(wk),sk)W,W

||sk||W

k→∞−→ 0

(16)

d

dt f wk+t sk

||sk||W t=0

= ( f (wk),sk)W,W

||sk||W .

Definition

1 Zulässigkeit der Suchrichtungen ( f(wk),sk)W,W

||sk||W

k→∞−→ 0 ⇒ f

W

k→∞−→ 0

(17)

Allgemeiner Algorithmus

Betrachte d

dt f wk+t sk

||sk||W

! t=0

= ( f(wk),sk)W,W

||sk||W .

Definition

1 Zulässigkeit der Suchrichtungen ( f(wk),sk)W,W

||sk||W

k→∞−→ 0 ⇒ f

W

k→∞−→ 0

2 Zulässigkeit der Schrittweiten

(18)

d

dt f wk+t sk

||sk||W t=0

= ( f (wk),sk)W,W

||sk||W .

Definition

1 Zulässigkeit der Suchrichtungen ( f(wk),sk)W,W

||sk||W

k→∞−→ 0 ⇒ f

W

k→∞−→ 0

2 Zulässigkeit der Schrittweiten f (wkksk)< f (wk) ∀k,

f (wkksk)− f (wk)k→∞−→ 0 ⇒

(19)

Allgemeiner Algorithmus

Betrachte d

dt f wk+t sk

||sk||W

! t=0

= ( f(wk),sk)W,W

||sk||W .

Definition

1 Zulässigkeit der Suchrichtungen ( f(wk),sk)W,W

||sk||W

k→∞−→ 0 ⇒ f

W

k→∞−→ 0

2 Zulässigkeit der Schrittweiten f (wkksk)< f (wk) ∀k,

f (wkksk)− f (wk)k→∞−→ 0 ⇒ ( f(wk),sk)W,W

||sk||W

k→∞−→ 0.

(20)

Satz

Sei f eine stetig Fréchet-differenzierbare Funktion. Seien(wk),(sk) und(σk)generiert durch den Algorithmus 1. Weiterhin seien die Schrittweiten(σk)und die Suchrichtungen(sk)zulässig. Sei zudem( f (wk))nach unten beschränkt. Dann gilt:

k→∞lim f(wk)=0.

(21)

Allgemeiner Algorithmus

Beweis.

Sei f:=infk≥0 f (wk)>−∞.

(22)

Sei f:=infk≥0 f (wk)>−∞. Dann gilt wegen f (wkksk)< f (wk): f (wk)→ f.

(23)

Allgemeiner Algorithmus

Beweis.

Sei f:=infk≥0 f (wk)>−∞. Dann gilt wegen f (wkksk)< f (wk): f (wk)→ f.

Betrachte

f (w0)− f=

X

k=0

( f (wk)− f (wk+1))

=

X

k=0

|f (wkksk)− f (wk)|

(24)

Sei f:=infk≥0 f (wk)>−∞. Dann gilt wegen f (wkksk)< f (wk): f (wk)→ f.

Betrachte

f (w0)− f=

X

k=0

( f (wk)− f (wk+1))

=

X

k=0

|f (wkksk)− f (wk)|

Damit gezeigt: f (wkksk)− f (wk)k→∞−→ 0

(25)

Allgemeiner Algorithmus

Beweis.

Sei f:=infk≥0 f (wk)>−∞. Dann gilt wegen f (wkksk)< f (wk): f (wk)→ f.

Betrachte

f (w0)− f=

X

k=0

( f (wk)− f (wk+1))

=

X

k=0

|f (wkksk)− f (wk)|

Damit gezeigt: f (wkksk)− f (wk)k→∞−→ 0

( f(wk),sk)W,W

||sk||W

k→∞−→ 0 ⇒ f(wk)

W

k→∞−→ 0.

.

(26)

MitΦk(t)f (wk+tsk):

(27)

Allgemeiner Algorithmus

MitΦk(t)f (wk+tsk):

Φk(0)=( f(wk),sk)W,W

<! 0

andererseits Φk(0)=( f(wk),sk)W,W ≥ −kf(wk)kWkskkW

(28)

MitΦk(t)f (wk+tsk):

Φk(0)=( f(wk),sk)W,W

<! 0

andererseits Φk(0)=( f(wk),sk)W,W ≥ −kf(wk)kWkskkW Davon ausgehend erhalten wir die “Winkelbedingung”

( f(wk),sk)W,W ≤ −ηkf(wk)kWkskkW (1) für einη∈]0,1[.

(29)

Allgemeiner Algorithmus

MitΦk(t)f (wk+tsk):

Φk(0)=( f(wk),sk)W,W

<! 0

andererseits Φk(0)=( f(wk),sk)W,W ≥ −kf(wk)kWkskkW Davon ausgehend erhalten wir die “Winkelbedingung”

( f(wk),sk)W,W ≤ −ηkf(wk)kWkskkW (1) für einη∈]0,1[.

(30)

Lemma

Wenn die Suchrichtungen die Winkelbedingung ( f(wk),sk)W,W ≤ −ηkf(wk)kWkskkW

erfüllt, dann sind sie zulässig.

(31)

Allgemeiner Algorithmus

Lemma

Wenn die Suchrichtungen die Winkelbedingung ( f(wk),sk)W,W ≤ −ηkf(wk)kWkskkW

erfüllt, dann sind sie zulässig.

Beweis.

Es gilt

f(wk)

W ≤ −1 η

( f(wk),sk,sk)W,W

||sk||W

(32)

Wie können wir zulässige Schrittweitenσkerhalten?

(33)

Armijo Schrittweitenregel

Wie können wir zulässige Schrittweitenσkerhalten?

Wähle das größteσk∈ {1,12,14, . . .}:

f (wkksk)≤ f (wk)+ησk( f(wk),sk)W,W, η∈]0,1[.

(34)

Wähle das größteσk∈ {1,2,4, . . .}:

f (wkksk)≤ f (wk)+ησk( f(wk),sk)W,W, η∈]0,1[.

0 1 2 3 4 5 6

-1 -0.5 0 0.5 1 1.5 2 2.5 3

x

f(x)

(35)

Armijo Schrittweitenregel

Wie können wir zulässige Schrittweitenσkerhalten?

Wähle das größteσk∈ {1,12,14, . . .}:

f (wkksk)≤ f (wk)+ησk( f(wk),sk)W,W, η∈]0,1[.

0 0.5 1 1.5 2 2.5 3 3.5 4

0 0.5 1 1.5 2 2.5 3

x

f(1.5-x) f(1.5) - 0.1 x f’(1.5) f(1.5) - 0.8 x f’(1.5)

(36)

Lemma

Sei fgleichmäßig stetig aufN0ρ={w+s : f (w)f (w0),||s||W ≤ρ} für einρ >0. Dann gilt: für alleε >0existiert einδ >0so dass für allewkWmit f (wk)≤ f (w0)und alle skW mit

( f(wk),sk)W,W

||sk||W ≤ −ε

gilt:

f (wk+σsk)− f (wk)≤γσ( f(wk),sk)W,W σ∈[0, δ/||sk||W].

(37)

Armijo Schrittweitenregel

Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]:

(38)

Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]: f (wk+σsk)− f (wk)=σ( f(wkσsk),sk)W,W

(39)

Armijo Schrittweitenregel

Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]: f (wk+σsk)− f (wk)=σ( f(wkσsk),sk)W,W

≤σ( f(wk),sk)W,W+ σ

f(wkσsk)− f(wk)

W||sk||W

(40)

Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]: f (wk+σsk)− f (wk)=σ( f(wkσsk),sk)W,W

≤σ( f(wk),sk)W,W+ σ

f(wkσsk)− f(wk)

W||sk||W

=γσ( f(wk),sk)W,Wk(σ)

wobei

ρk(σ)≔(1−γ)σ( f(wk),sk)W,W

f(wkσsk)− f(wk)

W||sk||W.

(41)

Armijo Schrittweitenregel

Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]: f (wk+σsk)− f (wk)=σ( f(wkσsk),sk)W,W

≤σ( f(wk),sk)W,W+ σ

f(wkσsk)− f(wk)

W||sk||W

=γσ( f(wk),sk)W,Wk(σ)

wobei

ρk(σ)≔(1−γ)σ( f(wk),sk)W,W

f(wkσsk)− f(wk)

W||sk||W. Zeige nochρk(σ)≤0.

(42)

Wir wählenδ∈]0, ρ[so klein, dass gilt:

f(wkσsk)− f(wk)

W <(1−γ)ε, ∀σ∈[0, δ/||sk||W].

(43)

Armijo Schrittweitenregel

Wir wählenδ∈]0, ρ[so klein, dass gilt:

f(wkσsk)− f(wk)

W <(1−γ)ε, ∀σ∈[0, δ/||sk||W].

Die Wahl ist möglich, da||τσsk||W ≤σ||sk||W ≤δ.

(44)

Wir wählenδ∈]0, ρ[so klein, dass gilt:

f(wkσsk)− f(wk)

W <(1−γ)ε, ∀σ∈[0, δ/||sk||W].

Die Wahl ist möglich, da||τσsk||W ≤σ||sk||W ≤δ.Damit:

ρk(σ)=(1−γ)σ( f(wk),sk)W,W

f(wkσsk)− f(wk)

W||sk||W

≤ −(1−γ)εσ||sk||W+(1−γ)εσ||sk||W =0.

(45)

Armijo Schrittweitenregel

Die Zulässigkeit der Schrittweiten folgt aus dem folgenden Lemma

Sei fgleichmäßig stetig aufN0ρ={w+s : f (w)f (w0),||s||W ≤ρ} für einρ >0. Seien die Schritteσk durch die Armijoregel generiert und die Abstiegsrichtung nicht zu kurz im folgenden Sinn:

||sk||W ≥Φ −( f(wk),sk)W,W

||sk||W

! ,

wobeiΦ: [0,∞[→[0,∞[monoton steigend undΦ(t)>0für alle t>0. Dann sind die Schrittweitenσkzulässig.

Beweis.

Vgl. [1] Seite 102 f.

(46)

werden?

(47)

Abstiegsrichtung?

SeiWreeller Banachraum. Welche Abstiegsrichtung soll gewählt werden?

Allgemein: Wähle sk =tdsd,t>0,wobeidsd

||d||minW=1( f(w),d)W,W

löst.

(48)

werden?

Allgemein: Wähle sk =tdsd,t>0,wobeidsd

||d||minW=1( f(w),d)W,W

löst. Im Hilbertraum mitW=Wgilt:

(49)

Abstiegsrichtung?

SeiWreeller Banachraum. Welche Abstiegsrichtung soll gewählt werden?

Allgemein: Wähle sk =tdsd,t>0,wobeidsd

||d||minW=1( f(w),d)W,W

löst. Im Hilbertraum mitW=Wgilt:

||d||minW=1( f(w),d)W,W = min

||d||W=1(∇f (w),d)W,W

(50)

werden?

Allgemein: Wähle sk =tdsd,t>0,wobeidsd

||d||minW=1( f(w),d)W,W

löst. Im Hilbertraum mitW=Wgilt:

||d||minW=1( f(w),d)W,W = min

||d||W=1(∇f (w),d)W,W ≥ −||∇f (w)||W

(51)

Abstiegsrichtung?

SeiWreeller Banachraum. Welche Abstiegsrichtung soll gewählt werden?

Allgemein: Wähle sk =tdsd,t>0,wobeidsd

||d||minW=1( f(w),d)W,W

löst. Im Hilbertraum mitW=Wgilt:

||d||minW=1( f(w),d)W,W = min

||d||W=1(∇f (w),d)W,W ≥ −||∇f (w)||W

=h∇f (w),− ∇f (w)

||∇f (w)||Wi

W

(52)

werden?

Allgemein: Wähle sk =tdsd,t>0,wobeidsd

||d||minW=1( f(w),d)W,W

löst. Im Hilbertraum mitW=Wgilt:

||d||minW=1( f(w),d)W,W = min

||d||W=1(∇f (w),d)W,W ≥ −||∇f (w)||W

=h∇f (w),− ∇f (w)

||∇f (w)||Wi

W

Wähle also

sk =− ∇f (wk)

||∇f (wk)||W

(53)

Optimierung auf abgeschlossenen konvexen Mengen

SeiSWabgeschlossene, konvexe Menge.

Betrachte

minw∈S f (w).

(54)

Beispiel

SeiS ={w∈R2: w1 ≥0, w1+w2≥3}. Betrachte die Funktion f (w)=5w21+w22

(55)

Optimierung auf abgeschlossenen konvexen Mengen

Beispiel

SeiS ={w∈R2: w1 ≥0, w1+w2≥3}. Betrachte die Funktion f (w)=5w21+w22

Am Punktwk =(1,2)T gilt∇f (wk)=(10,4)T mit Abstiegsrichtung sk=−(1,2)T.

(56)

Beispiel

SeiS ={w∈R2: w1 ≥0, w1+w2≥3}. Betrachte die Funktion f (w)=5w21+w22

Am Punktwk =(1,2)T gilt∇f (wk)=(10,4)T mit Abstiegsrichtung sk=−(1,2)T.

Abstiegsrichtung, denn∇f (wk)Tsk =−18.

(57)

Optimierung auf abgeschlossenen konvexen Mengen

Beispiel

SeiS ={w∈R2: w1 ≥0, w1+w2≥3}. Betrachte die Funktion f (w)=5w21+w22

Am Punktwk =(1,2)T gilt∇f (wk)=(10,4)T mit Abstiegsrichtung sk=−(1,2)T.

Abstiegsrichtung, denn∇f (wk)Tsk =−18. Es gilt aber PS(wk+σsk)=· · ·= 1

2

! + σ

2 1

−1

!

und damit

f (wk)T 1

−1

!

=6

(58)

Sei

p(w)=wPS(w− ∇f (w)).

Algorithm 2 Projizierte Gradientenmethode Wähle einen Initialisierungspunktw0S fork=0,1, . . . do

Falls p(wk)=0, STOP.

Setzesk =−∇f (wk).

Wähle Schrittweiteσk>0so dass f (PS(wkksk))< f (wk). Setzewk+1 :=PS(wkksk)

end for

(59)

Projizierte Gradientenmethode

Wähle das Maximumσk ∈ {1,12,14, . . .}, für das gilt:

f (PS(wkksk))− f (wk)≤ − γ σk

kPS(wkksk)−wkk2W.

(60)

f (PS(wkksk))− f (wk)≤ − γ σk

kPS(wkksk)−wkk2W.

Setze

p(w)=wPS(w− ∇f (w)).

(61)

Projizierte Gradientenmethode

Wähle das Maximumσk ∈ {1,12,14, . . .}, für das gilt:

f (PS(wkksk))− f (wk)≤ − γ σk

kPS(wkksk)−wkk2W.

Setze

p(w)=wPS(w− ∇f (w)).

Lemma

Sei W ein Hilbertraum und f : W →Reine auf einer Umgebung der abgeschlossenen konvexen Menge S stetig

Fréchet-differenzierbare Funktion. Dann terminiert die

Schrittweitensuche der projizierten Armijo-Regel für allewkS mit p(wk),0.

Beweis.

Vgl. [1] Seite 107 f.

(62)

Satz

SeiWein Hilbertraum, f : W →Reine stetig

Fréchet-differenzierbare Funktion die nach unten beschränkt ist.

SeiSWnicht leer, konvex und abgeschlossen. Betrachte das projizierte Gradientenverfahren. Sei weiterhin∇f α-Hölderstetig auf

N0ρ ={w+s : f (w)f (w0),kskW ≤ρ}.

Dann gilt:

k→∞limkp(wk)kW =0.

Beweis.

Vgl. [1] Seite 108

(63)

Motivation

Betrachte nochmals reduziertes Problem aus Einführung:

min

u∈L2(Ω)

1 2

A−1uyd

2

L2(Ω)+ α 2||u||2

L2()=: ˆJ(u) s.t. βlu≤βr

(64)

Betrachte nochmals reduziertes Problem aus Einführung:

min

u∈L2(Ω)

1 2

A−1uyd

2

L2(Ω)+ α 2||u||2

L2()=: ˆJ(u) s.t. βlu≤βr

Aus Vorlesung bekannt:

S =n

uL2(Ω) :βlu≤βr

o (2)

(65)

Motivation

Betrachte nochmals reduziertes Problem aus Einführung:

min

u∈L2(Ω)

1 2

A−1uyd

2

L2(Ω)+ α 2||u||2

L2()=: ˆJ(u) s.t. βlu≤βr

Aus Vorlesung bekannt:

S =n

uL2(Ω) :βlu≤βr

o (2) uS, ∀vS : h∇J(u),ˆ vuiL2(Ω)≥0 (3)

(66)

Betrachte nochmals reduziertes Problem aus Einführung:

min

u∈L2(Ω)

1 2

A−1uyd

2

L2(Ω)+ α 2||u||2

L2()=: ˆJ(u) s.t. βlu≤βr

Aus Vorlesung bekannt:

S =n

uL2(Ω) :βlu≤βr

o (2) uS, ∀vS : h∇J(u),ˆ vuiL2(Ω)≥0 (3) Idee: Formuliere Variationsungleichung (3) zu einer Gleichung um.

(67)

Motivation

Lemma

Sei W ein Hilbertraum,CWnicht leer, abgeschlossen und konvex. Sei mitPdie Projektion aufCbezeichnet. Dann sind für alleyWund alleθ >0die folgenden Aussagen äquivalent:

wC, hy,vwiW ≥0 ∀v∈C. (4)

wP(w−θy)=0. (5)

Beweis.

vgl. [1], Seite 69

(68)

Lemma

Sei W ein Hilbertraum,CWnicht leer, abgeschlossen und konvex. Sei mitPdie Projektion aufCbezeichnet. Dann sind für alleyWund alleθ >0die folgenden Aussagen äquivalent:

wC, hy,vwiW ≥0 ∀v∈C. (4)

wP(w−θy)=0. (5)

Beweis.

vgl. [1], Seite 69

Damit können wir das Optimierungsproblem schreiben als:

Φ(u)uPlr](u−θ∇J(u))ˆ =! 0

(69)

Motivation

Lemma

Sei W ein Hilbertraum,CWnicht leer, abgeschlossen und konvex. Sei mitPdie Projektion aufCbezeichnet. Dann sind für alleyWund alleθ >0die folgenden Aussagen äquivalent:

wC, hy,vwiW ≥0 ∀v∈C. (4)

wP(w−θy)=0. (5)

Beweis.

vgl. [1], Seite 69

Damit können wir das Optimierungsproblem schreiben als:

Φ(u)uPlr](u−θ∇J(u))ˆ =! 0

Problem reduziert auf Nullstellensuche im Banachraum

(70)

SeiF :Rn→Rn. Gesucht ist die Lösung von F(x)=0.

(71)

Kurze Wiederholung des Newtonverfahrens im

SeiF :Rn→Rn. Gesucht ist die Lösung von F(x)=0.

Iterationsvorschrift:

xk+1= xkDF(xk)−1F(xk)

(72)

Konvergenzeigenschaften des Newtonverfahrens:

(73)

Kurze Wiederholung des Newtonverfahrens im

Konvergenzeigenschaften des Newtonverfahrens:

• Sei fC2(Rn,Rn)und ¯xLösung von f (x)= 0.

(74)

Konvergenzeigenschaften des Newtonverfahrens:

• Sei fC2(Rn,Rn)und ¯xLösung von f (x)= 0.

• Für f ( ¯x)=0undD f ( ¯x)invertierbar, existiert eine Umgebung um ¯x, in der das Newtonverfahren lokal quadratisch

konvergiert.

(75)

Kurze Wiederholung des Newtonverfahrens im

Newtonfraktal fürz7→z3−1

Quelle: Wikipedia

(76)

Bestimme Lösung von

G(x)=0, G : XY

(77)

verallgemeinertes Newtonverfahren

Bestimme Lösung von

G(x)=0, G : XY

Algorithm 4 verallgemeinertes Newton-Verfahren

1: Wählex0X(hinreichend nahe an der Lösung ¯x)

2: fork=0,1,2, . . . do

3: Wähle einen invertierbaren Operator Mk ∈ L(X,Y).

4: Berechne sk durch Lösen von Mksk = −G(xk) und setze xk+1 = xk+sk.

5: end for

(78)

Frage: Konvergiert verallgemeinertes Newtonverfahren bei geeigneter Wahl vonMk?

(79)

verallgemeinertes Newtonverfahren

Frage: Konvergiert verallgemeinertes Newtonverfahren bei geeigneter Wahl vonMk?

Seidkxk¯x.

(80)

Frage: Konvergiert verallgemeinertes Newtonverfahren bei geeigneter Wahl vonMk?

Seidkxk¯x.

dk+1 =xk+1¯x

=xk+sk¯x

=Mk−1(MkdkG(xk))

=Mk−1(G( ¯x)+MkdkG(xk))

(81)

verallgemeinertes Newtonverfahren

Frage: Konvergiert verallgemeinertes Newtonverfahren bei geeigneter Wahl vonMk?

Seidkxk¯x.

dk+1 =xk+1¯x

=xk+sk¯x

=Mk−1(MkdkG(xk))

=Mk−1(G( ¯x)+MkdkG(xk))

Dieser Term soll klein werden.

(82)

Voraussetzungen:

(83)

verallgemeinertes Newtonverfahren

Voraussetzungen:

• Regularitätsbedingung

∀k≥0 : Mk−1

L(Y,X)C (6)

(84)

Voraussetzungen:

• Regularitätsbedingung

∀k≥0 : Mk−1

L(Y,X)C (6)

• Approximationsbedingung

||G( ¯x+dk)−G( ¯x)Mkdk||Y =o(||dk||X)für||dk||x →0 (7)

(85)

verallgemeinertes Newtonverfahren

Voraussetzungen:

• Regularitätsbedingung

∀k≥0 : Mk−1

L(Y,X)C (6)

• Approximationsbedingung

||G( ¯x+dk)−G( ¯x)Mkdk||Y =o(||dk||X)für||dk||x →0 (7)

• alternative Approximationsbedingung:

||G( ¯x+dk)−G( ¯x)Mkdk||Y =O(||dk||1+αX )für||dk||x →0 (8)

(86)

Seien die Regularitätsbedingung und die Approximationsbedingung erfüllt.

(87)

verallgemeinertes Newtonverfahren

Seien die Regularitätsbedingung und die Approximationsbedingung erfüllt.

Dann gilt:

||dk+1||X =

Mk−1(G( ¯x)+MkdkG(xk)) X

(88)

Seien die Regularitätsbedingung und die Approximationsbedingung erfüllt.

Dann gilt:

||dk+1||X =

Mk−1(G( ¯x)+MkdkG(xk)) X

≤ Mk−1

L(Y,X)||G( ¯x)+MkdkG(xk)||X

=o(||dk||X)

=o(||xk¯x||X)

(89)

verallgemeinertes Newtonverfahren

Seien die Regularitätsbedingung und die Approximationsbedingung erfüllt.

Dann gilt:

||dk+1||X =

Mk−1(G( ¯x)+MkdkG(xk)) X

≤ Mk−1

L(Y,X)||G( ¯x)+MkdkG(xk)||X

=o(||dk||X)

=o(||xk¯x||X)

Ähnlich können wir abschätzen, wenn die Regularitätsbedingung und die alternative Approximationsbedingung erfüllt sind.

(90)

Wir haben gezeigt:

(91)

verallgemeinertes Newtonverfahren

Wir haben gezeigt:

Satz

SeiG : XYgegeben,XundY Banachräume. Seix0

hinreichend nahe an ¯x, der Lösung der GleichungG(x)=0und seien die Regularitäts- und die (alternative)

Approximationsbedingung erfüllt. Dann giltxk¯xsuperlinear (mit Konvergenzordnung(1+α)).

(92)

SeiGnun stetig Fréchet-differenzierbar. Wähle dann Mk=G(xk).

(93)

Klassischer Newton als Spezialfall

SeiGnun stetig Fréchet-differenzierbar. Wähle dann Mk=G(xk). Es gilt:

||G( ¯x+dk)−G( ¯x)Mkdk||Y =

G( ¯x+dk)−G( ¯x)G( ¯x+dk)dk Y

Referenzen

ÄHNLICHE DOKUMENTE

Ulbrich: Semismooth Newton Methods for Operator Equations in Function Spaces, SIAM J. Wloka: Funktionalanalysis unf

Erich Ulbrich, der die KV Bayerns als deren Hauptgeschäftsführer in der Geschäftsführerkonferenz auf Bun- desebene vertritt, wurde aufgrund seiner besonderen Fach- und

• An exact and an inexact IP algorithm with global convergence properties are considered for large-scale nonconvex PDE-constrained optimization problems with inequality constraints..

The main accomplishment of this paper is the development and analysis of an adaptive numerical scheme which for a wide class of operator equations (including those of negative order)

The algorithm is shown to converge to stationary points oi the optimization problem if the objective and constraint functions are weakly upper 3emismooth.. Such poinu

Quelle: © Statistisches Landesamt BW, Bundesagentur für Arbeit (Bevölkerungsfortschreibung 2008, Bewerberdatenbank 01.10.08 bis 30.09.09, Schulstatistik Stand Okt. 2009:

Joan Wallach Scott, “Gender: A Useful Category of Historical Analysis,” American Historical Review 91 (December 1986): 1053–75; Mady Wechsler Segal, “Women’s Military Roles Cross-

Damit wird über eine Verbindung von Thema und Meinung mit der historischen Entwicklung des- sen, was sich bisher an Meinungsäußerungen und entsprechenden Thematisie- rungen zu dem