“Optimierungsmethoden in Banachräumen”
Klaus Eisentraut und Andreas Schmidt
5. Juli 2012
1 Einführung
2 Globale Konvergenz
3 Motivation für Newton-Verfahren
4 Newton-Verfahren in Banachräumen
Motivation
Gegeben sei das folgende Optimalsteuerungsproblem:
min
y∈H10(Ω) u∈L2(Ω)
J(y,u)≔ 1
2||y−yd||2
L2(Ω)+α
2||u||2L2(Ω)
s.t. Ay=u, βl ≤u≤βr
Gegeben sei das folgende Optimalsteuerungsproblem:
min
y∈H10(Ω) u∈L2(Ω)
J(y,u)≔ 1
2||y−yd||2
L2(Ω)+α
2||u||2L2(Ω)
s.t. Ay=u, βl ≤u≤βr wobei
• y∈H10(Ω)Zustand
• u∈L2(Ω)Steuerung
• A : H10(Ω)→H−1(Ω)=(H01(Ω))∗linearer elliptischer Differentialoperator zweiter Ordnung, z.B.A=−∆
Motivation
Exkurs: Zum RaumH−1
Betrachte f ∈H10(Ω)undφ∈H01(Ω)eine Testfunktion. Dann F(φ)≔−
Z
Ω
∇f · ∇φ= Z
Ω
(∆f )φ=(∆f, φ)H1
0(Ω)∗,H01(Ω)
mitF : H10(Ω)→R, also∆f ∈(H01(Ω))∗≕H−1(Ω).
Elemente ausH−1 müssen keine Funktionen mehr sein, z.B.
δ∈H−1(]−1; 1[), daH01(]−1; 1[)⊂C(]−1; 1[).
Elemente ausH−1 sind “noch(−1)-mal differenzierbar”, es sind
“einmal differenzierteL2-Funktionen”.
reduziertes Problem:
min
u∈L2(Ω)
1 2
A−1u−yd
2
L2(Ω)+ α
2||u||2L2(Ω)=: ˆJ(u) s.t. βl ≤u≤βr
Motivation
reduziertes Problem:
min
u∈L2(Ω)
1 2
A−1u−yd
2
L2(Ω)+ α
2||u||2L2(Ω)=: ˆJ(u) s.t. βl ≤u≤βr
→Minimierungsproblem im BanachraumL2(Ω)(hier sogar Hilbertraum)
Finde Klasse von global konvergenten Algorithmen für minw∈W f (w)
mit f : W →Rstetig Fréchet-differenzierbar.
Allgemeiner Algorithmus
Finde Klasse von global konvergenten Algorithmen für minw∈W f (w)
mit f : W →Rstetig Fréchet-differenzierbar.
Idee: Abstiegsmethoden, gehe iterativ "bergab"
Finde Klasse von global konvergenten Algorithmen für minw∈W f (w)
mit f : W →Rstetig Fréchet-differenzierbar.
Idee: Abstiegsmethoden, gehe iterativ "bergab"
→suche in jeder Iterationkeine Richtungskund eine Schrittweite σk>0:
f (wk+σksk)< f (wk) und
( f′(wk),sk)W∗,W <0
Allgemeiner Algorithmus
Algorithm 1 Allgemeine Iterationsvorschrift für Absteigemethoden Wähle einen Initialisierungspunktw0∈W
fork=0,1, . . . do Falls f′(wk)= 0, STOP.
Wähle Abstiegsrichtung sk ∈W : ( f′(wk),sk)W∗,W <0. Wähle Schrittweiteσk>0so, dass f (wk+σksk)< f (wk). Setzewk+1 :=wk+σksk
end for
d
dt f wk+t sk
||sk||W t=0
Allgemeiner Algorithmus
Betrachte d
dt f wk+t sk
||sk||W
! t=0
= ( f′(wk),sk)W∗,W
||sk||W .
d
dt f wk+t sk
||sk||W t=0
= ( f (wk),sk)W∗,W
||sk||W .
Definition
1 Zulässigkeit der Suchrichtungen
Allgemeiner Algorithmus
Betrachte d
dt f wk+t sk
||sk||W
! t=0
= ( f′(wk),sk)W∗,W
||sk||W .
Definition
1 Zulässigkeit der Suchrichtungen ( f′(wk),sk)W∗,W
||sk||W
k→∞−→ 0
d
dt f wk+t sk
||sk||W t=0
= ( f (wk),sk)W∗,W
||sk||W .
Definition
1 Zulässigkeit der Suchrichtungen ( f′(wk),sk)W∗,W
||sk||W
k→∞−→ 0 ⇒ f′
W∗
k→∞−→ 0
Allgemeiner Algorithmus
Betrachte d
dt f wk+t sk
||sk||W
! t=0
= ( f′(wk),sk)W∗,W
||sk||W .
Definition
1 Zulässigkeit der Suchrichtungen ( f′(wk),sk)W∗,W
||sk||W
k→∞−→ 0 ⇒ f′
W∗
k→∞−→ 0
2 Zulässigkeit der Schrittweiten
d
dt f wk+t sk
||sk||W t=0
= ( f (wk),sk)W∗,W
||sk||W .
Definition
1 Zulässigkeit der Suchrichtungen ( f′(wk),sk)W∗,W
||sk||W
k→∞−→ 0 ⇒ f′
W∗
k→∞−→ 0
2 Zulässigkeit der Schrittweiten f (wk+σksk)< f (wk) ∀k,
f (wk+σksk)− f (wk)k→∞−→ 0 ⇒
Allgemeiner Algorithmus
Betrachte d
dt f wk+t sk
||sk||W
! t=0
= ( f′(wk),sk)W∗,W
||sk||W .
Definition
1 Zulässigkeit der Suchrichtungen ( f′(wk),sk)W∗,W
||sk||W
k→∞−→ 0 ⇒ f′
W∗
k→∞−→ 0
2 Zulässigkeit der Schrittweiten f (wk+σksk)< f (wk) ∀k,
f (wk+σksk)− f (wk)k→∞−→ 0 ⇒ ( f′(wk),sk)W∗,W
||sk||W
k→∞−→ 0.
Satz
Sei f eine stetig Fréchet-differenzierbare Funktion. Seien(wk),(sk) und(σk)generiert durch den Algorithmus 1. Weiterhin seien die Schrittweiten(σk)und die Suchrichtungen(sk)zulässig. Sei zudem( f (wk))nach unten beschränkt. Dann gilt:
k→∞lim f′(wk)=0.
Allgemeiner Algorithmus
Beweis.
Sei f∗:=infk≥0 f (wk)>−∞.
Sei f∗:=infk≥0 f (wk)>−∞. Dann gilt wegen f (wk+σksk)< f (wk): f (wk)→ f∗.
Allgemeiner Algorithmus
Beweis.
Sei f∗:=infk≥0 f (wk)>−∞. Dann gilt wegen f (wk+σksk)< f (wk): f (wk)→ f∗.
Betrachte
f (w0)− f∗=
∞
X
k=0
( f (wk)− f (wk+1))
=
∞
X
k=0
|f (wk+σksk)− f (wk)|
Sei f∗:=infk≥0 f (wk)>−∞. Dann gilt wegen f (wk+σksk)< f (wk): f (wk)→ f∗.
Betrachte
f (w0)− f∗=
∞
X
k=0
( f (wk)− f (wk+1))
=
∞
X
k=0
|f (wk+σksk)− f (wk)|
Damit gezeigt: f (wk+σksk)− f (wk)k→∞−→ 0
Allgemeiner Algorithmus
Beweis.
Sei f∗:=infk≥0 f (wk)>−∞. Dann gilt wegen f (wk+σksk)< f (wk): f (wk)→ f∗.
Betrachte
f (w0)− f∗=
∞
X
k=0
( f (wk)− f (wk+1))
=
∞
X
k=0
|f (wk+σksk)− f (wk)|
Damit gezeigt: f (wk+σksk)− f (wk)k→∞−→ 0
⇒ ( f′(wk),sk)W∗,W
||sk||W
k→∞−→ 0 ⇒ f′(wk)
W∗
k→∞−→ 0.
.
MitΦk(t)≔ f (wk+tsk):
Allgemeiner Algorithmus
MitΦk(t)≔ f (wk+tsk):
Φ′k(0)=( f′(wk),sk)W∗,W
<! 0
andererseits Φ′k(0)=( f′(wk),sk)W∗,W ≥ −kf′(wk)kW∗kskkW
MitΦk(t)≔ f (wk+tsk):
Φ′k(0)=( f′(wk),sk)W∗,W
<! 0
andererseits Φ′k(0)=( f′(wk),sk)W∗,W ≥ −kf′(wk)kW∗kskkW Davon ausgehend erhalten wir die “Winkelbedingung”
( f′(wk),sk)W∗,W ≤ −ηkf′(wk)kW∗kskkW (1) für einη∈]0,1[.
Allgemeiner Algorithmus
MitΦk(t)≔ f (wk+tsk):
Φ′k(0)=( f′(wk),sk)W∗,W
<! 0
andererseits Φ′k(0)=( f′(wk),sk)W∗,W ≥ −kf′(wk)kW∗kskkW Davon ausgehend erhalten wir die “Winkelbedingung”
( f′(wk),sk)W∗,W ≤ −ηkf′(wk)kW∗kskkW (1) für einη∈]0,1[.
Lemma
Wenn die Suchrichtungen die Winkelbedingung ( f′(wk),sk)W∗,W ≤ −ηkf′(wk)kW∗kskkW
erfüllt, dann sind sie zulässig.
Allgemeiner Algorithmus
Lemma
Wenn die Suchrichtungen die Winkelbedingung ( f′(wk),sk)W∗,W ≤ −ηkf′(wk)kW∗kskkW
erfüllt, dann sind sie zulässig.
Beweis.
Es gilt
f′(wk)
W∗ ≤ −1 η
( f′(wk),sk,sk)W∗,W
||sk||W
Wie können wir zulässige Schrittweitenσkerhalten?
Armijo Schrittweitenregel
Wie können wir zulässige Schrittweitenσkerhalten?
Wähle das größteσk∈ {1,12,14, . . .}:
f (wk+σksk)≤ f (wk)+ησk( f′(wk),sk)W∗,W, η∈]0,1[.
Wähle das größteσk∈ {1,2,4, . . .}:
f (wk+σksk)≤ f (wk)+ησk( f′(wk),sk)W∗,W, η∈]0,1[.
0 1 2 3 4 5 6
-1 -0.5 0 0.5 1 1.5 2 2.5 3
x
f(x)
Armijo Schrittweitenregel
Wie können wir zulässige Schrittweitenσkerhalten?
Wähle das größteσk∈ {1,12,14, . . .}:
f (wk+σksk)≤ f (wk)+ησk( f′(wk),sk)W∗,W, η∈]0,1[.
0 0.5 1 1.5 2 2.5 3 3.5 4
0 0.5 1 1.5 2 2.5 3
x
f(1.5-x) f(1.5) - 0.1 x f’(1.5) f(1.5) - 0.8 x f’(1.5)
Lemma
Sei f′gleichmäßig stetig aufN0ρ={w+s : f (w)≤ f (w0),||s||W ≤ρ} für einρ >0. Dann gilt: für alleε >0existiert einδ >0so dass für allewk ∈Wmit f (wk)≤ f (w0)und alle sk ∈W mit
( f′(wk),sk)W∗,W
||sk||W ≤ −ε
gilt:
f (wk+σsk)− f (wk)≤γσ( f′(wk),sk)W∗,W σ∈[0, δ/||sk||W].
Armijo Schrittweitenregel
Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]:
Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]: f (wk+σsk)− f (wk)=σ( f′(wk+τσsk),sk)W∗,W
Armijo Schrittweitenregel
Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]: f (wk+σsk)− f (wk)=σ( f′(wk+τσsk),sk)W∗,W
≤σ( f′(wk),sk)W∗,W+ σ
f′(wk+τσsk)− f′(wk)
W∗||sk||W
Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]: f (wk+σsk)− f (wk)=σ( f′(wk+τσsk),sk)W∗,W
≤σ( f′(wk),sk)W∗,W+ σ
f′(wk+τσsk)− f′(wk)
W∗||sk||W
=γσ( f′(wk),sk)W∗,W+ρk(σ)
wobei
ρk(σ)≔(1−γ)σ( f′(wk),sk)W∗,W+σ
f′(wk+τσsk)− f′(wk)
W∗||sk||W.
Armijo Schrittweitenregel
Es gilt nach dem Mittelwertsatz für einτσ∈[0, σ]: f (wk+σsk)− f (wk)=σ( f′(wk+τσsk),sk)W∗,W
≤σ( f′(wk),sk)W∗,W+ σ
f′(wk+τσsk)− f′(wk)
W∗||sk||W
=γσ( f′(wk),sk)W∗,W+ρk(σ)
wobei
ρk(σ)≔(1−γ)σ( f′(wk),sk)W∗,W+σ
f′(wk+τσsk)− f′(wk)
W∗||sk||W. Zeige nochρk(σ)≤0.
Wir wählenδ∈]0, ρ[so klein, dass gilt:
f′(wk+τσsk)− f′(wk)
W∗ <(1−γ)ε, ∀σ∈[0, δ/||sk||W].
Armijo Schrittweitenregel
Wir wählenδ∈]0, ρ[so klein, dass gilt:
f′(wk+τσsk)− f′(wk)
W∗ <(1−γ)ε, ∀σ∈[0, δ/||sk||W].
Die Wahl ist möglich, da||τσsk||W ≤σ||sk||W ≤δ.
Wir wählenδ∈]0, ρ[so klein, dass gilt:
f′(wk+τσsk)− f′(wk)
W∗ <(1−γ)ε, ∀σ∈[0, δ/||sk||W].
Die Wahl ist möglich, da||τσsk||W ≤σ||sk||W ≤δ.Damit:
ρk(σ)=(1−γ)σ( f′(wk),sk)W∗,W +σ
f′(wk+τσsk)− f′(wk)
W∗||sk||W
≤ −(1−γ)εσ||sk||W+(1−γ)εσ||sk||W =0.
Armijo Schrittweitenregel
Die Zulässigkeit der Schrittweiten folgt aus dem folgenden Lemma
Sei f′gleichmäßig stetig aufN0ρ={w+s : f (w)≤ f (w0),||s||W ≤ρ} für einρ >0. Seien die Schritteσk durch die Armijoregel generiert und die Abstiegsrichtung nicht zu kurz im folgenden Sinn:
||sk||W ≥Φ −( f′(wk),sk)W∗,W
||sk||W
! ,
wobeiΦ: [0,∞[→[0,∞[monoton steigend undΦ(t)>0für alle t>0. Dann sind die Schrittweitenσkzulässig.
Beweis.
Vgl. [1] Seite 102 f.
werden?
Abstiegsrichtung?
SeiWreeller Banachraum. Welche Abstiegsrichtung soll gewählt werden?
Allgemein: Wähle sk =tdsd,t>0,wobeidsd
||d||minW=1( f′(w),d)W∗,W
löst.
werden?
Allgemein: Wähle sk =tdsd,t>0,wobeidsd
||d||minW=1( f′(w),d)W∗,W
löst. Im Hilbertraum mitW=W∗gilt:
Abstiegsrichtung?
SeiWreeller Banachraum. Welche Abstiegsrichtung soll gewählt werden?
Allgemein: Wähle sk =tdsd,t>0,wobeidsd
||d||minW=1( f′(w),d)W∗,W
löst. Im Hilbertraum mitW=W∗gilt:
||d||minW=1( f′(w),d)W∗,W = min
||d||W=1(∇f (w),d)W∗,W
werden?
Allgemein: Wähle sk =tdsd,t>0,wobeidsd
||d||minW=1( f′(w),d)W∗,W
löst. Im Hilbertraum mitW=W∗gilt:
||d||minW=1( f′(w),d)W∗,W = min
||d||W=1(∇f (w),d)W∗,W ≥ −||∇f (w)||W
Abstiegsrichtung?
SeiWreeller Banachraum. Welche Abstiegsrichtung soll gewählt werden?
Allgemein: Wähle sk =tdsd,t>0,wobeidsd
||d||minW=1( f′(w),d)W∗,W
löst. Im Hilbertraum mitW=W∗gilt:
||d||minW=1( f′(w),d)W∗,W = min
||d||W=1(∇f (w),d)W∗,W ≥ −||∇f (w)||W
=h∇f (w),− ∇f (w)
||∇f (w)||Wi
W
werden?
Allgemein: Wähle sk =tdsd,t>0,wobeidsd
||d||minW=1( f′(w),d)W∗,W
löst. Im Hilbertraum mitW=W∗gilt:
||d||minW=1( f′(w),d)W∗,W = min
||d||W=1(∇f (w),d)W∗,W ≥ −||∇f (w)||W
=h∇f (w),− ∇f (w)
||∇f (w)||Wi
W
Wähle also
sk =− ∇f (wk)
||∇f (wk)||W
Optimierung auf abgeschlossenen konvexen Mengen
SeiS ⊂Wabgeschlossene, konvexe Menge.
Betrachte
minw∈S f (w).
Beispiel
SeiS ={w∈R2: w1 ≥0, w1+w2≥3}. Betrachte die Funktion f (w)=5w21+w22
Optimierung auf abgeschlossenen konvexen Mengen
Beispiel
SeiS ={w∈R2: w1 ≥0, w1+w2≥3}. Betrachte die Funktion f (w)=5w21+w22
Am Punktwk =(1,2)T gilt∇f (wk)=(10,4)T mit Abstiegsrichtung sk=−(1,2)T.
Beispiel
SeiS ={w∈R2: w1 ≥0, w1+w2≥3}. Betrachte die Funktion f (w)=5w21+w22
Am Punktwk =(1,2)T gilt∇f (wk)=(10,4)T mit Abstiegsrichtung sk=−(1,2)T.
Abstiegsrichtung, denn∇f (wk)Tsk =−18.
Optimierung auf abgeschlossenen konvexen Mengen
Beispiel
SeiS ={w∈R2: w1 ≥0, w1+w2≥3}. Betrachte die Funktion f (w)=5w21+w22
Am Punktwk =(1,2)T gilt∇f (wk)=(10,4)T mit Abstiegsrichtung sk=−(1,2)T.
Abstiegsrichtung, denn∇f (wk)Tsk =−18. Es gilt aber PS(wk+σsk)=· · ·= 1
2
! + σ
2 1
−1
!
und damit
∇f (wk)T 1
−1
!
=6
Sei
p(w)=w−PS(w− ∇f (w)).
Algorithm 2 Projizierte Gradientenmethode Wähle einen Initialisierungspunktw0∈S fork=0,1, . . . do
Falls p(wk)=0, STOP.
Setzesk =−∇f (wk).
Wähle Schrittweiteσk>0so dass f (PS(wk+σksk))< f (wk). Setzewk+1 :=PS(wk+σksk)
end for
Projizierte Gradientenmethode
Wähle das Maximumσk ∈ {1,12,14, . . .}, für das gilt:
f (PS(wk+σksk))− f (wk)≤ − γ σk
kPS(wk+σksk)−wkk2W.
f (PS(wk+σksk))− f (wk)≤ − γ σk
kPS(wk+σksk)−wkk2W.
Setze
p(w)=w−PS(w− ∇f (w)).
Projizierte Gradientenmethode
Wähle das Maximumσk ∈ {1,12,14, . . .}, für das gilt:
f (PS(wk+σksk))− f (wk)≤ − γ σk
kPS(wk+σksk)−wkk2W.
Setze
p(w)=w−PS(w− ∇f (w)).
Lemma
Sei W ein Hilbertraum und f : W →Reine auf einer Umgebung der abgeschlossenen konvexen Menge S stetig
Fréchet-differenzierbare Funktion. Dann terminiert die
Schrittweitensuche der projizierten Armijo-Regel für allewk∈S mit p(wk),0.
Beweis.
Vgl. [1] Seite 107 f.
Satz
SeiWein Hilbertraum, f : W →Reine stetig
Fréchet-differenzierbare Funktion die nach unten beschränkt ist.
SeiS ⊂Wnicht leer, konvex und abgeschlossen. Betrachte das projizierte Gradientenverfahren. Sei weiterhin∇f α-Hölderstetig auf
N0ρ ={w+s : f (w)≤ f (w0),kskW ≤ρ}.
Dann gilt:
k→∞limkp(wk)kW =0.
Beweis.
Vgl. [1] Seite 108
Motivation
Betrachte nochmals reduziertes Problem aus Einführung:
min
u∈L2(Ω)
1 2
A−1u−yd
2
L2(Ω)+ α 2||u||2
L2(Ω)=: ˆJ(u) s.t. βl ≤u≤βr
Betrachte nochmals reduziertes Problem aus Einführung:
min
u∈L2(Ω)
1 2
A−1u−yd
2
L2(Ω)+ α 2||u||2
L2(Ω)=: ˆJ(u) s.t. βl ≤u≤βr
Aus Vorlesung bekannt:
S =n
u∈L2(Ω) :βl≤u≤βr
o (2)
Motivation
Betrachte nochmals reduziertes Problem aus Einführung:
min
u∈L2(Ω)
1 2
A−1u−yd
2
L2(Ω)+ α 2||u||2
L2(Ω)=: ˆJ(u) s.t. βl ≤u≤βr
Aus Vorlesung bekannt:
S =n
u∈L2(Ω) :βl≤u≤βr
o (2) u∈S, ∀v∈S : h∇J(u),ˆ v−uiL2(Ω)≥0 (3)
Betrachte nochmals reduziertes Problem aus Einführung:
min
u∈L2(Ω)
1 2
A−1u−yd
2
L2(Ω)+ α 2||u||2
L2(Ω)=: ˆJ(u) s.t. βl ≤u≤βr
Aus Vorlesung bekannt:
S =n
u∈L2(Ω) :βl≤u≤βr
o (2) u∈S, ∀v∈S : h∇J(u),ˆ v−uiL2(Ω)≥0 (3) Idee: Formuliere Variationsungleichung (3) zu einer Gleichung um.
Motivation
Lemma
Sei W ein Hilbertraum,C⊂Wnicht leer, abgeschlossen und konvex. Sei mitPdie Projektion aufCbezeichnet. Dann sind für alley∈Wund alleθ >0die folgenden Aussagen äquivalent:
w∈C, hy,v−wiW ≥0 ∀v∈C. (4)
w−P(w−θy)=0. (5)
Beweis.
vgl. [1], Seite 69
Lemma
Sei W ein Hilbertraum,C⊂Wnicht leer, abgeschlossen und konvex. Sei mitPdie Projektion aufCbezeichnet. Dann sind für alley∈Wund alleθ >0die folgenden Aussagen äquivalent:
w∈C, hy,v−wiW ≥0 ∀v∈C. (4)
w−P(w−θy)=0. (5)
Beweis.
vgl. [1], Seite 69
Damit können wir das Optimierungsproblem schreiben als:
Φ(u)≔u−P[βl,βr](u−θ∇J(u))ˆ =! 0
Motivation
Lemma
Sei W ein Hilbertraum,C⊂Wnicht leer, abgeschlossen und konvex. Sei mitPdie Projektion aufCbezeichnet. Dann sind für alley∈Wund alleθ >0die folgenden Aussagen äquivalent:
w∈C, hy,v−wiW ≥0 ∀v∈C. (4)
w−P(w−θy)=0. (5)
Beweis.
vgl. [1], Seite 69
Damit können wir das Optimierungsproblem schreiben als:
Φ(u)≔u−P[βl,βr](u−θ∇J(u))ˆ =! 0
Problem reduziert auf Nullstellensuche im Banachraum
SeiF :Rn→Rn. Gesucht ist die Lösung von F(x)=0.
Kurze Wiederholung des Newtonverfahrens im
SeiF :Rn→Rn. Gesucht ist die Lösung von F(x)=0.
Iterationsvorschrift:
xk+1= xk−DF(xk)−1F(xk)
Konvergenzeigenschaften des Newtonverfahrens:
Kurze Wiederholung des Newtonverfahrens im
Konvergenzeigenschaften des Newtonverfahrens:
• Sei f ∈C2(Rn,Rn)und ¯xLösung von f (x)= 0.
Konvergenzeigenschaften des Newtonverfahrens:
• Sei f ∈C2(Rn,Rn)und ¯xLösung von f (x)= 0.
• Für f ( ¯x)=0undD f ( ¯x)invertierbar, existiert eine Umgebung um ¯x, in der das Newtonverfahren lokal quadratisch
konvergiert.
Kurze Wiederholung des Newtonverfahrens im
Newtonfraktal fürz7→z3−1
Quelle: Wikipedia
Bestimme Lösung von
G(x)=0, G : X →Y
verallgemeinertes Newtonverfahren
Bestimme Lösung von
G(x)=0, G : X →Y
Algorithm 4 verallgemeinertes Newton-Verfahren
1: Wählex0 ∈X(hinreichend nahe an der Lösung ¯x)
2: fork=0,1,2, . . . do
3: Wähle einen invertierbaren Operator Mk ∈ L(X,Y).
4: Berechne sk durch Lösen von Mksk = −G(xk) und setze xk+1 = xk+sk.
5: end for
Frage: Konvergiert verallgemeinertes Newtonverfahren bei geeigneter Wahl vonMk?
verallgemeinertes Newtonverfahren
Frage: Konvergiert verallgemeinertes Newtonverfahren bei geeigneter Wahl vonMk?
Seidk ≔ xk− ¯x.
Frage: Konvergiert verallgemeinertes Newtonverfahren bei geeigneter Wahl vonMk?
Seidk ≔ xk− ¯x.
dk+1 =xk+1− ¯x
=xk+sk− ¯x
=Mk−1(Mkdk−G(xk))
=Mk−1(G( ¯x)+Mkdk−G(xk))
verallgemeinertes Newtonverfahren
Frage: Konvergiert verallgemeinertes Newtonverfahren bei geeigneter Wahl vonMk?
Seidk ≔ xk− ¯x.
dk+1 =xk+1− ¯x
=xk+sk− ¯x
=Mk−1(Mkdk−G(xk))
=Mk−1(G( ¯x)+Mkdk−G(xk))
Dieser Term soll klein werden.
Voraussetzungen:
verallgemeinertes Newtonverfahren
Voraussetzungen:
• Regularitätsbedingung
∀k≥0 : Mk−1
L(Y,X)≤C (6)
Voraussetzungen:
• Regularitätsbedingung
∀k≥0 : Mk−1
L(Y,X)≤C (6)
• Approximationsbedingung
||G( ¯x+dk)−G( ¯x)−Mkdk||Y =o(||dk||X)für||dk||x →0 (7)
verallgemeinertes Newtonverfahren
Voraussetzungen:
• Regularitätsbedingung
∀k≥0 : Mk−1
L(Y,X)≤C (6)
• Approximationsbedingung
||G( ¯x+dk)−G( ¯x)−Mkdk||Y =o(||dk||X)für||dk||x →0 (7)
• alternative Approximationsbedingung:
||G( ¯x+dk)−G( ¯x)−Mkdk||Y =O(||dk||1+αX )für||dk||x →0 (8)
Seien die Regularitätsbedingung und die Approximationsbedingung erfüllt.
verallgemeinertes Newtonverfahren
Seien die Regularitätsbedingung und die Approximationsbedingung erfüllt.
Dann gilt:
||dk+1||X =
Mk−1(G( ¯x)+Mkdk−G(xk)) X
Seien die Regularitätsbedingung und die Approximationsbedingung erfüllt.
Dann gilt:
||dk+1||X =
Mk−1(G( ¯x)+Mkdk−G(xk)) X
≤ Mk−1
L(Y,X)||G( ¯x)+Mkdk−G(xk)||X
=o(||dk||X)
=o(||xk− ¯x||X)
verallgemeinertes Newtonverfahren
Seien die Regularitätsbedingung und die Approximationsbedingung erfüllt.
Dann gilt:
||dk+1||X =
Mk−1(G( ¯x)+Mkdk−G(xk)) X
≤ Mk−1
L(Y,X)||G( ¯x)+Mkdk−G(xk)||X
=o(||dk||X)
=o(||xk− ¯x||X)
Ähnlich können wir abschätzen, wenn die Regularitätsbedingung und die alternative Approximationsbedingung erfüllt sind.
Wir haben gezeigt:
verallgemeinertes Newtonverfahren
Wir haben gezeigt:
Satz
SeiG : X →Ygegeben,XundY Banachräume. Seix0
hinreichend nahe an ¯x, der Lösung der GleichungG(x)=0und seien die Regularitäts- und die (alternative)
Approximationsbedingung erfüllt. Dann giltxk→ ¯xsuperlinear (mit Konvergenzordnung(1+α)).
SeiGnun stetig Fréchet-differenzierbar. Wähle dann Mk=G′(xk).
Klassischer Newton als Spezialfall
SeiGnun stetig Fréchet-differenzierbar. Wähle dann Mk=G′(xk). Es gilt:
||G( ¯x+dk)−G( ¯x)−Mkdk||Y =
G( ¯x+dk)−G( ¯x)−G′( ¯x+dk)dk Y ≤