Einf¨ uhrung in die Grundlagen der Numerik
Wintersemester 2018/19 Prof. Dr. Ira Neitzel
Fabian Hoppe
Ubungsblatt 4. ¨ Abgabe am 8. November vor der Vorlesung.
Aufgabe 1. (Pseudoinverse)
Sei A ∈ R m×n und b ∈ R m . ¨ Uber den Rang von A wird keine Annahme gemacht. In der Vorlesung wurde die Pseudoinverse A + von A durch folgende vier Axiome eingef¨ uhrt:
(i) (A + A) T = A + A (ii) (AA + ) T = AA +
(iii) A + AA + = A + (iv) AA + A = A.
Insbesondere wurde gezeigt, dass A + durch die Axiome (i)-(iv) bereits eindeutig bes- timmt ist und dass A + = ˆ U Σ ˆ −1 V ˆ T gilt. Hierbeit ist A = ˆ U Σ ˆ ˆ V T die reduzierte Sin- gul¨ arwertzerlegung aus der Vorlesung, d.h. U ˆ ∈ R m×r , V ˆ ∈ R n×r haben orthogonale Spalten und ˆ Σ ∈ R r×r , r = rank(A), ist eine Diagonalmatrix mit den Singul¨ arwerten von A als Diagonalelemente.
Weiterhin ist bereits bekannt, dass A + b = argmin
x∈S
kxk 2 2 mit S := {x ∈ R n : A T Ax = A T b}
gilt, d.h. die Pseudoinverse bestimmt diejenige L¨ osung der Normalengleichung mit mi- nimaler euklidischer Norm. In dieser Aufgabe lernen wir eine weitere Interpretation der Pseudoinversen kennen. Dazu definieren wir f¨ ur λ ≥ 0
J λ (x) := 1
2 kAx − bk 2 2 + λ 2 kxk 2 2 .
a. Zeigen Sie, dass f¨ ur λ > 0 durch x λ = (A T A + λI) −1 A T b das eindeutige, strikte globale Minimum von J λ auf R n gegeben ist.
b. Zeigen Sie, dass gilt:
x λ → A + b f¨ ur λ & 0.
c. Sei x 0 ∈ R n gegeben. Geben Sie die erste Iterierte des Gradientenverfahrens zur Minimiernung von J λ mit Startwert x 0 und exakter Schrittweite an.
(3+3+2 = 8 Punkte)
1
Aufgabe 2. (Nichtlineare Ausgleichsprobleme)
Sei f : R n → R m zweimal stetig differenzierbar mit rank(f 0 (x)) = n ≤ m f¨ ur alle x ∈ R n . F¨ ur y ∈ R m wollen wir das nichtlineare Ausgleichsproblem
x∈ min R
nr(x), r(x) := ky − f(x)k 2 2
betrachten.
a. Bestimmen Sie den Gradienten ∇r und die Hesse-Matrix ∇ 2 r. Geben Sie die Newton-Iteration f¨ ur die L¨ osung der Gleichung ∇r = 0 an.
Beim sog. Gauss-Newton-Verfahren wird ausgehend von einer Startn¨ aherung x 0 ∈ R n mit der Vorschrift
x k+1 := argmin
x∈ R
nky − f (x k ) − f 0 (x k )(x − x k )k 2 2 (1) iteriert. Unter gewissen geeigneten Bedingungen kann lokal mindestens lineare Konver- genz dieses Verfahrens gezeigt werden.
b. Geben Sie die Normalengleichung f¨ ur (1) an. Wo liegt der Vorteil des Gauss- Newton-Verfahrens gegen¨ uber dem Newton-Verfahren?
Der Zusammenhang zweier physikalischer Gr¨ oßen p und q lasse sich aufgrund theoretis- cher ¨ Uberlegungen ann¨ ahern durch
q = q(p) = α exp(βp)
mit noch zu bestimmenden Parametern α, β. Durch ein Experiment hat man die folgen- den drei (p, q)−Wertepaare ermittelt:
(0, 2), (1, 5), (3, 50).
c. Stellen Sie ein geeignetes nichtlineares Ausgleichsproblem zur Bestimmung der Parameter α, β auf und f¨ uhren Sie von den Startwerten α 0 = 2, β 0 = 1 ausgehend einen Schritt des Gauss-Newton-Verfahrens durch.
Hinweis: Hier darf ein Taschenrechner benutzt und sinnvoll gerundet werden.
(3+2+3 = 8 Punkte)
Aufgabe 3. (Versagen konstanter Schrittweite) Es sei die stetig differenzierbare Funktion
f : R n → R , x 7→ 2
3 kxk 3/2 2 ,
gegeben. Das Gradientenverfahren mit fester Schrittweite α > 0 ist durch die Vorschrift x k+1 = x k − α∇f (x k )
definiert. Beweisen Sie, dass das Gradientenverfahren mit fester Schrittweite α < 2 f¨ ur f entweder nach endlich vielen Schritten das Minimum x ∗ = 0 erreicht oder nicht gegen x ∗ konvergiert.
Hinweis: Betrachten Sie das Verhalten von φ(x) := x − α∇f (x).
(4 Punkte)
2
Aufgabe 4. (Existenz effizienter Schrittweiten) Sei f : R n → R gegeben und x 0 ∈ R n , derart, dass
• N = N (f, f (x 0 )) := {x ∈ R n : f (x) ≤ f (x 0 )} kompakt ist,
• f stetig differenzierbar ist auf einer offenen Menge U ⊂ R n mit N ⊂ U und
• f 0 Lipschitz stetig auf N ist, d.h.
k∇f (x) − ∇f (y)k 2 ≤ Lkx − yk 2 , ∀x, y ∈ N, mit einem L > 0 gilt.
Beweisen Sie unter diesen Voraussetzungen folgendes Lemma aus der Vorlesung:
Lemma. Sei x ∈ N , d ∈ R n mit ∇f (x) T d < 0 sowie δ ∈ (0, 1) gegeben. Dann gibt es τ = τ (x, d, δ) mit folgenden Eigenschaften:
(i) F¨ ur alle σ ∈ (0, τ ) gilt: f(x + σd) < f (x) + δσ∇f (x) T d, (ii) f (x + τ d) = f (x) + δτ ∇f (x) T d,
(iii) τ ≥ ρ := − 2(1−δ) L ∇f(x) kdk
2Td
2