Ronald St ¨over SoSe 2008
Numerik 1: Inhalts ¨ ubersicht
0.) Einf ¨uhrung und Motivation Bsp: Patriot-Rakete,R
xnex−1dx, Rundungs- und andere Fehlerarten 1.) Zahldarstellungen und Computerarithmetik
1.1) Zahldarstellungen
Bin ¨ar-, Dezimal-, Hexadezimalzahlen und Umrechnungen 1.2) Computerzahlen
M(β, t, emin, emax), Eigenschaften, Rundungsarten, Rundungsfehler Def + Charakterisierung:u:= 12β1−t,u= min{ε ∈M|1 +]ε >1},
∀x: |x−˜|x|x| ≤u(zz:|x−x| ≤˜ y2−y2 1 (auf/abrunden)),∃ |δ| ≤u: ˜x=x(1 +δ) 1.3) Gleitpunktoperationen
Modell f ¨ur Rundungsfehler, Rundungsfehlerverst ¨arkung (Bsp. R1 0
xn
x+42dx), Addition (Bsp.P 1
n4), Ausl ¨oschung und deren Vermeidung 1.4) IEEE Floating Point Arithmetic
single/double format (und entspr.u), Exponent VZ-frei, “hidden bit”, subnormalisierte Zahlen, Inf/NaN
2.) L ¨osung linearer Gleichungssysteme 2.1) LU-Zerlegung
Interpretation Gauß-Algorithmus alsA =LU, Vorteil gegenA−1b(Cramer-Regel) Herleitung:Ln−1· · ·L1·A=U, Satz: Ex. (induktiv) & Eind.
2.2) Pivotisierung
Motivation, Permutationsmatrizen, Ex. (Idee), keine Eind.
2.3) Erg ¨anzende Bemerkungen
AufwandO(23n3)+O(2n2)flops, effiziente Implementierung, Nachiteration, Grenzen Bsp. ( ¨UA): streng diagonal dominant, tridiagonal, Bandstruktur
2.4) Cholesky-Zerlegung
Ex. (Idee: iterativer oder elementweiser Ansatz), Eind., Aufwand O(13n3), rationale Cholesky-Zerlegung
3.) Fehleranalyse: Kondition und Stabilit ¨at 3.1) Matrix- und Operatornormen
Def. und fundamentale Absch ¨atzung
Bsp.k · k1 Spaltensumme,k · k2,k · k∞Zeilensumme,k · kF, wie zeigt man das?
Neumannsche Reihe 3.2) Kondition eines Problems
Idee: ky−ˆkykyk ≤κ(x)kx−ˆkxkxk, Def:κ(x) := kDf(x)kkxkkf(x)k , Motivation: Taylor Bsp. Subtraktion
lin. Gls.:κ(A) =kAkkA−1k, Motivation: betrachteA, bgetrennt, Fehlerabsch ¨atzungen: kx−˜kxkxk ≤κ(A)krkkbk , k∆xkkxk ≤ κ(A)
1−κ(A)k∆Ak kAk
k∆Ak
kAk +k∆bkkbk Idee:0 = (A+ ∆A)(x+ ∆x)−(b+ ∆b)
3.3) Stabilit ¨at eines Algorithmus
Vorw ¨artsanalyse: verfolge Fehler schrittweise durch den Algorithmus
R ¨uckw ¨artsanalyse: fehlerbehaftete L ¨osung als exakte zu gest ¨orten Daten, vergleiche gest ¨orte und exakte Daten — Diagramm!
Stabilit ¨atsindikatoren: min.σ,ηmit ky−˜kykyk ≤σ·κ(x)·u+O(u2), k∆xkkxk ≤η·u+O(u2) r ¨uckw ¨artsstabil⇒vorw ¨artsstabil
Bsp: quadr. Gleichungx=a−√
a2−bstabil außer f ¨urb a(Ausl ¨oschung) Gauß-Algorithmus streng genommen nicht r ¨uckw ¨artsstabil (Satz von Wilkinson) 4.) Lineare Ausgleichsprobleme
4.1) Problemstellung
Allgemein & typ. Beispiele, linear:kAx−yk2 →minmitA ∈Rm×n, RangA=n ≤m 4.2) Normalengleichungen
Lemma:ku0−vk= minu0∈Uku−vkgdw.u0−v ∈U⊥
Satz:x0 = arg minkAx−yk2 ⇐⇒ ATAx0 =ATyBew: Lemma f ¨urU=BildA geometr. Interpretation, Normalengleichungen schlecht konditioniert (typ. Bsp.) 4.3) Householder-Transformationen
AnsatzH =I− vT2vvvTmitv so, dassHx=ξe1, Eig.: orthogonal, Spiegelung Herleitung:|ξ|=kxk2,x−ξe1 =αv(geometr.),
alsov = α1(x−ξe1), w ¨ahleξ=−sgn(x1)kxk2 undα=x1−ξ(dannv1 = 1) Alg.:O(4mn)flops, ¨uberschreibeAmitv, Haj
Alternativ: Givens-Rotationen ( ¨UA) 4.4) QR-Zerlegung
Satz:∃Qorth.,R = R1
0
:A=QR, Bew: eliminiere spaltenweise mit H-Trafos damit:kAx−yk22 =kR1x−z1k22 +kz2k22,z =QTy
Alg.: berechneQ, R, z1, l ¨oseR1x=z1, AufwandO(2n2(m−n3))flops (f ¨urA=QR), numerisch stabil
BildA=span(q1, . . . , qn), (BildA)⊥=span(qn+1, . . . , qm)Bew:ak =P rikqi 4.5) Singul ¨arwertzerlegung
A=UΣVT mitU,V orth.,Σ =
diag(σi) 0
0 0
,σ1 ≥. . .≥σr >0 Bew: setzeσ1 =kAk2,ATAx=σ21x,y= σ1
1Ax,P = [y, P1],Q= [x, Q1], dannPTAQ=
σ1 0 0 A2
Damit:kAx−yk22 =
Σrp1 −q1
−q2
2
2
mitp=VTx,q=UTy, w ¨ahlep2 = 0f ¨ur L ¨osung mit min. Norm
Moore-Penrose-Pseudoinverse ( ¨UA) 5.) Nichtlineare Gleichungen
5.1) Fixpunktiterationen
Nullstellen ⇐⇒ Fixpunkte, verschiedene Umformungsmgl., Bsp.3x= tanx Banachscher Fixpunktsatz (ohne Bew.), Korollar f ¨ur st. diff’bare Fkten
lineare, superlin., quadr. Konvergenz, Konv.ordnungp, auch f ¨urp6∈N Bem:x∗FP mitΦ(i)(x∗) = 0f ¨uri= 1, ..., p−1⇒Konv.ordnungp 5.2) Das eindimensionale Newton-Verfahren
Herleitung grafisch und durch Linearisierung,f0(x∗) 6= 0hinr. Bed. f ¨ur quadr. Konv., Variante f ¨urm-fache Nullstelle ( ¨UA)
Sekantenverfahren ( ¨UA)
5.3) Das Newton-Verfahren imRn
Herleitung durch Linearisierung, lokale Konv. falls FP ex. (wg.kDΦ(x∗)k= 0) Prakt. Implementierung: geeignetes x0, Abbruchbed., Ableitungen berechnen bzw.
approximieren, ged ¨ampftes Newton-V.
Newton-Kantorovich:kDF(x)−DF(y)k ≤γkx−yk,kDF(x)−1k ≤β, kDF(x0)−1F(x0)k ≤α,h= αβγ2 <1,B(x0,1−hα )⊂D
⇒(xk)wohldef.,(xk)⊂B, FPx∗ex. und lokal eind.,kx∗−xkk ≤αh2
k−1
1−h2k
5.4) Gauß-Newton-Verfahren
Idee: Newton-V. f ¨ur0 = G(x) = ∇kF(x)k22, vereinfacheDG(x);
Folge nichtlin. AusgleichsproblemeDF(xk)TDF(xk)∆xk =−DF(xk)TF(xk) 6.) Interpolation und Approximation
6.1) Klassische Polynom-Interpolation
Motivation, Aufgabenstellung, Satz: Ex. & Eind.
Lagrange, Vandermonde, Aitken-Neville, Newton: Vor/Nachteile (Aufwand) Aitken-Neville:pkk(t) =fk,pkl(t) = (t−tk)pk+1,l(t)−(t−tt l)pk,l−1(t)
k−tl (Interpol.gerade) Satz:pkl ∈Πl−kinterpoliert(tk, fk), ...,(tl, fl)(Induktion, Eind. IP)
Newton:pn(t) =Pn
k=0ak(t−t0)· · ·(t−tk−1)
mit dividierten Differenzenak=f[t0, ..., tk](Bew. geschickter Koeff’vgl.) Vorteile: Koeff. unabh. vont, AufwandO(n2), AuswertungO(n), leicht erweiterbar Interpolationsfehler:∀ˆt∃τ:f(ˆt)−p(ˆt) = (n+1)!1 f(n+1)(τ)ω(ˆt)
Bew.F(t) = f(t)−p(t)−Kω(t)mitKso, dassF(ˆt) = 0 Korollar: Absch ¨atzungkf−pk∞ ≤ kf(n+1)k∞(b−a)(n+1)!n+1
Approx. h ¨aufig schlecht (Runge-Bsp, Satz von Faber), Tschebyscheff-Knoten “opt.”
6.2) Hermite-Interpolation
∀t0 ≤. . .≤tn,y0, . . . , yn∃1p∈Πn:p(j)(ti) = yi f ¨uri= 0, ..., n,j = 0, ..., mi 6.3) Spline-Interpolation
S∆,k =n
s: [t0, tn]→R|s∈Ck−1, s|[ti,ti+1]∈Πko
dimS∆,k =k+n(Monome & abgebrochene Potenzen), besser: B-Splines (Idee) quadr. C1-Splines (Fallk = 2): Ansatz si(t) = ai +bi(t−ti) + ci(t−ti)2 liefert Rekursionsformel f ¨urbi, also ein freier Parameter, eind. l ¨osbar mitO(n)
kub.C2-Splines (Fallk = 3): 2 freie Parameter;nat ¨url./vollst./period. RB mi :=s00(ti)als Variable;(zykl.) tridiag. Gls., eind. l ¨osbar mitO(n) Approx.eigenschaft:Rb
a(f(k)(t)−s(k)(t))2dt ≤ b−a120kf(4)k2∞h2(4−k) bzw.kf(k)−s(k)kL2 ≤q
b−a
120kf(4)k∞h4−kf ¨urk = 0,1,2
Bew.idee: zun ¨achstk = 2, interpolieref00linear mitl, integriere IP-Fehler,
s00 interpoliert mind. so gut wie l (Lemma 2), daf ¨ur zeige mit part. Integration (Lem- ma 1)R
g002dt=R
s002dt+R
(g00−s00)2dt,
k= 1,k = 0durch Integration und CSU:(f0(t)−s0(t))2 = (Rt
τi(f00(x)−s00(x))dx)2 Satz: Unter allenC2-Interpol. hatsmin. Kr ¨ummung im Sinne vonR
s002dt(Lemma 1) 7.) Gew ¨ohnliche Differentialgleichungen
7.1) Motivation und Zusammenfassung theoretischer Grundlagen
Fundamentallemma:kx(t)−y(t)k ≤δeL(t−t0)+εeL(t−tL0)−1 f ¨ur allet Bew. via Diff’ungl.u˙ ≤Lu+ε, AWP gut konditioniert f ¨urL(tf −t0)“klein”
7.2) Einschrittverfahren
Idee: Integralapprox., Bsp. expl. Euler, impl. Euler, Trapez-, Mittelpunktsregel Konsistenzordnungp:x(t1)−x1 =O(hp+1)
bzw.x(t1)−x(t0)−hΦ(x(t0), x(t1), h) = O(hp+1), Bsp. wie oben
Konvergenzordnungp:x(tf)−x(tf, h) =O(hp) Satz: Kons.ord.p⇒Konv.ord.p
Bew.kEk=P
kEik ≤P
keikeL(tf−ti) ≤P
chp+1eL(tf−ti) ≤chpR
eL(tf−s)dt Satz:kx(tf)−x˜nk ≤chp eL(tf−tL0)−1 +εeM(tf−t0)+hεeM(tfM−t0)−1 f ¨ur expl. ESV 7.3) Runge-Kutta-Verfahren
Def.Ki =hf(t0+cih, x0+P
aijKj)f ¨uri= 1, ..., s,x1 =x0+P biKi explizite/implizite RKV, Ex./ & Eind. (z.B. fallsh·L· kAk∞<1)
Ordnungsbed.: Konsistenz ⇐⇒ P
bi = 1(Bew!),ci =P aij p= 2:P
bici = 12, p= 3:P
bic2i = 13,P P
biaijcj = 16
Idee: Taylor-Entw. vonf, wiederholt inKi =hf(·)einsetzen, Koeff’vgl. mitx(t1) Lemma 3/4:p≤sf ¨ur expl. RKV (betrachtex˙ =x, x(0) = 1),p≤2sf ¨ur alle RKV Lemma 5:∀p∃expl. RKV mit Ordnungp
7.4) Schrittweitensteuerung
Fehlersch ¨atzerERR=kx1−x1kmitx1, x1Ordnungpbzw.p+ 1,ˆh:=hp+1 qT OL
ERR
ERR > T OL: Schritt nochmal mitˆh < h,ERR≤T OL: n ¨achster Schritt mitˆh≥h berechnex1, x1 z.B. mit eingebettetem RKV
7.5) Steife Differentialgleichungen
steife Dgl.: min{Reλ|λEW vonfx(x(t)), t∈[t0, tf]} ·(tf −t0)0 Bsp.: Testgl.x˙ =λx(λ <0) f ¨ur expl./impl. Euler
Ziel: Stabilit ¨atsgebietG“groß”, z.B.C−⊂G(A-stabil)
Lemma: F ¨ur RKV istG={z| |R(z)| ≤1}mitR(z) = 1 +zbT(I−zA)−1e= PQ(z)(z), P, QPolynome vom Grad≤s
Satz: GradP >GradQ⇒Stab.gebiet beschr ¨ankt, gilt f ¨ur alle expliziten RKV Bew.:Q= 1, P(z) = 1 +z+O(z2)
L ¨ose Gls. f ¨urKi mit Newton-Verfahren, Vereinfachungen:K0 = 0, Jacobi-Matrix fix, DIRK bzw. SDIRK, Bsp.: Rosenbrock-Verfahren
8.) Extrapolation und numerische Differentiation