• Keine Ergebnisse gefunden

Mathematik f¨ ur Informatiker III

N/A
N/A
Protected

Academic year: 2022

Aktie "Mathematik f¨ ur Informatiker III"

Copied!
94
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Mathematik f¨ ur Informatiker III

Andreas Griewank

(griewank@math.hu-berlin.de) Wiss. Mitarbeiter:

Jan Riehme (riehme@math.hu-berlin.de) Stefan K¨orkel ( skoerkel@math.hu-berlin.de)

Julia Sternberg (jstern@math.hu-berlin.de)

9. M¨arz 2006

(2)

Inhaltsverzeichnis

D Differentialgleichungen mit Numerik 3

D - 1 Numerik im ¨Uberblick – Was ist, was will ’Numerik’ . . . 5

D - 1.1 Numerische Grundaufgaben und ihre L¨osbarkeit . . . 5

D - 2 Gleitkommadarstellung und -arithmetik . . . 6

D - 2.1 Gleitpunktoperationen . . . 7

D - 2.2 Zu Grundidee (i) – Rundung von Zwischenergebnissen . . . 7

D - 2.3 Zu Grundidee (ii) – Fortsetzung der Berechnung trotz Fehlers . . . 8

D - 3 Summation numerischer Reihen . . . 9

D - 3.1 Fehlerfortpflanzung. . . 9

D - 3.2 Rundungsfehlerabsch¨atzung bei Riemann . . . 11

D - 3.3 Konvergenzbeschleunigung (1. Stufe nach Wijngaard) . . . 13

D - 3.4 Schlussfolgerungen aus dem Summationsbeispiel . . . 14

D - 4 L¨osung (nicht-)linearer Gleichungssysteme . . . 15

D - 4.1 Linearisierung durch Jacobimatrix . . . 15

D - 4.2 Newton’s Methode im Vektorfall . . . 16

D - 4.3 Lokale Konvergenz von Newton . . . 16

D - 5 Gew¨ohnliche Differentialgleichungen (ODE) . . . 17

D - 5.1 Separable Differentialgleichungen . . . 17

D - 5.2 Lineare Differentialgleichungen erster Ordnung . . . 18

D - 5.3 Lineare Differentialgleichungen n-ter Ordnung. . . 18

D - 5.4 Lineare Differentialgleichungen mit konstanten Koeffizienten. . . 19

D - 6 Euler Verfahren f¨ur Systeme von ODEs . . . 20

D - 6.1 Systeme von ODEs und ihre numerische L¨osung . . . 20

D - 6.2 Eulers Methode und andere explizite ODE-L¨oser . . . 20

D - 6.3 Runge-Kutta Verfahren der Ordnung 2 und 4 . . . 22

D - 6.4 Visualisierung der Verfahrensordnung . . . 23

D - 6.5 Numerische Integration von Systemen . . . 24

D - 6.6 Langzeitverhalten von ODE – L¨osungen . . . 24

D - 7 Interpolation mit Polynomen und Splines . . . 26

D - 7.1 Interpolation mit Polynomen (Whd. 1.Semester) . . . 26

D - 7.2 Interpolation durch kubische Splines . . . 27

D - 8 Numerische Integration – Quadratur . . . 29

D - 8.1 Interpolatorische Quadraturformeln . . . 29

D - 8.2 Quadratur mit Extrapolation – Romberg’s Verfahren. . . 30

E Lineare und nichtlineare Optimierung 32 E - 1 Grundlagen der Optimierung . . . 34

E - 1.1 (Nicht)lineare Ausgleichsprobleme . . . 34

E - 1.2 Allgemeine lineare Funktionenapproximation . . . 35

E - 2 Lineare Optimierung . . . 38

E - 2.1 Einf¨uhrendes Beispiel: Barkeeper . . . 38

E - 2.2 Lineare Optimierungsprobleme . . . 39

E - 2.3 Transformationen. . . 40

E - 2.4 Geometrische Untersuchung . . . 40

E - 2.5 Berechnung der optimalen Ecke – Simplex-Algorithmus . . . 42

E - 2.6 Dualit¨at . . . 44

(3)

E - 2.7 Komplementarit¨at . . . 46

E - 2.8 Lineare ganzzahlige Optimierung . . . 47

E - 3 Grundlagen der Optimierung . . . 53

E - 3.1 Nichtlineare Optimierungsprobleme mit Komplexit¨at . . . 53

E - 3.2 Nichtlineare Ausgleichsprobleme . . . 54

E - 3.3 Klassen von Optimierungsverfahren . . . 55

E - 3.4 Unrestringierte nichtlineare Optimierung. . . 57

E - 3.5 Restringierte Nichtlineare Optimierung . . . 62

F Kombinatorik und Wahrscheinlichkeitsrechnung 65 F - 1 Endliche Wahrscheinlichkeitsr¨aume . . . 67

F - 1.1 Elementare Definitionen . . . 67

F - 1.2 Bedingte Wahrscheinlichkeit. . . 70

F - 1.3 Unabh¨angigkeit von Ereignissen . . . 72

F - 1.4 Produktexperimente . . . 73

F - 1.5 Zufallsvariablen. . . 74

F - 1.6 Erwartungswert, Varianz, Kovarianz . . . 77

F - 1.7 Das schwache Gesetz der großen Zahlen . . . 82

F - 2 Unendliche Wahrscheinlichkeitsr¨aume. . . 85

F - 2.1 Diskrete Wahrscheinlichkeitsr¨aume . . . 85

F - 2.2 Kontinuierliche Wahrscheinlichkeitsr¨aume . . . 86

2

(4)

Teil D

Differentialgleichungen mit Numerik

Inhaltsangabe

D - 1 Numerik im ¨Uberblick – Was ist, was will ’Numerik’ . . . 5

D - 1.1 Numerische Grundaufgaben und ihre L¨osbarkeit . . . 5

D - 2 Gleitkommadarstellung und -arithmetik . . . 6

D - 2.1 Gleitpunktoperationen . . . 7

D - 2.2 Zu Grundidee (i) – Rundung von Zwischenergebnissen . . . 7

D - 2.3 Zu Grundidee (ii) – Fortsetzung der Berechnung trotz Fehlers . . . 8

D - 3 Summation numerischer Reihen. . . 9

D - 3.1 Fehlerfortpflanzung. . . 9

D - 3.2 Rundungsfehlerabsch¨atzung bei Riemann . . . 11

D - 3.3 Konvergenzbeschleunigung (1. Stufe nach Wijngaard) . . . 13

D - 3.4 Schlussfolgerungen aus dem Summationsbeispiel . . . 14

D - 4 L¨osung (nicht-)linearer Gleichungssysteme . . . 15

D - 4.1 Linearisierung durch Jacobimatrix . . . 15

D - 4.2 Newton’s Methode im Vektorfall . . . 16

D - 4.3 Lokale Konvergenz von Newton . . . 16

D - 5 Gew¨ohnliche Differentialgleichungen (ODE) . . . 17

D - 5.1 Separable Differentialgleichungen . . . 17

D - 5.2 Lineare Differentialgleichungen erster Ordnung . . . 18

D - 5.3 Lineare Differentialgleichungen n-ter Ordnung. . . 18

D - 5.4 Lineare Differentialgleichungen mit konstanten Koeffizienten. . . 19

D - 6 Euler Verfahren f¨ur Systeme von ODEs . . . 20

D - 6.1 Systeme von ODEs und ihre numerische L¨osung . . . 20

D - 6.2 Eulers Methode und andere explizite ODE-L¨oser . . . 20

D - 6.3 Runge-Kutta Verfahren der Ordnung 2 und 4 . . . 22

D - 6.4 Visualisierung der Verfahrensordnung . . . 23

D - 6.5 Numerische Integration von Systemen . . . 24

D - 6.6 Langzeitverhalten von ODE – L¨osungen . . . 24

D - 7 Interpolation mit Polynomen und Splines . . . 26

D - 7.1 Interpolation mit Polynomen (Whd. 1.Semester) . . . 26

D - 7.2 Interpolation durch kubische Splines . . . 27

D - 8 Numerische Integration – Quadratur. . . 29

D - 8.1 Interpolatorische Quadraturformeln . . . 29

D - 8.2 Quadratur mit Extrapolation – Romberg’s Verfahren . . . 30

(5)

Literaturverzeichnis

[Hartmann] Peter Hartmann, Mathematik f¨ur Informatiker. 3. ¨uberarbeitete Auflage, 2004, View- eg. Bei Lehmann’s vorhanden, ca. 30e.

Gute Grundlage, ¨ausserst lesbar, ISBN: 3-528-23181-5

[Mazzola] Guerino Mazzola, G´erard Milmeister, Jody Weissmann, Comprehensive Mathematics for Computer Scientists 1, 2004, Springer.

Ziemlich axiomatisch und knapp geschrieben. Zweiter Band in Vorbereitung. Definitiv f¨ur h¨ohere Anspr¨uche. Begleitender Kurs im Internet verf¨ugbar. ca 30e, ISBN: 3- 540-20835-6

[Opfer] Gerhard Opfer, Numerische Mathematik f¨ur Anf¨anger. Eine Einf¨uhrung f¨ur Mathe- matiker, Ingenieure und Informatiker. 4. durchgesehene Auflage, 2002, Vieweg [Roos+Schwetlick] Hans-G¨org Roos, Hubert Schwetlick, Numerische Mathematik. Das Grund-

wissen f¨ur jedermann. Mathematik f¨ur Ingenieure und Naturwissenschaftler. 1999, Teubner

[Stummel+Hainer] Friedrich Stummel, Karl Hainer, Praktische Mathematik. 1982, Teubner [Ortega+Rheinboldt] J.M. Ortega, W.C. Rheinboldt, Iterative solution of nonlinear equations in

several variables. 1970 Academic Press, Inc.

[Stoer] Josef Stoer, Numerische Mathematik 1. Eine Einf¨uhrung - unter Ber¨ucksichtigung von Vorlesungen von F.L. Bauer. 7. neubearbeitete und erweiterte Auflage, 1994, Springer.

4

(6)

D - 1 Numerik im ¨ Uberblick – Was ist, was will ’Numerik’

Ausgangsdilemma

Die Modellierung natur- oder sozialwissenschaftlicher Zusammenh¨ange bzw ’Systeme’ f¨uhrt zu mathematischen ’Gleichungen’, die nur in ganz einfachen F¨allen per Hand oder sonstwie ’exakt’

gel¨ost werden k¨onnen.

Zum Beispiel k¨onnen schon bei der unbestimmten IntegrationMapleundMathematicanur in speziellen Ausnahmef¨allen eine L¨osung als Formel angeben.

Es l¨asst sich sogar zeigen, dass eine solche ’symbolische’ L¨osung im Regelfall garnicht existiert.

Praktischer Ausweg

Die mathematischen Gleichungen werden in Computerprogramme umgesetzt und, wenn es sich dabei um Differentialgleichungen handelt ’diskretisiert’.

Die resultierenden Systeme linearer oder nichtlinearer algebraischer Gleichungen werden dann ann¨aherungsweise ¨uber dem Raster(=Screen) der Gleitkommazahlen gel¨ost

Die Ergebnisse werden ausgedruckt oder besser graphisch dargstellt.

Stufen des ’Wissenschaftlichen Rechnens’

1. Modellierung ( des Anwendungssystems )

2. Diskretisierung ( von Differentialgleichungen )

3. Dateneingabe ( f¨ur aktuelle Situation )

4. L¨osung ( durch Gleitkomma-Algorithmen )

5. Datenausgabe ( in geeigneter Form )

Eventuell k¨onnen (iii) - (v) auch innerhalb einer Wiederholungsanweisung (Schleife, Schlaufe) aus- gef¨uhrt werden (z.B. wenn die Ausgabe zur Echtzeitsteuerung eines System dient).

D - 1.1 Numerische Grundaufgaben und ihre L¨ osbarkeit

Lineare algebraische Gleichungssysteme

Im Prinzip v¨ollig im Griff. Variablenzahl jeweils durch Speichergr¨osse und Prozessorzahl und - geschwindigkeit beschr¨ankt.

Nichtlineare algebraische Gleichungssysteme

Lokal, d.h. bei vorhandener guter Anfangsn¨aherung: wie linearer Fall.

Global: beliebig schwierig und eventuell unl¨osbar.

Anfangswertaufgaben f¨ur ODEs

Im Prinzip v¨ollig im Griff unabh¨angig von Linearit¨at.

Randwertaufgaben f¨ur ODEs

Standarddiskretisierung f¨uhrt auf lineare bzw nichtlineare algebraische Gleichungen und ist ent- sprechend l¨osbar.

Partielle Differentialgleichungen PDE

Nur im elliptischen Fall schnell l¨osbar, alles andere ist Forschungsgebiet und st¨osst jeweils an die Grenzen vorhandener Rechnerkapazit¨aten.

Warnung

Alles wird beliebig viel schwieriger wenn

• einige Variablen ganzzahlig sein m¨ussen und / oder

• die L¨osung gegebenen Ungleichungen gen¨ugen muss wie in der Optimierung ¨ublich.

(7)

D - 2 Gleitkommadarstellung und -arithmetik

Ein System von Gleitkommazahlen wird definiert durch:

• Basis (oder Radix)b(= ¨ublicherweise 2)

• Mantissenl¨angel

• Minimaler Exponentemin

• Maximaler Exponentemax

Teilmenge der reellen Zahlen Rmit Darstellung x= −1s

0.m1m2 · · · ml

| {z }

Mantissem

be∼ −1s

m1be1+m2be2+m3be3+. . .+mlbel

Vorzeichenbit s, Mantisse m, Exponente s∈

0,1 mi ∈ {0, 1, . . . , b−1} e∈ {emin, emin+ 1, . . . , emax} Bin¨ardarstellung, d.h. Basisb= 2

ist die am h¨aufigsten verwendete Basis von Gleitkommazahlen Auchb= 10 wird zuweilen in Hardware verwendet.

Arten von Gleitkommazahlen

• normalisierte Gleitpunktzahl:

m1 > 0 =⇒ 1

b ≤ m ≤ x be

< 1

x=±0.m1m2m3 · · · ml · bewithm1>0 =⇒eindeutige Darstellung

• unnormalisiert:m1 = 0 zugelassen =⇒ keine Eindeutigkeit

• denormalisiert:m1 = 0, e = emin

Vorsicht:

Rechnen mit denormalisierten Zahlen f¨uhrt zu verst¨arkten Rundungseffekten.

Betragsm¨assig kleinste normalisierte Zahl TINY TINY= 0.1·bemin =bemin1

Betragsm¨assig gr¨oßte normalisierte ZahlHUGE

HUGE= 0.(b−1)(b−1)(b−1). . .(b−1). . . bemax=bemax(1−bl) Epsilon (relative Maschinengenauigkeit) ε

ist die kleinste Zahlεf¨ur die 1 +εin Gleitkommaarithmetik nicht 1 ergibt, d.h.ε≈bl Merke:

• Mantissenl¨angel bestimmt die Rechengenauigkeit.

• Exponentenbereichemax−emin bestimmt den Wertebereich.

Beispiel D.1(Gleitpunktzahlsystem mit Basis2und Mantissenl¨ange3).

Beispiel D.2 (Einfache genaue Gleitkommazahlen im Salford Fortran 95 Compiler). b= 2, l= 24, emin=−125, emax= 128

HUGE ≈ 2128 = 21012.8

≈ 10312.8

≈ 1038 TINY ≈ 21251 = 21012.6

≈ (103)12.6 ≈ 1038 Epsilon ≈ 224 = 2102.4

≈ 1032.4

≈ 107

Folgerung D.3. Bei Verwendung der Gleitkommazahlen des Salford Fortran 95 Compilers in Standardgenauigkeit wird mit etwasieben signifikanten Dezimalstellengerechnet.

6

(8)

PSfrag replacements

x= 0.m1m2m32e Exponentenbereich−1≤e≤1

Normalisierte positive Zahlen: m1= 1, m2∈ {0,1} 3m3

Denormalisierte positive Zahlen: m1= 0, e=−1, m2∈ {0,1} 3m3

v5 =v3∗v4 0

denormalisiert TINY=14 , HUGE= 74 , EPSILON= 18 1

e −1 −1 −1 −1 −1 −1 −1 −1 m1

m2

m3

1 16

1 8

3 16

1 4

5 16

3 8

7 16

1 2

5 8

3 4

7

8 1 54 32 74

0 0 0 0

0 0

0 0

0

0 0 0

0 0 0

0 0

0 0 0

0

0 0 0 0

1 1

1 1 1 1 1 1 1 1 1 1

1 1

1 1 1

1 1 1

1 1 1

1 1

1 1 1

1 1

1 1

-1

D - 2.1 Gleitpunktoperationen

Bemerkenswert

( 1.0 / 8.0 ) * 8.0 = 1.0[1em]( 1.0 / 5.0 ) * 5.0 6= 1.0 Konsequenz

Gleitpunktoperationen st¨oren normale algebraische Rechenregeln, insbesondere Distributivit¨at:

Im Allgemeinen gilt (a+b)∗c6=a∗c+b∗c.

Man muss sich also ¨uber die Reihenfolge der Anwendung von Operationen Gedanken machen.

Allgemein g¨ultiger Standard: ANSI - IEEE 754

(ANSI →American National Standards Institute und IEEE → Institute of Electrical and Elec- tronics Egineering.)

Grundideen:

1. Alle Zwischenergebnisse werden zur n¨achsten Gleitpunktzahl gerundet.

2. The show must go on. Auch bei Fehlern wird weiter gerechnet.

D - 2.2 Zu Grundidee (i) – Rundung von Zwischenergebnissen

Auch wennx undy im Gleitpunktbereich liegen, gilt dies im Allgemeinen nicht f¨ur das Ergebnis x◦y, wobei ◦ ∈ {−,+,·, /}. Dann wirdx◦y zun¨achst mit erh¨ohter Genauigkeit berechnet und anschließend zur n¨achstliegenden Gleitpunktzahl gerundet.

Rundungsarten

∇(x◦y) nach unten gerundet

(gr¨oßte untere Schranke im Gleitpunktbereich)

∆(x◦y) nach oben gerundet

(kleinste obere Schranke im Gleitpunktbereich) Verh¨altnis der Rundung nach oben und unten

Fallsegemeinsamer Exponent von ∆(x◦y) und∇(x◦y) ist, dann gilt

∆(x◦y) − ∇(x◦y) ≤2l2e≤2l2· |x◦y|, da|x◦y| ≥ 122e

q q

0.m·2e 0.m˜ ·2e

(9)

Bezeichnet man also mit(x◦y)∈ {∇(x◦y),∆(x◦y)}die Gleitpunktzahl, die am n¨achsten zu x◦yliegt, so gilt

|(x◦y)−x◦y| ≤ 12|∆(x◦y)− ∇(x◦y)| ≤ 2l|x◦y| ≤ eps· |x◦y| wobei eps = 2ldie relative Maschinengenauigkeit ist.

Alternative Schreibweise:

f l(x◦y) = (x◦y)∗(1 +ε), wobei |ε| ≤eps.

f l(x◦y) bezeichnet das in Gleitpunktarithmetik erzielte Ergebnis f¨ur x◦y.

Konsequenz f¨ur relativen Fehler:

f l(x◦y)−(x◦y) x◦y

≤ |ε| ≤ eps

Warnung:

Rundungsfehler entstehen in (fast) jeder einzelnen Operation und pflanzen sich fort.

Algorithmen (z.B. zur Matrixfaktorisierung) m¨ussen deswegen auf ihre Stabilit¨at, d.h. die Verst¨arkung oder Abd¨ampfung von Rundungsfehlern, untersucht werden.

Beispiel D.4. Gausssche Elimination ohne Pivotierung ist extrem instabil.

Gauss mit Pivotierung ist dagegen recht stabil.

Frage

Was passiert, wennx◦y außerhalb des Wertebereichs[-HUGE, HUGE]liegt, d.h. entweder∇(x◦y) oder ∆(x◦y) nicht existiert?

BeispielD.5(Programm). REAL u,s,t s = TINY(u)**2 ! ergibt 0 t = HUGE(u)*8

! ergibt INF, signalisiert OVERFLOW

D - 2.3 Zu Grundidee (ii) – Fortsetzung der Berechnung trotz Fehlers

MitINFund-INFkann (soweit es geht)normalweiter gerechnet werden, ohne dass sich je wieder normale Zahlen ergeben.

(Einige) Rechenregeln

x + INF == INF f¨ur allex 6= -INF x * INF == sign(x) * INF f¨urx 6= 0 x / 0 == sign(x) * INF f¨ur x 6= 0

wobeisign(x)das Vorzeichen von x liefert.

Undefinierte Operationen wie0/0,INF/INF,INF-INFund0*INFergeben den sehr speziellen Wert NaN≈Not a Number.

Da einNaNnicht mit sich selbst oder etwas anderem verglichen werden kann, gilt x 6= x .EQUIV. .TRUE.

genau dann wennxeinNaNist.

Infektionsprinzip:

Wenn immer ein NaNals Argument oder Operator einer Operation auftritt sind die Ergebnisse wiederumNaNs.

Auf diese Weise wird der gesamte Berechnungszweig als ung¨ultig ausgewiesen.

8

(10)

D - 3 Summation numerischer Reihen

D - 3.1 Fehlerfortpflanzung

Erinnerung:

f l(x◦y) =x◦y∗(1 +ε) mit −eps≤ε≤eps wobei ◦ ∈ {+,−,∗, /} Prinzip Hoffnung f¨ur komplexe Berechnungen

Da Auf- oder Abrunden mehr oder minder zuf¨allig auftreten hebt sich deren Wirkung (hoffentlich) im Großen und Ganzen auf.

Positives Beispiel: Geometrische Reihe:

s= Xn

i=0

xi =1−xn+1

1−x falls x6= 1 . Einfach genaues Auswertungsprogramm in Fortran 95

INTEGER i,n REAL(KIND=1) x,y,s REAL(KIND=2) check s = 0 ! Partialsumme y = 1 !jeweils Potenz von x DO i = 0, n s = s+y ; y = y*x END DO check = x ; eps = EPSILON(x) check = (1-check**(n+1))/(1-check) WRITE(*,*) s,check,s/check-1,n*eps Programm ergibt f¨ur n= 100 undx= 2.0/3.0

s check s/check - 1 n * eps

3.0000002 3.00000019 2·108 1.2·105 Beobachtungen

• Gleitpunktwert von xist offenbar gr¨oßer als 23 (durch Rundung), da beide Summen gr¨oßer als

1 + 2 3+

2 3

2

+· · ·+ 2

3 n

= 3 1− 2

3 n+1!

| {z }

1

≤3

• Der beobachtete relative Fehler zwischen einfach und doppelt genauer L¨osung ist lediglich 2·108, d.h. von der Gr¨oßenordnung der Maschinengenauigkeit, obwohl wir 100 Operationen durchgef¨uhrt haben. Die Rundungen scheinen sich partiell aufgehoben zu haben.

• Eine exakte Absch¨atzung f¨ur den worst case (d.h. schlimmster Fall) ergibt den Wert (1 + eps)100≈100·epsals relativen Fehler. Das l¨asst sich wie folgt herleiten.

Theoretische Schranke des Fehlers im obigen Programm F¨uryi+1=f l(yi∗x) als berechneter Wert vony imi-ten Schritt gilt:

y0 = 1 y1 =x

y2 =f l(y1·x) = x2(1 +ε2)

y3 =f l(y2·x) = x3(1 +ε2)(1 +ε3) =x3(1 + ˜ε3)2 wobei|ε˜3| ≤eps y4 =f l(y3·x) = x4(1 + ˜ε2)2(1 +ε4) = x4(1 + ˜ε4)3

...

yi =xi(1 + ˜εi)i1 ...

yn=xn(1 + ˜εn)n1

(11)

Entsprechend erh¨alt man f¨ur die Partialsummen si+1 = f l(si +yi) als berechnete Werte von 1 +x . . .+xi+1

s1 =f l(y0+y1) = f l(1 +x) = (1 +x)(1 +εn+1) s2 =f l(s1+y2) = f l(s1+y2)(1 +εn+2)

= (1 +x)(1 +εn+1) +x2(1 +ε2)

(1 +εn+2)

= (1 +x+x2)(1 + ˜εn+2)2 f¨ur |ε˜n+2| ≤eps sn = (1 +x+x2+· · ·+xn)(1 + ˜ε2n)n≤s(1 +ε)n

so dass fallseps 1n ⇐⇒ n·eps1

|(sn/s−1)|=|(1 +ε)n| −1 = 1 +n·ε+n·(n−1)

2 ε2. . .−1≈n· |ε|≤n·eps Ergebnis: Worst case error- Absch¨atzung:

|sn/s−1| ≈n·eps

Negatives Beispiel (d.h. Prinzip Hoffnung versagt) : Harmonische Reihe X

i=1

1 i =













∞ (mathematisch, in exakter Arithmetik)

15.403 auf Griewank’s Laptop, in einfacher Genauigkeit (f¨ur alle hinreichend großen Summations-Schranken

= Zahl der Terme) Frage:

Was passiert?

Antwort:

Die Summation bleibt irgendwannliegen, da die zus¨atzlichen Terme im Vergleich zur berechneten Teilsumme zu klein werden.

Erkl¨arung:

Betrachte kleinen Summanden y und großen Summanden x = 0.m1m2. . . ml·2e so dass x = x+ 2l+e die n¨achst gr¨oßere Gleitpunktzahl zu x ist und x =x−2l+e ist die n¨achst kleinere Gleitpunktzahl zux.

PSfrag replacements

2e1 x

2l+e 2l+e

2e

x x

Konsequenz:

Falls|y|< 122l+e= 2l1+e gilt immer f l(x+y) =x.

Eine hinreichende Bedingung ist:|y| ≤ |x| ·eps.

Am Beispiel derharmonischen Reihegilt nach (n−1) Termen:

x=

n1

X

i=1

1 i &

Z n 1

1

zdz= ln(n).

Also bleibt die Summationliegen(d.h. die Partialsummen wachsen nicht mehr weiter) wenn

|y|= 1

n ≈ln(n)·eps was auf jeden Fall gilt wenn

n& 1

eps·ln(n)

10

(12)

Beispiel D.6 (Programm, das die harmonische Reihe summiert, bis die Partialsummen konstant bleiben:). REAL(KIND=1) salt,sneu,one salt = -1 ; sneu = 0 ; one = 1.0 ; n = 1 DO WHILE (sneu 6= salt) salt = sneu sneu = sneu+one/n n

= n+1 END DO WRITE(*,*) sneu,n Ergebnis auf Griewank’s Laptop

sneu = 15.403. . . n = 2097152≈2·106 Laufzeit ≈ 16 Sekunde

D.h. obiger Schleifenk¨orper wird in etwa 107 mal pro Sekunden ausgef¨uhrt (entspricht ca. 10 Megaflops, d.h. 10 Millionen Operationen/Sekunde.)

Vergleich zur theoretischen Herleitung

n= 2097152 ergibt ln(n)∗n∗EP SILON(x) = 3.6 Frage:

Was passiert bei Ausf¨uhrung des obigen Programms, wenn statt mit einfacher Genauigkeit (d.h.

KIND=1) nun mit doppelt genauen Gleitkommazahlen (d.h. KIND=2) gerechnet wird?

Antwort:

Das Programm l¨auft ewig, da eps1 und damit dann auch n um Faktor 253/224 ≈ 22912109 gewachsen ist.

In Sekunden:

1 6·1

2·109s = 108

36·103 h = 25·104h = 25.000 Stunden ≈1000 Tage.

D - 3.2 Rundungsfehlerabsch¨ atzung bei Riemann

Verallgemeinerung der harmonischen Reihe: Riemannsche Zetafunktion ζ(x) =

X

k=1

1

kx f¨ur x >1 Konvergenzbeweis mittels Integralschranke

PSfrag replacements

X

k=1

1

kx ≤ 1 + Z

1

dy

yx = 1 +yx+1 1−x

1

= 1− 1

1−x = x x−1 1

kx

∆ζn(x) = ζ(x)−ζn(x) = X

k1

kx− Xn

k=1

kx

= X

k=n+1

kx ≤ Z

n

kxdk = k1x 1−x

k=n

= 1

k1x(1−x)

k=n

= 0− 1

nx1(1−x) = 1

nx1(x−1) ≤ tol

⇒ n ≥ x−1 s 1

tol(x−1)

(13)

Partialsummen:

ζn(x) = Pn k=1

1

kx wachsen monoton mit n und sind nach oben durch xx1 beschr¨ankt, haben also einen eindeutigen Grenzwertζ(x).

Praktische Notwendigkeit: Diskretisierung

Hier, wie h¨aufig in numerischer Mathematik muss mathematisches Problem durch Ausf¨uhrung endlich vieler Operationen auf endlich vielen Variablen ann¨aherungsweise gel¨ost werden. Hier ein- fach Ann¨aherung vonζ(x) durchζn(x). Der entsprechende Abbruchfehler|ζ(x)−ζn(x)|kann hier einfach mit Hilfe einer Integralschranke abgesch¨atzt werden. Unabh¨angig vom in der Numerischen Analysis betrachtetenDiskretisierungsfehlerist der Rundungsfehler zu ber¨ucksichtigen.

Rundungsfehlerabsch¨atzung F¨urbi>0

f l . . . b1+b2

+b3

+b4

. . .+bn+1

+bn

= . . . b1+b2

1 +ε1 +b3

1 +ε2 +b4

1 +ε3

. . .+bn

1 +εn1

= b1 1 + ˜ε1

n2

+b2 1 + ˜ε1

n1

+b3 1 + ˜ε2

n2

+. . .+bn 1 + ˜εn1

1

=⇒

f l b1+. . .+bn

− b1+b2+. . .+bn

≤ b1

h 1 +epsn1

−1i +b2

h 1 +epsn1

−1i

+. . .+bn 1 +eps

b1+b2

(n−1) + (n−2)b3+ (n−3)b4+. . .+bn eps

Mit anderen Worten:

Der an derj+ 1-ten Stelle eingebrachte Summand wird (n−j) -mal in den Operationen von einer Rundung betroffen und tr¨agt entsprechend zur Gesamtfehlerschranke bei.

Schlussfolgerung:

Um Rundungsfehler zu minimieren sollten Summen m¨oglichst vom kleinsten zum gr¨oßten Sum- manden gebildet werden. Bei konvergenten (hoffentlich monoton fallenden) Reihen sollte von hin- ten, d.h. r¨uckw¨arts summiert werden.

Beispiel D.7(ζ(2)auf G’s Laptop in einfacher Genauigkeit:).

ζ(2) = X

k=1

1 k2









π2/6 = 1.6449340. . . exakt

1.6447253 vorw¨arts bis. liegen bleiben n= 4097 1.6446900 r¨uckw¨arts vom gleichen n= 4097 1.6449339 r¨uckw¨arts mit n= 223= 8388608 Bemerkung:

Durch R¨uckw¨artssummation k¨onnen deutlich mehr Summanden der Form 1/kx mit n > 4097 ihren Beitrag zur Gesamtsumme leisten. Mehr Summanden zu benutzten bedeutet aber, denDis- kretisierungsfehler zu verringern und damit den exakten Wertζ(x) besser zu approximieren.

Absch¨atzung des Rundungsfehlers Vorw¨arts:

eps Xn

k=1

1

k2(n−k) =eps Xn

k=1

n k2

−1 k

≈eps

2

6 −ln(n)

≈eps·n·π2 6 R¨uckw¨arts:

eps Xn

k=1

1

k2k=eps Xn

k=1

1

k ≈eps·ln(n) 12

(14)

Vergleich:

eps·n·π2

6 eps·ln(n)

D - 3.3 Konvergenzbeschleunigung (1. Stufe nach Wijngaard)

Beobachtung bei Riemann:

ζ(x) = 1 + 1

2x +· · ·+ 1

100x + 1

101x+ 1

102x+ · · ·

| {z }

sp¨atere Terme ¨andern sich nur langsam

Idee:

Erste grobe Ann¨aherung mitbk = 1 kx

a1=b1+b2·2 +b4·4 +· · ·+ (b2i)·2i > ζ =b1+b2+b3+b4. . . Reihe der 2ib2i konvergiert viel schneller als P

bk. Die Korrektur erfolgt durch transformierte Terme

aj= X

i=1

bj2i

2i.

Satz D.8. Satz: F¨urbk=kxoder andere monoton konvergierende Reihen gilt im Grenzwert X

k=1

bk= X

j=1

(−1)j1aj .

Bemerkung

Bemerkung: Die neue Reihe ist alternierend, wobeiaj ≥bj, d.h. die einzelnen Terme gehen nicht schneller gegen Null als die der Ursprungsreihe.

Idee des Beweises:

Betrachte, wie oftbk in aj auftritt

V orz j\k 1 2 3 4 5 6 7 8 9 10 11 12

+ 1 1 2 − 4 − − − 8 − − − −

− 2 − 1 − 2 − − − 4 − − − −

+ 3 − − 1 − − 2 − − − − − 4

− 4 − − − 1 − − − 2 − − − −

+ 5 − − − − 1 − − − − 2 − −

− 6 − − − − − 1 − − − − − 2

+ 7 − − − − − − 1 − − 2 − −

P

mit Vorzeichen

1 1 1 1 1 1 1 . . . .

Bemerkung

Bei Riemann k¨onnen dieai=ai(x) sogar explizit berechnet werden.

(15)

D - 3.4 Schlussfolgerungen aus dem Summationsbeispiel

• Die Behandlung mathematischer und anderer Modellierungsprobleme bedingt das Auftreten von Abbruchs- ≡Diskretisierungsfehlern sowie Rundungsfehlern. Beide sollten abgesch¨atzt und m¨oglichst minimiert werden.

• Gleitpunktarithmetik ist weder kommutativ noch assoziativ, distributiv usw. Spezielle Konsequenz:Betragsm¨aßig fallende Reihen von hinten summieren!

• Es ist erstaunlich einfach, an die Grenzen der Gleitpunkt- und Ganzzahlarithmetik zu stoßen.

• Viele Jobs (≡Programme, Daten) laufen entweder im Sekunden- oder Stundenbereich. Be- obachtung der Abarbeitung im Minutenbereich ist relativ selten.

• Mathematisch endlichist nicht gleich rechentechnisch endlich.

14

(16)

D - 4 L¨ osung (nicht-)linearer Gleichungssysteme

Methoden zur L¨osung des linearen Problemes Ax=b mitdim(x) = dim(b) =n

• Cramersche Regelxi= (−1)idet(Ai)/det(A) f¨uri= 1..n ( In Ai wird diei−te Spalte vonAdurchb ersetzt )

• Gauss-Elimination≈P A = LU Faktorisierung

(P Permutation,L unterhalb undU oberhalb dreiecksf¨ormig )

• Schmidt-Ortogonalisierung≈A = QR Faktorisierung (Qorthogonal,Roberhalb dreiecksf¨ormig )

• Fixpunkt Iteration x←x−M F(x) mitF(x)≡Ax−b (M∈Rn×n angen¨aherte Inverse so dassM A≈I ) Hinweise:

• F¨ur (eindeutige) L¨osbarkeit ist ¨uberalldet(A)6= 0 vorrauszusetzen.

• L¨oseLU x=bbzwQRx=bdurch Substitution/Transponierung.

• Die letzte Methode l¨asst sich auch auf nichtlinearesF(x) anwenden.

Linearisierung des ’Freistoss’ Beispieles

Das nichtlineare System von 3 Gleichungen in 3 Unbekannten

F1(x1, x2, x3) = x1∗x2−4.9∗x21−2 = 0 F2(x1, x2, x3) = 10∗ln(1 + 0.1∗x3∗x1)−25 = 0 F3(x1, x2, x3) = (x2−9.8∗x1)∗(x13 + 0.1∗x1) +13 = 0 hat dieJacobimatrix

F0(x) ≡ ∂

∂xF(x) ≡ ∂Fi

∂xj

i=1,2,3

j=1,2,3



x2−9.8∗x1 x1 0

x3

1+0.1x1x3 0 1+0.1x1x1x3 z(x) x13 + 0.1∗x1x29.8x23x1



mitz(x)≡ −9.8∗(x13 +x101) +101(x2−9.8∗x1) =x102 −9.8

1 x3 +15x1

D - 4.1 Linearisierung durch Jacobimatrix

Falls f¨urF :Rn→Rn dien2 Komponenten der Jacobimatrix F0(x) ≡ ∂

∂xF(x) ≡ ∂Fi

∂xj

i=1,...,n

j=1,...,n

bez¨uglich jeder der Variablenx1, . . . , xn Lipschitz-stetig sind, so l¨asst sich aus dem Hauptsatz der Differential- und Integralrechnung herleiten, dass f¨ur jeden Schritts∈Rn gilt

kF(x+s) − [F(x) + F0(x)s]k ≤ γksk2

Hierbei istF0(x)s ein Matrix-Vektor Produkt und k · kist eine Vektor- bzw. Matrixnorm (siehe Abschnitt B-3) mit

kF0(x)−F0(y)k ≤ γkx−yk

Fx(s)≡F(x)+F0(x)sist als Funktion des variablen Vektorssdie Linearisierung ( verallgemeinerte Tangente ) vonF an der Stelle x.

(17)

D - 4.2 Newton’s Methode im Vektorfall

Setzt man die LinearisierungFx(s) =F(x) +F0(x)szu null so erh¨alt man das lineare Gleichungs- system

As=b mit A=F0(x) und b=−F(x) Die L¨osung l¨asst sich ausdr¨ucken als

s=A1b=−F0(x)1F(x) und heisstNewtonschritt.

Wiederholte Berechnung von s und anschliessende Inkrementierungx ← x+s ergibt Newton’s Methode

x(k+1)≡x(k)+s(k) mit F0(x(k))s(k)=−F(x(k)) f¨ur k= 0,1, . . . Hierbei z¨ahlt der hochgestellte Index (k) die Iterationen.

Warnung:

• Das Verfahren muss abgebrochen werden wenn det(F0(x(k))) null oder sehr klein ist.

• Im letzteren Falle werden die Schritte s(k) typischerweise sehr gross und f¨uhren h¨aufig zu Argumentenx(k+1)woF garnicht mehr ausgewertet werden kann.

• Zur Vermeidung dieses Problems wirds(k) manchmal mit einem D¨ampfungsfaktorα(k)<1 multipliziert, der dann Schrittweitegenannt wird. Wir iterieren also effektiv

x(k+1)=x(k)−α(k)F0(x(k))1F(x(k))

Die Bestimmung eines geeigneten α(k)heisst auch Strahlsuche (engl: Line Search).

D - 4.3 Lokale Konvergenz von Newton

Satz D.9 (Satz von Kantorovich). Sei die VektorfunktionF :Rn →Rn einmal differenzierbar und besitze ihre Jacobimatrix F0(x)∈Rn×n die Lipschitzkonstante γ.

Weiterhin sei x(0) ein Punkt an dem F0(x(0)) regul¨ar ist und somit eine Inverse F0(x(0))1 exi- stiert. Mitk · kals induzierte Matrix-Norm folgt dann aus

F0(x(0))1

2

F(x(0)) ≤ 1

dass Newton’s Methode zu einer L¨osungx() mitF(x()) = 0 konvergiert.

Die Konvergenzgeschwindigkeit ist quadratisch in dem Sinne dass f¨ur eine Konstantecund allek gilt

x(k+1)−x() ≤c

x(k)−x()

2

Bemerkung:

Je nichtlinearer ein Problem umso gr¨osser istγund desto st¨arker ist damit die Bedingung anx(0). Wird praktisch nie ¨uberpr¨uft !!!!

16

(18)

D - 5 Gew¨ ohnliche Differentialgleichungen (ODE)

(nachHartmann, Mathematik f¨ur Informatiker)

Definition D.10 (Gew¨ohnliche Differentialgleichungen (ODE)). Eine Gleichung, in der neben der unabh¨angigen Variablen x und einer gesuchten Funktion y =y(x) auch deren Ablei- tungen dxdnyn =y(n)(x) bis zur Ordnungnauftreten, heisstGew¨ohnliche Differentialgleichung n-ter Ordnung (ODE).

Sind ausserdem einx0aus dem Definitionsbereich vony(x) und zugeh¨orige Wertey(x0), y(1)(x0), . . . , y(n1)(x0) gegeben, so spricht man von einemAnfangswertproblem.

D - 5.1 Separable Differentialgleichungen

Definition D.11 (Separable Differentialgleichung).Eine DifferentialgleichungF(x, y, y0) = 0 erster Ordnung heisstseparabel, wenn sie sich in der Form

y0=f(x)g(y)

darstellen l¨asst, wobei f : I −→ R, g : J −→ R stetige Funktionen auf den Intervallen I ⊆R, J ⊆Rsind.

Satz D.12 (L¨osbarkeit: Anfangswertproblem separabler ODE). Eine separable Differen- tialgleichung erster Ordnung mit der Anfangsbedingung y(x0) = y0 f¨ur x0 ∈ I, y0 ∈ J, hat im IntervallJ eine eindeutige L¨osungy(x) :I −→J, falls

g(y)6= 0 ∀y∈J.

Seien

G(y) :=

Z y y0

1

g(y)dy, F(x) :=

Z x x0

f(x)dx die Stammfunktionen von g(y)1 bzw.f(x).

Dabei wurden f¨ur Integrationsvariable und Obergrenze der Integration das gleiche Symbol ver- wendet.

Auf J ist G0(y) = g(y)1 6= 0 (Voraussetzung SatzD.12), daher istG streng monoton und besitzt eine UmkehrfunktionG1.

Dann ist aber

y(x) :=G1(F(x)) die L¨osung des Anfangswertproblemsy0=f(x)g(y),y(x0) =y0. Probe:

G(y(x)) =F(x) =⇒ G0(y(x))y0(x) =F0(x) = g(y(x))1 y0(x) =f(x)

=⇒ y0(x) =f(x)g(y(x)) Anfangswert: y(x0) =y0

F(x0) = 0 =⇒ y(x0) =G1(F(x0)) =G1(0) G(y0) = 0 =⇒ G1(0) =y0

=⇒ G1(0) =y0=y(x0)

Satz D.13. Das Anfangswertproblemy0(x) =f(x)g(y), mit Funktionenf :I −→R, g:J −→R, und dem Anfangswerty(x0) =y0∈J, hat die eindeutige L¨osungy, die man erh¨alt, wenn man die folgende Gleichung nach y aufl¨ost:

Z y y0

1 g(y)dy=

Z x x0

f(x)dx

(19)

D - 5.2 Lineare Differentialgleichungen erster Ordnung

Definition D.14 (Lineare Differentialgleichung). Differentialgleichungen, bei denen die Funk- tion y =y(x) und ihre Ableitungen nur in linearem Zusammenhang auftreten heissen Lineare Differentialgleichungen.

Lineare Differentialgleichungenerster Ordnunghaben die Form y0+a(x)y=f(x).

Ist die Funktionf(x)≡0 auf der rechten Seite identisch Null, so heisst die Gleichung homogen, sonstinhomogen.

Die FunktionF(x) auf der rechten Seite heisstQuellfunktion.

Satz D.15 (L¨osung homogener linearer ODE). Ista(x)auf dem IntervallI stetig, so lautet die vollst¨andige L¨osung der linearen Differentialgleichungy0+a(x)y= 0

y(x) =c·eA(x) wobeic∈Rund A(x)eine Stammfunktion von a(x)ist.

Satz D.16 (L¨osung inhomogener linearer ODE). Die inhomogen lineare Differentialglei- chungy0+a(x)y=f(x), f, a:I −→Rstetig,x0∈I, besitzt die vollst¨andige L¨osung

y= Z x

x0

f(t)eA(t)dt+c

·eA(x) wobeic∈Rund A(x)eine Stammfunktion von a(x)ist.

D - 5.3 Lineare Differentialgleichungen n-ter Ordnung

Definition D.17 (Lineare ODE n-ter Ordnung). Eine Differentialgleichung der Form y(n)+a1(x)y(n1)+· · ·+an1(x)y0+an(x)y = f(x)

heisstlineare Differentialgleichung n-ter Ordnung.

Dabei sind die Funktionenf, ai:I −→Rauf dem Intervall stetig.

Dieai heissen Koeffizientenfunktionen,f heisst Quellfunktion.

Istf = 0, so heisst die Gleichung homogen, sonstinhomogen.

Satz D.18 (Existenz und Eindeutigkeit der L¨osung). Sei

y(n)+a1(x)y(n1)+· · ·+an1(x)y0+an(x)y = f(x) eine lineare Differentialgleichung n-ter Ordnung mitai, f :I −→R undx0∈I. Dann gibt es zu den Anfangswerten

y(x0) =b0, y0(x0) =b1, . . . y(n1)(x0) =bn1

genau eine L¨osungy=y(x)dieses Anfangswertproblems.

Diese L¨osung existiert auf dem ganzen IntervallI.

Satz D.19 (L¨osungsstruktur linearer ODE n-ter Ordnung). Die Menge H der L¨osungen y:I−→Rder homogenen linearen Differentialgleichung y(n)+a1(x)y(n1)+· · ·+an1(x)y0+ an(x)y = 0mit ai:I −→Rbildet einen reellen Vektorraum der Dimension n.

Eine Basis des L¨osungsraumesH nennt manFundamentalsystem.

Jede L¨osungy der inhomogenen Gleichungy(n)+a1(x)y(n1)+· · ·+an1(x)y0+an(x)y = f(x) mitf :I −→Rhat die Form

y=ys+yh

wobei xh∈ H eine L¨osung der homogenen und ys eine spezielle L¨osung der inhomogenen Diffe- rentialgleichung ist.

18

(20)

D - 5.4 Lineare Differentialgleichungen mit konstanten Koeffizienten

F¨ur inhomogene lineare Differentialgleichungen n-ter Ordnung (siehe Definition D.17) existiert kein allgemeines L¨osungsverfahren.

F¨ur den Fall konstanter Koeffizientenfunktionen ai(x) ∈R kann jedoch ein Fundamentalsystem angegeben werden:

L¨osung des homogenen Systems

y(n)+a1y(n1)+· · ·+an1y0+any = 0 L¨osungsansatz: Exponentialfunktion y(x) =eλ x und damit

y(x) =eλ x, y0(x) =λ eλ x, y00(x) =λ2eλ x, . . . , y(n)(x) =λneλ x Einsetzen in die Differentialgleichung liefert

λneλ x+a1λn1eλ x+· · ·+an1λ eλ x+aneλ x = (λn+a1λn1+· · ·+an1λ+an)eλ x = 0 Definition D.20 (Charakteristisches Polynom). Das Polynom

p(λ) :=λn+a1λn1+· · ·+an1λ+an

heisst charakteristisches Polynom der homogenen linearen Differentialgleichung n-ter Ordnung mit konstanten Koeffizienten

y(n)+a1y(n1)+· · ·+an1y0+any = 0.

Fortsetzung: L¨osung des homogenen Systems

Aus den Nullstellenλi, i= 1. . . nmit p(λi) = 0 des charakteristischen Polynoms kann ein Funda- mentalsystem f¨ur die homogene Differentialgleichung n-ter Ordnung konstruiert werden.

Dazu ist eine Fallunterscheidung nach derVielfachheit der Nullstellenλi n¨otig:

λ∈R ist einfache Nullstelle

Dann ist eλ x eine L¨osung der Differentialgleichung.

λ=α+iβ ∈Cist einfache komplexe Nullstelle

eα xcosβ x und eα xsinβ x sind L¨osungen der Differentialgleichung.

λ∈R istk-fache reelle Nullstelle

xieλ x, i= 0, . . . , k−1 sindklinear unabh¨angige L¨osungen.

λ=α+iβ ∈Cist k-fache komplexe Nullstelle

xieα xcosβ x, xieα xsinβ x, i= 0, . . . , k−1 sind die 2klinear unabh¨angige L¨osungsfunktionen.

Beispiel D.21. SieheHartmann, Mathematik f¨ur Informatiker, S.352 ff.

(21)

D - 6 Euler Verfahren f¨ ur Systeme von ODEs

D - 6.1 Systeme von ODEs und ihre numerische L¨ osung

In vielen Anwendungen wird der Zustand eines Systems zum Zeitpunkttdurch einen Vektor x(t) = [x1(t), x2(t), . . . , xn(t)]> mit n >0

beschrieben. Die ¨Anderungsgeschwindigkeit ˙x≡dx(t)/dtdes Zustandes nach der Zeit ergibt sich h¨aufig als FunktionF(x(t)) mitF:Rn→Rneben dieses Zustandes. Also erhalten wir das System gew¨ohnlicher Differentialgleichungen

˙

x(t) = F(x(t)) kurz x˙ = F(x)

Das System heisst autonom, da die Zeitt auf der rechten Seite nicht explizit, sondern nur mit- telbar ¨uber x = x(t) vorkommt. Dieses ist keine Einschr¨ankung da ein nichtautonomes System

˙

x(t) = F(t, x(t)) sich autonom umschreiben l¨asst indem man t als nullte Zustandskomponente x0(t) hinzuf¨ugt und somit f¨ur ¯x≡(x0, x1, . . . , xn)T erh¨alt

d dtx¯ ≡

0

˙ x

= t˙

˙ x

= 1

F(¯x)

≡ F(x)

Auch ODEs h¨ohere Ordnungen lassen sich in Systeme von ODEs erster Ordnung umschreiben, indem man z.B. die erste Ableitung y0 als neue abh¨angige Variable v ≡ y0 definiert und dann y00 durchv0 ersetzt. So wird zum Beispiel aus einer nichtautonomen Differentialgleichung zweiter Ordnung

y00 = f(t, y, y0)

das autonome System erster Ordnung in den drei Variableny0≡t,y1≡y undy2≡y0

 y00 y10 y20

 =

 1 y2

f(y0, y1, y2)

Entsprechend lassen sich Anfangsbedingungen umschreiben.

Die Umformulierung als System 1.Ordnung er¨offnet die M¨oglichkeit numerische Standardmethoden und Software f¨ur die L¨osung autonomer Systeme erster Ordnung mit Anfangsbedingungen zur Anwendung zu bringen.

Satz D.22 (Existenz und Eindeutigkeit der L¨osung). Sei F : D ⊂ Rn −→ Rn in einem offenem Gebiet Dlokal Lipschitz-stetig.

Dann existiert f¨ur jeden Punktyo∈ Dein Intervall(a, b)30und eine eindeutige L¨osungy(t)∈ D der ODEy˙=F(y) f¨ura < t < bmity(0) =y0.

Bemerkung:

1. F¨ur die Existenz einer L¨osung ist die Stetigkeit von F hinreichend. Vorraussetzung von Lipschitz - Stetigkeit ist f¨ur die Eindeutigkeit der L¨osung und die Konvergenz numerischer Verfahren erforderlich.

2. Das Intervall (a, b) kann so gross gew¨ahlt werden, dass y(b) den Rand vonDerreicht.

D - 6.2 Eulers Methode und andere explizite ODE-L¨ oser

Die meisten ODEs haben keine geschlossen darstellbare L¨osung.

Die L¨osung kann aber durch numerische Methoden mit (mehr oder weniger) beliebiger Genauigkeit approximiert werden.

Numerische Approximationen sind auch alles, was zur Berechnung der mathematischen Standard- funktionenex, sinxetc. zur Verf¨ugung steht, da diese Funktionen als L¨osung von ODEs definiert sind.

Die einfachste numerische Methode zur L¨osung von ODEs ist das Explizite (Vorw¨arts) Eulersche Polygonzugverfahren.

Explizite (Vorw¨arts) Euler-Methode

Seiy(t)die exakte L¨osung vony(t) =˙ f(t, y(t))mit y(0) =y0. 20

(22)

h 2h 3h tk=k·h T t y

y(k·h)

y(T) exakter Wert

yk

yn=yt/h

imk-ten Schritt berechneter Wert

˙

y(k·h) =f(tk,yk)

≡Anstieg derTan- gentey(t) der˙ L¨osungy(t) in tk

y(0) =y0

Gesucht wird alsoyk≈y(tk)f¨urk= 0, . . . ,Th mittk=k·h:

yk+1≡yk+h f(tk, yk) ≈ y(tk+1)

Beispiel D.23(Autonome lineare ODE).

˙

y=λy mit λ∈R und y0= 1 Anwendung von Eulers Methode:

y1 = y0+h λy0 = (1 +h λ)y0

y2 = y1+h λy1 = (1 +h λ)y1 = (1 +h λ)2y0

...

yk = (1 +λh)ky0 = (1 +λh)k ...

yn = (1 +λh)ny0 = (1 +λh)Th Vergleich mit exakter L¨osung:

y(t) = exp(λ t) ergibt am EndpunktT y(T) =eλT ≡ lim

h0(1 +λh)Th = lim

n→∞

1 +λT

n n

Erl¨auterung

Die angen¨aherte L¨osungyT /hkonvergiert gegen die exakte L¨osungy(T) der ODE wenn die Schritt- weiteh=T /n gegen Null geht. Das bedeutet aber dass die Anzahl der Eulerschritte und damit der Berechnungsaufwand gegen∞gehen.

Frage:

Kann der ApproximationsfehlerkyT /h−y(T)kals Funktion der Schrittweiteh=T /ndargestellt und somit zur Bestimmung einer vern¨unftigen Schrittzahlngenutzt werden?

Antwort: JA!

Im vorliegenden speziellen Fall gilt

hlim0

yT /h

y(T)−1 1

h =−12T λ2 und somit erf¨ullt der Fehler

yT /h−y(T) =h(−12T λ2) +O(h2)

(23)

Beweis.

hlim0

eλT(1 +λh)T /h−1 h

= lim

h0e−λT ddheT /hln(1+λh)

= lim

h0eλT(1 +λh)T λ/λh

−T

h2ln(1 +λh) + T λ h(1 +λh)

= lim

h0

1 2hT

− − λ

(1 +λh)+ λ

(1 +λh)+ λ2h (1 +λh)2

= −12T λ2

Folgerung D.24 (Approximationsfehler der Euler-Methode). F¨ur alle Lipschitz-stetigen Probleme (d.h. die rechte SeiteF(t, y,y)˙ der ODE ist Lipschitz-stetig) liefert das Euler-Verfahren eine numerische L¨osung mit

yT /h−y(T) = c(T)h+O(h2).

Deshalb nennt man diese Methode auch Verfahren erster Ordnung:

Die Verdopplung der Approximationsgenauigkeit durch Halbierung der Schrittweitehverdoppelt den Berechnungsaufwand.

Frage:

Gibt es Verfahren der Fehlerordnungpso dass

kyn−y(T)k=c(T)hp+O(hp+1)

gilt und damit die Halbierung der Schrittweite hzu einer Reduktion des Fehlers um den Faktor (12)p f¨uhrt ?

Anwort: JA!

p=2 Mittelpunkt - Regel oderHeun’sches Verfahren p=4 Runge-Kutta 4. Ordnung

p=5 Runge-Kutta-Fehlberg

D - 6.3 Runge-Kutta Verfahren der Ordnung 2 und 4

Mittelpunkt-Regel

• tk+1/2 = tk+ 0.5hk; tk+1 = tk+hk

• yk+1/2 = yk+ 0.5hkf(tk, yk)

• yk+1 = yk+hkf(tk+1/2, yk+1/2) Runge-Kutta 4 (Standardwahl)

• tk+1/2 = tk+ 0.5hk; tk+1 = tk+hk

• yk+1/4 = yk+ 0.5hkf(tk, yk)

• yk+1/2 = yk+ 0.5hkf(tk+1/2, yk+1/4)

• yk+3/4 = yk+ hkf(tk+1/2, yk+1/2)

• yk+1 = yk+h6k

f(tk, yk) + 2f(tk+1/2, yk+1/4) + 2f(tk+1/2, yk+1/2) +f(tk+1, yk+3/4)

22

(24)

D - 6.4 Visualisierung der Verfahrensordnung

F¨ur einen beliebigen numerischen Integrator folgt aus der vorrausgesetzten Beziehung kyT /h−y(T)k = c(T)hp+O(hp+1) ≈ c(T)hp

durch Logarithmierung, dass

−log kyT /h−y(T)k

≈ p(−log(h))−log(c(T))

Die linke Seite ist ein Maß der korrekt berechneten Dezimalstellen in der L¨osung. Sie ist nun ann¨aherungsweise eine affine Funktion von−log(h) also eine Gerade, deren Steigung gerade die Ordnungpder Methode ist. [0.3cm]

Um die Ordnung eines Verfahrens zu pr¨ufen kann man die Schrittweite zum Beispiel wie hk = T /2k f¨ur k = 1,2. . . variieren und die entsprechenden Fehler −log kyT /hk−y(T)k

¨uber den Abzissenwerten−log(hk) =klog(2)−log(T) auftragen.

0 5 10 15 20 25 30

0 2 4 6 8 10 12

Euler Midpoint RK-4

Frage:

Wie kann die Schrittweite in Hinblick auf den gesch¨atzten Fehler gew¨ahlt werden?

Antwort:

Durch Vergleich der Ergebnisse f¨ur verschiedene Schrittweitenhoder verschiedener Methoden.

Beispiel D.25(Mittelpunkt - Regel).

yn = y(T) +c(T)h2+O(h3) y2n = y(T) +c(T)14h2+O(h3)

=⇒ yn−y2n = c(T)34h2+O(h3)

=⇒ c(T) ≈ 43

yn−y2n

h2 ≡ c(T˜ )

=⇒ ky2n−y(T)k ≈ 43ky2n−ynk ist eine Fehlerabsch¨atzung f¨ur die Mittelpunktregel.

Folgerung D.26 (Einfache Schrittweitensteuerung). Wenn die numerische L¨osung mit einer absoluten Genauigkeit vonτ >0gew¨unscht wird, dann w¨ahlt man bei der Mittelpunktsregel

h=p2 τ /˜c(T) Allgemeiner empfiehlt sich f¨ur ein Verfahren der Ordnung p

h=pp τ /˜c(T)

(25)

Hierbei ist die Fehlerkonstante˜c(T)STARK vom Verfahren abh¨angig.

Nimmt man dennoch an, dass f¨ur Euler, Mittelpunkt und Runge-Kutta 4 die c =c(T) ¨ahnlich gross sind, so ergeben sich Rechenaufw¨ande von

1·c/τ, 2·p

c/τ , 4·p4 c/τ

Auswertungen der rechten Seite. Bei gr¨osserer geforderter Genauigkeit, also kleineremτ sind Ver- fahren h¨oherer Ordnung zu bevorzugen,vorrausgesetzt die rechte Seite der ODE ist pmal diffe- renzierbar.

D - 6.5 Numerische Integration von Systemen

Runge-Kutta Methoden sind direkt auf Systeme

˙

y(t) =f(y(t))∈Rn bzw y(t) =˙ f(t, y(t))∈Rn

anwendbar. W¨ahrend die unabh¨angige Variabletund die entsprechenden SchrittweitenhSkalare bleiben, sind alle anderen Gr¨ossen jetzt Vektoren der L¨angen.

Die Euler Rekursion

yk+1=yk+hkF(tk, yk)∈Rn

erfordert also das h-fache des RichtungsvektorsF(tk, yk)∈ Rn zu dem alten Zustandsvektoryk

zu addieren, um den neuen Zustandsvektor yk+1 ∈ Rn zu erhalten. Es ist davon auszugehen, dass diese Vektormultiplikation und -addition vom Aufwand her gegen¨uber der Auswertung der Rechten SeiteF(t, y) vernachl¨assigbar ist.

Die Konvergenzordnungen bleiben erhalten, wobei der Abstand zwischen der ann¨ahenden und der genauen L¨osung jetzt als eine VektornnormkyT /h−y(T)kder Differenz zwischenyT /h undy(T) zu bestimmen ist.

Lineares Beispiel f¨ur Euler

Das autonome System linearer Differentialgleichungen x(t)˙

˙ y(t)

=

−y(t) x(t)

mit

x(0) y(0)

= 1

0

hat die analytische L¨osung [x(t), y(t)] = [cos(t), sin(t)]. Die Anwendung der Eulermethode mit Schrittweite h ergibt

xn+1

yn+1

= xn

yn

+h

−yn

xn

=

xn−hyn

yn+hxn

=

1 −h

h 1

xn

yn

cos(α) −sin(α) sin(α) cos(α)

xn

yn

n

cos(nα) −sin(nα) sin(nα) cos(nα)

x1

y1

wobeiρ≡√

1 +h2 undα= arcsin(h/p

1 +h2) .

D - 6.6 Langzeitverhalten von ODE – L¨ osungen

Bemerkung zum Langzeitverhalten

H¨aufig ist von Interesse (z.B. in der Klimavorhersage), wie sich L¨osungeny(t) der ODE ˙y=F(y) f¨ur sehr grosset qualitativverhalten, und zwar unabh¨angig vom Anfangswerty(t0) =y0. D.h. man will wissen, ob das dynamische System sich einschwingt, einen Gleichgewichtszutand erreicht, zuf¨alliges (d.h. chaotisches) Verhalten o.¨a. zeigt.

Im folgenden machen wir Aussagen f¨ur autonome Systeme der Zustandsraumdimension n, die entspechend auch f¨ur nichtautonome Systeme der Dimension n−1 gelten.

(I) Fallsn= 1muss und sonst (n >1) kann einer der beiden folgenden F¨alle eintreten:

1. y(t) strebt einem station¨aren Grenzwert y= lim

t→∞y(t) zu Beispiel: ˙y=λ(y−a), a∈R, λ <0, y0beliebig

24

(26)

t y

y

y(t) =c eλt+a, c <0 y(t) =c eλt+a, c >0

(b) y(t) explodiert (blow up)

tlimtky(t)k=∞ f¨ur endliche Zeitt (kritische Zeit)

Beispiel: y˙ =y2 mit y(0) =y0>0

=⇒ dy

y2 =dt =⇒ Z 1

y2dy= Z

dt =⇒ −1

y =t+c =⇒ y(t) =− 1 t+c AW: y0=−1

c >0

=⇒ c= −1 y0

<0

=⇒ y(t) = 1

1 y0 −t

t y

t y(t) = 11

y0t

(II) Asymptotisch periodische L¨osung

Falls die Zustandsdimensionn= 2 ist muss, ansonsten kanny(t) sich asymptotisch einer periodi- schen L¨osungy(t) n¨ahern, f¨ur die gilt

y(t+T) =y(t) f¨ur allet >0 und feste PeriodeT.

Beispiel: siehe obigesLineares Beispiel f¨ur Euler

(III) Chaotisches Verhalten

Falls Dimensionn > 2 (einschliesslich n= 2 im nichtautonomen Fall) kann die L¨osungy(t) der ODE sich chaotisch verhalten, d.h. auch nach sehr langer Zeit l¨asst sich keine periodische oder station¨are Struktur erkennen.

Beispiel: Lorenz - Attraktor ( ¨Ubung 2)

Referenzen

ÄHNLICHE DOKUMENTE

Wir haben gesehen, daß konvergente Folgen beschr¨ ankt sind, aber nicht jede beschr¨ ankte Folge konvergiert.. Jedoch gilt folgender Satz, der f¨ ur den Beweis vieler grundlegender

Da die Partialsummen der Exponentialreihe stetig sind und diese Folge gleichm¨ aßig gegen f konvergiert, folgt mit Satz VI.1.6, daß f auf dem Intervall [−a, a, ] stetig ist. Wegen

Also ist A ∨ B genau dann wahr, wenn mindestens eine der Aussagen A und B wahr ist (wir lassen also auch zu, daß beide Aussagen wahr sind)... Um mathematische Aussagen zu

Entscheiden Sie, welche der Beziehungen aus Aufgabe 1 auch f¨ur Betr¨age komplexer Zahlen

L¨osen Sie folgende homogene Gleichungssysteme mit Hilfe des Gauß’schen

Durch Experimente fand man heraus, dass die Wahrscheinlichkeit daf¨ ur, dass der Wert von X um mehr als einen konstanten Faktor λ &gt; 1 von E(X) abweicht, sehr klein ist, d.h. f¨

Dann sind auch die restlichen Vektorraum- Axiome erf¨ ullt, denn dann ist die L¨ osungsmenge der Kern der durch die Matrix A repr¨ asentierten linearen Abbildung und das ist

Eine Krankheit komme bei etwa 0,5% der Bev¨olkerung vor. Ein Test zur Auffindung der Krankheit f¨ uhre bei 99% der Kranken zu einer Reaktion, aber auch bei 2% der Gesunden. Wir