• Keine Ergebnisse gefunden

Relation zu anderen Folgentransformationen

Iterative Folgentransformationen

3.3 Die J -Transformation

3.3.7 Relation zu anderen Folgentransformationen

; n! 1 (3.168)

gilt, dann folgt aus Aussage c) von Lemma B.3 im Anhang, da Gl. (3.165) fur l = 0 erfullt ist. Folglich ist Satz 3.17 wichtig fur den Fall, da Gl. (3.168) gilt, und damit fur den Fall logarithmischer Konvergenz. Vergleich der Satze 3.16 und 3.17 zeigt, da die Konvergenzordnung, also der negative Exponent von n+ in Gln. (3.30) und (3.167), von 2k aufk fallt. Lineare Konvergenz lat sich also ezienter beschleunigen als logarith-mische. Ahnliche Aussagen sind fur Levin-artige Extrapolationsmethoden bekannt [368, Satze 13.5, 13.9, 13.11, 13.12, 14.2].

Satz 3.16 zeigt, da im Falle linearer Konvergenz die p

J

-Transformation dem -Algo-rithmus von Wynn [399] uberlegen sein sollten. Man betrachte beispielsweise den Fall,

da sn s+nnX1

n=0cj=nj ; c0 6= 0; n!1 (3.169) eine asymptotische Entwicklung der Folgenelemente sn ist. Unter den Annahmen 6= 1 und 62f0;1;:::;k 1g folgt ([394, S. 127]; [368, S. 333, Gl. (13.4-7)])

(n)2k s

sn s =On 2k ; n !1: (3.170)

Auch hier erhalt man also Konververgenzordnung 2k. Allerdings werden zur Berechnung von(n)2k die 2k+1 Folgenelementefsn;:::;sn+2kgbenotigt. Fur die Berechnung vonp

J

(k)n , das die gleiche Konvergenzordnung aufweist, werden jedoch nur diek+ 1 Folgenelemente

fsn;:::;sn+kg benotigt, wenn man t- und u-Varianten verwendet, und zusatzlich noch das weitere Folgenelement sn+k+1 im Falle der ~t-Variante. Auch dies ist fur Levin-artige Verfahren typisch [368, S. 333].

3.3.7 Relation zu anderen Folgentransformationen

Viele bekannte Algorithmen sind fur bestimmte Modellfolgen der Form sn=s+!nk 1X

j=0dj j;n; n 2N0 : (3.171) exakt. Diese Modellfolgen konnen als Varianten des E-Algorithmus aufgefat werden, wenn man gj(n) = !n j;n setzt, wie man durch Vergleich mit (2.16) sieht. In der Praxis sind die j;n in der Regel eine asymptotische Folge fur n ! 1 gema j+1;n = o( j;n).

Um die Beziehung anderer Algorithmen zurJ-Transformation herauszunden, kann man

62 KAPITEL 3. ITERATIVE FOLGENTRANSFORMATIONEN versuchen, die Groen(k)n aus der Denition (3.24) der J-Transformation als Losung des Rekursionschemas (3.113) mit den Anfangsbedingungen

(0)j;n= j;n (3.172)

zu bestimmen. Die mit diesen (k)n (bzw. r(k)n ) berechnete J-Transformation mu dann identisch sein zu der Folgentransformation mit Kern (3.171).

Es sei hier allerdings betont, da diese im Prinzip mogliche Vorgehensweise auf der Basis der Modellfolge (3.171) fur die J-Transformation nicht optimal ist. Stattdessen ist die iterative Verwendung viel einfacherer Modellfolgen das Ziel. Wie oben gezeigt, kann man gleich von Beginn an einfache Varianten der(k)n wahlen, die zu relativ komplizierten Ausdrucken fur die j;n fuhren. Dies ist in der Praxis aber meist nicht nachteilig, da man fur die meisten Probleme gar nicht a priori wei, welche j;n denn optimal sind.

Die Modellfolgen approximieren die Probleme ja nur. Und heuristische Betrachtungen funktionieren, wie wir gesehen haben, auf der Ebene der (k)n ebenso gut wie auf der der

j;n. Der Hauptvorteil bei der Verwendung der (k)n ist, da sie viel enger mit dem Algo-rithmus verknupft sind und daher sehr eziente Algorithmen resultieren.

Nach der Betonung dieses methodisch wichtigen Punktes kehren wir zuruck zum Pro-blem der Berechnung der (k)n fur gegebene j;n. Dieses Problem ist im Prinzip durch Gl.

(3.115) gelost. Demnach gibt es ein allgemeines Verfahren, fur irgendwelche gegebenen j;n

eine geeignete Variante der J-Transformation mit dem Kern (3.171) zu nden. Das be-deutet, da dieJ-Transformation von ahnlicher Allgemeinheit wie derE-Algorithmus ist.

Es gibt auch eine ganze Reihe von Querverbindungen. Dies wird spater noch ausfuhrlich diskutiert.

Man sollte jedoch beachten, da die Operatoren r(j)n aus Gl. (3.39), die in Gl. (3.115) vorkommen, selbst von bestimmten (k)n abhangen, die man allerdings vorher berechnen kann. Gleichung (3.115) ist demnach keine explizite Losung des Problems, kann aber prinzipiell zur numerischen Berechnung aller(k)n verwendet werden.

Es ist demnach von Interesse zu untersuchen, ob man explizite Losungen fur die (k)n zumindest in Spezialfallen nden kann. Es gibt einige wichtige Familien asymptotischer Funktionen j;n=(0)j;n fur Modellfolgen der Form (3.171):

j;n = 1=(n+)j ; (3.173a)

j;n = (2)j

(n+)j ; (3.173b)

j;n = 1=(n+)j ; (3.173c)

j;n = xjn: (3.173d)

Wir bemerken, da Gl. (3.173c) ein Spezialfall von Gl. (3.173d) fur xn = 1=(n+) ist.

Ebenso ist Gl. (3.173a) | abgesehen von einemn-unabhangigen Faktor | ein Spezialfall von Gl. (3.173b).

Der fur die Analyse einfachste Fall ist Gl. (3.173a). Verwendet man 1(n+)j = j

(n+)j+1 (3.174)

in Verbindung mit Gln. (3.113) und (3.114), so erhalt man nach langerer, aber einfacher Rechnung die Losungen

(k)j;n = (j+ 1)k

k! 1

(n++ 2k)j (3.175)

und

r(k)n =(k)1;n = (k+ 1) 1

n++ 2k; (k)n = (k+ 1) 1

(n++ 2k)2 : (3.176) Gleichung (3.173b) als Generalisierung von Gl. (3.173a) fuhrt auf die Losungen (k)n = (k+ 1)22

k

Y

j=1((n+j) ++k 1)

k+1Y

j=0((n+j) ++k) = (k+ 1)2 (n+ 1 + (+k 1)=)k

(n+ (+k)=)k+2 : (3.177) Dies kann man durch Induktion unter Verwendung von Gl. (3.115) beweisen.

Im Falle des asymptotischen Systems (3.173d) kann man die Funktionen als dividier-te Dierenzen ausdrucken. Zur Formulierung dieses Resultats benotigen wir bestimmdividier-te weitere Notationen. Die `-te dividierte Dierenz einer Funktion f(x) an den Interpolati-onspunkten xn;xn+1;:::;xn+` wird im folgenden mit f[xn;xn+1;:::;xn+`] bezeichnet. Es ist bekannt [342, S. 38, Gl. (2.1.3.5)], da man dividierte Dierenzen rekursiv mittels der Formeln

f[xn] =f(xn);

f[xn;xn+1;:::;xn+`] = f[xn+1;:::;xn+`] f[xn;:::;xn+` 1] xn+` xn

(3.178) berechnen kann, wenn die Interpolationspunkt paarweise verschieden sind. Auerdem sind dividierte Dierenzen symmetrische Funktionen ihrer Argument [342, S. 39, Theorem (2.1.3.7)]. Dann gilt der folgende Satz:

Satz 3.18

Sei gk(x) = xk. Die Losungen der Rekursionen (3.113) und (3.114) mit den Anfangsbe-dingungen (3.172) sind im Falle der Gl. (3.173d) durch

(k)j;n =gj+k[xn;:::;xn+k] (3.179) gegeben. Folglich gilt

r(k)n =Xk

j=0xn+j; (k)n =xn+k+1 xn: (3.180)

64 KAPITEL 3. ITERATIVE FOLGENTRANSFORMATIONEN

Beweis:

Der Beweis erfolgt durch Induktion nachk. Fur k= 0 gilt

(0)j;n=gj[xn] = xjn: (3.181) Wenn nun Gl. (3.179) fur gegegebenes k 0 gilt, mussen wir die Gultigkeit fur k+ 1 nachweisen. Dierenzenbildung bezuglichn liefert

(k)j;n= (xn+k+1 xn)gj+k[xn;:::;xn+k+1]: (3.182) Mit Gln. (3.113) und (3.114) folgt

(k+1)j;n = gj+k+1[xn;:::;xn+k+1]

gk+1[xn;:::;xn+k+1] : (3.183) Der Beweis von Gl. (3.179) wird vervollstandigt durch die Beobachtung, da fur alle n und k die Beziehung gk[xn;:::;xn+k] = 1 gilt. Dies ergibt sich aus dem folgenden Lemma 3.19. Die Gultigkeit von Gl. (3.180) ergibt sich aus der Beziehung r(k)n = (k)1;n = g1+k[xn;:::;xn+k] in Verbindung mit Lemma 3.19. 2

Lemma 3.19

Fur die dividierten Dierenzen der Funktionen gk(x) = xk, k 2 N an den Punkten xn+j, j = 0;:::;k gelten die beiden folgenden Beziehungen:

a) gk[xn;:::;xn+k] = 1.

b) gk[xn;:::;xn+k 1] = k 1X

j=0xn+j.

Beweis:

Es gilt [342, Theorem (2.1.3.6) und Beweis von Theorem (2.1.3.8)]

xk =gk[xn]+:::+gk[xn;:::;xn+k 1]k 2Y

j=0(x xn+j)+gk[xn;:::;xn+k]k 1Y

j=0(x xn+j): (3.184) Koezientenvergleich fur xk und xk 1 auf beiden Seiten dieser Gleichung ergibt die Be-hauptung. 2

Als Folgerung aus Satz 3.18 kann man die expliziten Losungen fur (k)j;n fur den Fall (3.173c) angeben. Wir betrachten einen etwas allgemeineren Fall:

Satz 3.20

Die Losungen der Rekursionsbeziehungen (3.113) und (3.114) mit den Anfangsbedingun-gen (3.172) sind im Falle von

j;n= (n+) j (3.185)

durch

(k)j;n =gj+k[(n+) ;:::;(n++k) ] (3.186)

gegeben. In diesem Fall gilt folglich r(k)n =Xk

j=0(n++j) ; r(k)n = (n++k+ 1) (n+)

(n+)(n++k+ 1) : (3.187) Dies impliziert

(k)n (k+ 1)

(n+)+1 (3.188)

furn !1.

Beweis:

Dies folgt aus Satz 3.18, wenn man xn = (n+) setzt. 2

Der Fall (3.173a) ergibt demnach genau die Modellfolgen der Kerns der Folgentrans-formation (2.55). Der Fall (3.173b) ergibt { abgesehen von irrelevanten n-unabhangigen Vorfaktoren { fur = und = die Modellfolgen, fur die die interpolierende Folgen-transformationCk(n)(;;sn;!n) exakt ist [371]. Der Fall (3.173c) fuhrt auf die Modellfol-gen des Kernes der Levin-Transformation [222]. Der Fall (3.173d) ergibt die ModellfolModellfol-gen des Kernes des generalisierten Richardson-Extrapolationsprozesses, der von Sidi [318] ein-gefuhrt wurde. Dieses Verfahren wird auch alsW-Algorithmus bezeichnet und wurde auch von anderen Autoren untersucht [368, Abschn. 7.4], [59, S. 71f, 116f]. Der dort angegebe-ne Algorithmus auf der Grundlage dividierter Dierenzen ist identisch zum Algorithmus (3.38) mit den Werten (k)n aus Gl. (3.180). Man sollte beachten, da daneben naturlich auch die Moglichkeit besteht, den denierenden Algorithmus (3.24) mit diesen Werten der (k)n fur die Berechnung der J-Transformation zu verwenden. Andererseits zeigt die Querverbindung zum W-Algorithmus, da man die J-Transformation auch als eine Ver-allgemeinerung des Verfahrens der dividierten Dierenzen auassen kann.

Diese Betrachtungen zeigen, da man die J-Transformation zur Berechnung vieler bekannter Folgentransformationen heranziehen kann. Fur den Fall, da man die(k)n kennt oder problemangepat wahlt, ergeben sich numerisch attraktive Rekursionsverfahren.

Wir diskutieren jetzt die Beziehung der J-Transformation zum E-Algorithmus. Des-sen Kern ist durch (2.16) gegeben. Der E-Algorithmus kann uber das Rekursionsschema (2.19) berechnet werden. Dieser Algorithmus benutzt also im Vergleich zurJ -Transforma-tion zusatzliche Regeln (2.19c), die die Berechnung im allgemeinen Fall relativ aufwendig machen. Etwas weniger aufwendig ist der von Ford und Sidi [123] stammende Algorithmus (2.21) zur Berechnung des E-Algorithmus. Die dabei auftretenden Groen kann man

uber das Rekursionsverfahren (2.22) berechnen. Dies zeigt Ahnlichkeiten zum alternati-ven Algorithmus (3.38) zur Berechnung der J-Transformation. Ein Unterschied ist, da keine Restabschatzungen !n verwendet werden. Wesentlich bedeutsamer ist, da bei der Berechnung derJ-Transformation die Groen (k)n im allgemeinen bekannt sind und nicht wie die Groen (n)k in (2.22) aufwendig rekursiv berechnet werden mussen. Man sollte im

ubrigen beachten, da es Varianten desE-Algorithmus gibt, in die Restabschatzungen !n

eingehen [58].

Im folgenden wird auf die Beziehung der J-Transformation zu einigen fruheren Arbei-ten uber iterierte Folgentransformationen eingegangen. Weniger [368, 370] hat

Transfor-66 KAPITEL 3. ITERATIVE FOLGENTRANSFORMATIONEN mationen untersucht, die durch Iteration von einfachen Transformation der Gestalt

(n)1 =F((n)0 ;(n+1)0 ;;(n+)0 ); n 2N0 ; 2N ; (3.189) mit (n)0 =sn entstehen. Im einfachsten Fall erhalt man

(n)k+1 =F((n)k ;(n+1)k ;;(n+)k ); k;n2N0 ; (3.190) oder | bei Verwendung von explizit k-abhangigen Regeln Fk mitF0 =F |

(n)k+1 =Fk((n)k ;(n+1)k ;;(n+)k ); k;n2N0 : (3.191) Man sieht auch hier die fruher angesprochenen Probleme, da im allgemeinen die iterierte Folgentransformation durch die zugrundeliegende einfache Transformation nicht eindeutig bestimmt ist. Wennn-Abhangigkeiten vonF auftreten, mu man sogar noch allgemeinere Rekursionsbeziehungen

(n)k+1 =F(n)k ((n)k ;(n+1)k ;;(n+)k ); k2N0 ;n2N0 (3.192) zulassen. Dies wurde in [370] am Fall dreier verschiedener Algorithmen diskutiert, die alle durch Iteration der einfachen Folgentransformation(n)2 entstehen. Da solche Unterschie-de nicht nur von akaUnterschie-demischer Natur sind, zeigt sich daran [370], da die numerischen Eigenschaften der drei Transformationen deutlich unterschiedlich sind und nur eine der drei ahnlich gute Extrapolationseigenschaften wie der-Algorithmus von Wynn [400] auf-weist.

Wir zeigen jetzt, da das iterierte Aitken-Verfahren (2.38) mit der Wahl einer bestimm-ten Hierarchie von Modellfolgen konsisbestimm-tent ist und als Spezialfall der J-Transformation aufgefat werden kann. Dazu formulieren wir das Rekursionsschema (2.38) um und schrei-ben

A

(n)0 =sn; (n)0 = sn;

A

(n)k+1 =A(n)k (n)k

(n)k A(n)k ; (n)k+1 = A(n)k+1:

(3.193) Ein direkter Vergleich mit der Denition (3.24) der J-Transformation zeigt, da das ite-rierte Aitken-Verfahren der Wahl

(k)n = [A(n)k+1][2A(n)k ]

[A(n)k ][A(n+1)k ] (3.194)

im Rahmen derJ-Transformation entspricht. Hierzu mu man die Identikationen sn=

!n, (n)k = !(k)n und A(n)k = s(k)n vornehmen. Das iterierte Aitken-Verfahren ist also ein Spezialfall der J-Transformation. Da man aufgrund von Satz 3.11 wei, fur welche Mo-dellfolgen die J-Transformation exakt ist, erhalt man demnach sofort auch Gleichungen

fur die Modellfolgen, fur die das iterierte Aitken-Verfahren exakt ist. Allerdings ist zu be-achten, da diese Gleichungen nicht einA(n)k nur in Abhangigkeit von den Folgenelementen sn ausdrucken. Vielmehr treten in einer Gleichung jeweils mehrereA(n)k mit verschiedenen Werten vonk und n. Dies ist ahnlich zu den Beziehungen von Hillion [156] fur den Kern des iterierten Aitken-Verfahrens.

Interessanterweise hat Weniger [370] die Iteration der einfachen Folgentransformation s~n =sn+1 !n+1[sn+1]

!n+2 !n+1 (3.195)

untersucht. Sie ist bis auf eine Indexverschiebung identisch zur Transformation (3.13):

s~n =s0n+1: (3.196)

Die Transformation (3.195) kann mit der Restabschatzung!n = sn 1kombiniert werden, wodurch die 2-Methode von Aitken reproduziert wird [368, Gln. (5.1-4), (5.1-6)]. Mit der alternativen Wahl !n = (n +)sn 1 in Gl. (3.195) leitete Weniger [370] verschiedene iterative Folgentransformationen der gemeinsamen Struktur

Z

(n)0 =sn;

Z

(n)k+1 =Z(n+1)k f(n)k ()[Z(n+1)k ][Z(n)k ]

f(n+1)k ()[Z(n+1)k ] f(n)k ()[Z(n)k ] (3.197) ab, wobei > 0 ein Parameter ist. Genauso kann man von der Transformation (3.13) ausgehen. Dann erhalten wir etwas andere Algorithmen der Struktur

Z(n)0 =sn;

Z(n)k+1= Z(n)k f(n)k ()[Z(n)k ][Z(n)k ]

f(n+1)k ()[Z(n+1)k ] f(n)k ()[Z(n)k ] : (3.198) Diese kann man auch als

Z(n)0 =sn; (n)0 =f(n)0 ()[sn]; Z(n)k+1 = Z(n)k (n)k

(n)k Z(n)k ; (n)k+1 =f(n)k+1()[Z(n)k+1]

(3.199) schreiben. Wie im Falle des iterierten Aitken-Verfahrens kann man dies zu Denition (3.24) derJ-Transformation vergleichen. Man erkennt dann, da diese leicht modizierten Transformationen Z(n)k der Wahl

(k)n = [f(n)k+1()Z(n)k+1]ff(n+1)k ()[Z(n+1)k ] f(n)k ()[Z(n)k ]g

f(n+1)k ()[Z(n+1)k ]f(n)k ()[Z(n)k ] (3.200)

68 KAPITEL 3. ITERATIVE FOLGENTRANSFORMATIONEN in derJ-Transformation entsprechen, wenn man die Identizierungen f(n)0 ()[sn] =!n, (n)k = !(k)n und Z(n)k = s(k)n vornimmt. Demnach kann man Ausdrucke fur den Kern an-geben, die allerdings | wie beim iterierten Aitken-Verfahren | von den Transformierten Z(n)k selbst abhangen.

Wir zeigen, da das Overholt-Verfahren, Gl. (2.60) ein Spezialfall der J -Transforma-tion ist. Setzt man

(k)n = (sn+k+1)k+2h(sn+k)k+1i

(sn+k)k+1(sn+k+1)k+1 = (sn+k+1)h(sn+k)k+1i

(sn+k)k+1 (3.201) so kann man (2.60) umschreiben mit dem Resultat

V(n)0 =sn; !(0)n = sn ; (3.202a) V(n)k+1=V(n)k !(k)n

!(k)n V(n)k (3.202b)

!n(k+1) = !(k)n !n+1(k)

!(k)n (k)n = (sn+k+1)k+2 : (3.202c) Demnach ist das Overholt-Verfahren tatsachlich ein Spezialfall der J-Transformation, wenn man (3.201) verlangt und !n = sn verwendet.

Folglich gelten beispielsweise die Determinantendarstellungen, die oben fur die J -Transformation abgeleitet wurden, auch entsprechend fur das Overholt-Verfahren. Man kann beispielsweise

Verwendet man Gl. (3.201) und !n = sn in Verbindung mit Satz 3.11, so erhalt man Familien von Folgen, fur die das Overholt-Verfahren exakt ist. Beispielsweise ist die V2-Transformation exakt fur Folgen der Form

sn=s+ sn

Dies ist eine nichtlineare Familie, die von zwei Parametern abhangt.

Wir bemerken, da man modizierteJ-Transformationen entwickeln kann, die auf der hierarchisch konsistenten Iteration anderer einfacher Transformationen anstelle von (3.13) beruhen, wie zum Beispiel auf(n)2 [400] oder auf Gl. (3.195).

Die Methode der hierarchischen Konsistenz liefert einen neuen, relativ allgemeinen Zu-gang zur Konstruktion und ezienten Benutzung von iterativen Folgentransformationen.

Die Honung ist, da dieses Konzept | ahnlich wie das der perfekten Fehlerschatzung [54] | weitere zusatzliche Einsichten hinsichtlich Konvergenzbeschleunigung, Extrapola-tion und SummaExtrapola-tion liefern wird.