• Keine Ergebnisse gefunden

Programmier ¨ubung Nr. 8

N/A
N/A
Protected

Academic year: 2022

Aktie "Programmier ¨ubung Nr. 8"

Copied!
1
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

IWR – Universit¨at Heidelberg Prof. Dr. Guido Kanschat

Abgabe:19.12.2012

Programmier ¨ubung Nr. 8

zur Vorlesung Einf ¨uhrung in die Numerik, Winter 2012/13

In dieser Woche vergleichen wir die numerischen Qualit¨aten verschiedener Orthogonalisierungsmethoden. Sei dazun = 7.

Gegeben sei ferner die Basis{x1, . . . , xn}durch die erstennSpalten der Hilbertmatrix der Dimensionn. Benutzen Sie dazu die Hilbertmatrix aus Octave, nicht aus dem Skript.

Berechnen Sie eine Orthonormalbasis{q1, . . . , qn}mit den unten aufgef¨uhrten Algorithmen. ¨Uberpr¨ufen Sie danach die Or- thogonalit¨atsrelation der Vektoren oder berechnen Sie die Spektralkonditionszahl der MatrixQ= (q1, . . . , qn), um die Qualit¨at Ihrer Orthogonalisierung zu testen.

(a) Gram-Schmidt-Verfahren (einfache Version) r11:=kx1k2

q1:=x1/r11

forj:= 2. . . ndo fori:= 1. . . j−1do

rij :=hxj, qii end for

ˆ

qj :=xj−Pj−1 i=1rijqi rjj :=kqˆjk2

qj := ˆqj/rjj end for

(b) Gram-Schmidt-Verfahren (verbesserte Version) r11:=kx1k2

q1:=x1/r11

forj:= 2. . . ndo ˆ

qj =xj

fori:= 1. . . j−1do rij :=hˆqj, qii ˆ

qj:= ˆqj−rijqi

end for rjj :=kqˆjk2

qj := ˆqj/rjj end for

(c) Gram-Schmidt-Verfahren mit Reorthogonalisierung: wenden Sie das verbesserte Gram-Schmidt-Verfahren ein weiteres Mal auf die Vektorenq1, . . . , qnan.

(d) (Zusatzaufgabe) Householder-Transformation: Es gelten die DefinitionenPk =I−2wkwTk undek= (0, . . . ,0,1,0, . . . ,0)T mit der “1” in positionk. Ferner seixikdiei-te Komponente des Vektorsxk.

forj:= 1. . . ndo β= sgn(xjj)

sn

P

i=j

|aij|2

z=

 z1

... zn

mitzi=





0 i < j

β+xjj i=j xij i > j wj =z/kzk2

qj =P1P2. . . Pjej end for

Dieses Verfahren ist aus “Y. Saad: Iterative Methods for Sparse Linear Systems, 2nd edition”, Abschnitt 1.7, kompiliert.

Es muß noch auf Fehler untersucht werden.

Referenzen

ÄHNLICHE DOKUMENTE

Obviously, the Gauß-Seidel method and the successive overrelaxation are not symmetric (the eigenvalues of the SOR iteration matrix are not even real). It is possible, however,

For the symmetric Gauß-Seidel method and the SSOR method the iteration matrices are similar to symmetric and positive semidefinite matrices. Obviously, the spectrum of the

Because the conjugate gradient method is a direct method, and hence, in exact arithmetic the solution is obtained in a finite number of steps, terms like ‘convergence’ or

Although the LQ factorization is determined in a stable way (even for indefinite matrices) the algorithm should not be implemented directly since intermediate matrices ˜ L k may

Vinsome (1976) proposed a method called ORTHOMIN which is a truncated GCR method and which is considerably less expensive per iteration step. This method usually is referred

Gutknecht (1993) proposed BiCGStab2 where in odd-numbered iteration steps the polynomial ψ is expanded by a linear factor, but in the following even-numbered step this linear factor

TUHH Heinrich Voss QMR Methods Summer School 2006 22 / 63...

If an error tolerance is not met the search space is expanded in the course of the algorithm in an iterative way with the aim that some of the eigenvalues of the reduced matrix