Lineare Iterationsverfahren für M-Matrizen
Simon Renner
22.06.2010
INHALTSVERZEICHNIS 2
Inhaltsverzeichnis
1 Einleitung 3
2 M-Matrizen 3
2.1 Vorbemerkungen der linearen Algebra . . . 3 2.2 Kriterien für M-Matrizen . . . 5
3 Reguläre Aufspaltungen 8
4 Anwendungen 10
4.1 Blockweise Iterationsverfahren . . . 10 4.2 Konvergenz für M-Matrizen . . . 11
1 EINLEITUNG 3
1 Einleitung
Zur Lösung der Gleichung A· x = b können entweder direkte oder iterative Verfahren verwendet werden. In direkten Verfahren wird die Gleichung in endlich vielen Schritten bis auf Rundungsfehler exakt gelöst. Ein iteratives Verfahren generiert in jedem Schritt ein neuesx, das mit jedem Schritt näher an die exakte Lösung heranrückt. Wie viele Schritte für eine bestimmte Genauigkeit benötigt werden ist u.a ein Maßstab für die Qualität des Verfahrens. Ist die MatrixAsehr groß und dünn besetzt, so sind iterative Verfahren aufgrund des geringeren Rechen- und Speicheraufwandes die bessere Wahl.
Wird die Matrix A in D+ L+ R mit D = diag(aαβ),R = (aαβ) α < β,L = (aαβ) α > β aufgespalten, so entsteht im FalleDregulär folgendes Iterationsverfahren:
xt =−D−1(L+R)xt−1+D−1b
Dies ist das sog. Jacobi Verfahren. Ein weiteres wichtiges Verfahren ist das Gauß-Seidel Verfahren:
xt =−(D+L)−1Rxt−1+(D+L)−1b
Es stellt sich nun die Frage, wann ein solches Verfahren konvergiert. Eine Antwort hierauf liefert der folgende Satz.
Satz 1. Die durch
xt =Bxt−1+b
erzeugten Iterierten xt ∈ R,t = 1,2... konvergieren genau dann für jeden Startwert x0 gegen die Lösung x∈Rder Fixpunktgleichung, wenn
ρ(B)<1 ρ(B)bezeichnet den Spektralradius der Matrix.
Die Eigenschaften der IterationsmatrixBhängen offensichtlich von der AusgangsmatrixA ab. Wir wollen nun die Eigenschaften solcher Verfahren bei der Anwendung auf M-Matrizen untersuchen.
2 M-Matrizen
2.1 Vorbemerkungen der linearen Algebra
Zunächst einige Hilfssätze und Definitionen, die in den nächsten Kapiteln benötigt werden:
Hilfssatz 1. Für eine Matrix A∈KI×Igilt, falls A≥0:
1. ρ(A)∈σ(A)
2. λ=ρ(A)hat einen positiven Eigenvektor x 3. ρ(B)≥ρ(A)für alle B≥A
Man beachte, dass die Ordnungsrelation≥für jedes Element definiert ist:A≥B⇔ aαβ ≥bαβ für alleα, β∈I.
2 M-MATRIZEN 4 Hilfssatz 2. Für eine Matrix A∈KI×I,A≥0gilt:
ρ(A)<1⇔
∞
X
ν=0
Aν =(1−A)−1
Definition 1. Sei A∈KI×Ieine Matrix. Als Graph G(A)der Matrix wird folgende Menge bezeichnet:
G(A)={(α, β)∈I×I :aαβ ,0}
Definition 2. Eine Matrix A ∈ KI×I heißt irreduzibel, wenn in G(A)jedesα ∈ I mit jedemβ ∈ I verbunden ist. Andernfalls heißt sie reduzibel.
Diese Formulierung ist sehr nützlich, da sie am Rechner leicht überprüft werden kann.
Eine andere Formulierung der Irreduzibilität, die wir später noch brauchen werden, liefert die folgende Bemerkung:
Bemerkung 1. Eine Matrix A∈KI×I ist genau dann reduzibel, wenn man die Indizes so anordnen kann, dass A die Blockgestalt
A= A11 A12
0 A22
!
wobei A11, A22nichtleere quadratische Blöcke sind.
Definition 3. Eine Matrix A∈KI×I heißt stark diagonaldominant, wenn:
|aαα|>X
β∈I β,α
aαβ
∀α∈I
Definition 4. Eine Matrix A∈KI×I heißt schwach diagonaldominant, wenn:
|aαα| ≥X
β∈I β,α
aαβ
∀α∈I
Definition 5. Eine Matrix A∈KI×Iheißt irreduzibel diagonaldominant, falls A irreduzibel, schwach diagonaldominant ist und außerdem gilt:
|aαα|>X
β∈I β,α
aαβ
für mindestens einα∈I
Definition 6. Sei A∈ KI×Ieine Matrix und fürγ∈I sei
Gγ B {β∈ I :γmitβim Matrixgraphen G(A)verbunden}. A heißt im wesentlichen diagonaldomi- nant, wenn A schwach diagonaldominant ist und für alleγ ∈I gilt:
|aαα|>X
β∈I β,α
aαβ
für mindestens einα∈Gγ
Hilfssatz 3. Für eine Matrix B∈KI×Igilt, falls|B| ≤A∈KI×I: ρ(B)≤ρ(A)
Hilfssatz 4. Für eine Matrix A∈KI×Igelten die Implikationen:
stark diagonaldominant⇒irreduzibel diagonaldominant⇒im wesentlichen diagonaldominant
2 M-MATRIZEN 5
2.2 Kriterien für M-Matrizen
Definition 7. Eine Matrix A∈RI×I heißt M-Matrix, falls 1. aαα >0für alleα∈I
2. aαβ ≤0für alleα,β 3. A regulär und A−1≥0
Die ersten zwei Kriterien dieser Definition sind leicht nach zu prüfen. Da Matrizeninversion jedoch ein numerisch recht aufwändiger Prozess ist, werden wir nach anderen Kriterien suchen, um die Regularität vonAund Positivität vonA−1fest zu stellen. Einen ersten Schritt in diese Richtung tut der folgende Satz.
Satz 2. A∈RI×Ierfülle: aαβ ≤0für alleα,β. D= diag(aαα : α∈I)bezeichne die Diagonale von A.
Dann sind die folgenden Aussagen äquivalent:
1. A regulär und A−1≥0
2. aαα >0, M:=1−D−1A≥0, ρ(M)<1
Im Fall 1 oder 2 ist A eine M-Matrix. Umgekehrt gilt für jede M-Matrix Aussage 2.
Beweis. ⇒:
aαα >0: Seisγdieγ ∈Ientsprechende Spalte vonA. DaA−1A=1
⇒A−1sγ =eγ(Einheitsvektor) Daaαβ ≤0 ist, gilt, fallsaαα ≤0 :aγ ≤0
⇒A−1aγ ≤0⇒eγ ≤0
⇒aαα >0 M=1−D−1A≥0: Daaαα >0⇒D≥0 und regulär.
⇒ A0 :=D−1A⇒A0−1 =A−1D≥0
M=1−A0hat die DiagonaleinträgeMαα =1−1=0. Die restlichen Einträge sind Mαβ =0−a−αα1aαβ ≥0
⇒M≥0
ρ(M)<1: Nach Hilfssatz 1 existiert zuλ:=ρ(M) ein positiver Eigenvektorx≥0:
Mx=λx⇔(1−A−1D)x=A−1Dλx
⇔(A−1D−A−1Dλ)x=x
⇔A0−1(1−λ)x=x Da sowohlA0−1 ≥0 als auchx≥0gilt:
1−λ≥0⇒0≤ρ(M)=λ <1
⇐:
Aus Hilfssatz 2 folgt
(1−M)−1≥0
⇒ 0≤(1−M)−1D−1 =(D−1A)−1D−1 =A−1DD−1 =A−1
2 M-MATRIZEN 6 Man kann den Satz sogar noch ein wenig verschärfen:
Satz 3. Für eine Matrix A∈RI×Igelte: aαβ ≤0für alleα,β. D bezeichne die Diagonale der Matrix, MB1−D−1A. Dann sind die folgenden Aussagen äquivalent:
1. A regulär und A−1>0
2. aαα >0, M≥0, ρ(M)<1, M irreduzibel Beweis. ⇒:
WäreAreduzibel, so gäbe es eine Blockstruktur wie in Bemerkung 1:
A= A11 A12
0 A22
!
Wobei die inverse MatrixCBA−1 folgende Struktur hätte:
C= A−111 −A−111A12A−221 0 A−221
!
wobeiC21 =0, was im Widerspruch steht zuA−1 >0. Also istAirreduzibel. Da sichMundA nur auf ihrer Diagonalen unterscheiden gilt:G(A)=G(M), somit ist auchMirreduzibel.
⇐:
Aus dem Beweis von Satz 2 entnehmen wir:
A−1 =(
∞
X
ν=0
Mν)D−1 DaP∞
ν=0MνundD−1 >0⇒A−1>0
Satz 4. Die Matrix A∈KI×I sei stark diagonaldominant, im wesentlichen diagonaldominant oder irreduzibel diagonaldominant. Dann gilt:
ρ(M)<1
für die Jacobi Iterationsmatrix M B 1−D−1A, wobei D die Diagonale von A ist. Gilt außerdem aαα >0und aαβ ≤0∀α,β, so ist A eine M-Matrix.
Beweis. Für stark diagonaldominante Matrizen istD offensichtlich regulär. Dies gilt auch für irreduzibel diagonaldominante Matrizen, da in jeder Spalte ein Eintrag außerhalb der Diagonale ungleich 0 ist. Bei im wesentlichen diagonaldominanten Matrizen lässt sich für jedesaαα einβ∈Gγfinden, sodass auch hierDregulär ist.
Wir definieren nun eine neue MatrixM0 B|M|mit den ElementenM0αα =0 für alleα=βund M0αβ = |aαβ/aαα|fürα,β. Nach Hilfssatz 3 giltρ(M)≤ρ(M0) weshalb es reichtρ(M0)<1 zu zeigen.
Da M0 ≥ 0 ⇒ λ B ρ(M0) ∈ σ(M0) und es gibt einen zugehörigen positiven normierten Eigenvektorx: kxk∞=1.
Seiαein Index mitxα =1
⇒λ=λxα =(M0x)α
2 M-MATRIZEN 7
=
X
β,α
|aαβ|xβ
/|aαα| ≤
X
β,α
|aαβ|
/|aαα| ≤1
Hier wurde benutzt, dassM0αα =0 um die Summe zu reduzieren,kxk∞ =1 schafft die erste Umgleichung, die schwache Diagonaldominanz die zweite.
Fallsλ < 1⇒ρ(M0)<1.
Fallsλ =1⇒xγ=1 für alleγ∈Gα
Da stark diagonaldominant⇒irreduzibel diagonaldominant⇒im wesentlichen diagonaldo- minant (Hilfssatz 4) gibt es einen Indexγ ∈Gαmit|aγγ>P
β,γ|aβγ|, so dass wegenxγ =xβ =1 fürγ, β∈Gαgilt:
λ=λxγ =
X
β,γ
|aγβ|xβ
/|aγγ|=
X
β,γ
/|aγγ|<1
Wenden wir Satz 2 auf diesen Satz an, so erhalten wir:
Satz 5. Eine Matrix A ∈RI×I erfülle aαα >0und aαβ ≤0∀α,βund sei irreduzibel diagonaldomi- nant. Dann ist A eine M-Matrix mit A−1 >0.
Wir haben nun also mehrere Kriterien, die am Rechner leicht zu überprüfen sind, gewonnen um fest zu stellen, ob eine gegebene MatrixAeine M-Matrix ist. Für einen späteren Beweis benötigen wir aber noch folgenden Hilfssatz.
Hilfssatz 5. Sei A∈RI×Ieine M-Matrix und für B∈RI×Igelte: B≥A sowie bαβ ≤0für alleα,β.
Dann ist auch B eine M-Matrix und es gilt
0≤B−1 ≤A−1
Beweis. Da B ≥ A gilt bαα ≥ aαα für alle α ∈ I. Somit sind die Elemente der Inversen Diagonalmatrix vonB1/bαα ≤1/aαα. Es gilt also
0≤D−B1 ≤D−1 sowie, daMαα =0
0≤MB ≤M Daρ(A)<1 gilt nach Hilfssatz 2
∞
X
ν=0
Mν =(1−M)−1 DaMB durchMmajorisiert wird, gilt:
∞
X
ν=0
MνB konvergiert und erneute Anwendung von Hilfssatz 2 ergibt
∞
X
ν=0
MνB =(1−MB)−1 ⇔ρ(MB)<1
3 REGULÄRE AUFSPALTUNGEN 8
3 Reguläre Aufspaltungen
Die AufspaltungA=W−Reiner Matrix induziert das IterationsverfahrenWxt+1 =Rxt+b fallsWregulär ist.
Definition 8. Die Matrix W∈RI×Ibeschreibt eine reguläre Aufspaltung von A ∈RI×I, falls W regulär, W−1 ≥0, W ≥A
Die Iterationsmatrix des induzierten Iterationsverfahrens ist M = W−1R, zudem wird durch die Definition impliziert:M≥0 für reguläre Aufspaltungen. Mit Hilfe dieser Bedingung lässt sich die Definition etwas abschwächen:
Definition 9. Die Matrix W ∈RI×Ibeschreibt eine schwach reguläre Aufspaltung von A∈RI×I, falls W regulär, W−1≥0, M=W−1R≥0
Die Konvergenzeigenschaften eines solchen induzierten Iterationsverfahrens für M- Matrizen werden im folgenden Satz deutlich.
Satz 6. Die Matrix A∈RI×I sei eine M-Matrix. W beschreibe eine schwach reguläre Aufspaltung von A. Dann konvergiert das induzierte Iterationsverfahren und es gilt:
ρ(M)=ρ(W−1R)= ρ(A−1R) 1+ρ(A−1R) <1
Beweis. MitCBA−1Rreicht es, die Gleichheit fürρ(W−1R)= ρ(C)/(1+ρ(C)) zu zeigen. Da M≥0 gilt:
0≤M=W−1R
⇔[A−1W]−1A−1WM=[A−1W]−1A−1R
=[A−1(A+R)]−1A−1R=[1+C]−1C
Wir verwenden nun wieder Hilfssatz 1: Zuλ=ρ(M)∈σ(M) gehört wegenM≥0 ein positiver Eigenvektorx.
⇒λx=Mx=(1+C)−1Cx
⇔ λx+λCx=Cx Angenommenλ=1⇒x=0.
⇒Cx= λ 1−λx FallsC≥0⇒ λ
1−λ ≥0 also 0 ≤λ=ρ(M)<1. Daher zeigen wir nun, dassC≥0:
DaM≥0 undW−1 ≥0 gilt 1. 0≤Pm−1
ν=0 Mν W−1 2. W−1=(1−M)A−1 ≤A 3. Pm−1
ν=0 Mν(1−M)=1−Mm
3 REGULÄRE AUFSPALTUNGEN 9 Einsetzen von zwei in eins liefert:
0≤
m−1
X
ν=0
Mν
(1−M)A−1 Kombination mit der dritten Gleichung ergibt:
0≤(1−Mm)A−1 ≤A−1 ⇒0≤MmA−1 ≤A−1
M ist also beschränkt ⇒ λ = ρ(M) ≤ 1. Da λ = 1 jedoch zum Widerspruch führt, muss λ=ρ(M)<1 gelten. Dies impliziert unter Verwendung von Hilfssatz 2:
C=A−1R=[W(1−M)]−1R
=(1−M)−1W−1R=
∞
X
ν=0
Mν
M≥0 Nun zuρ(M)=ρ(C)/(1−ρ(C)):
Die Gleichung
Cx= λ 1−λx bedeutet, dass
λist Eigenwert vonM⇔µ= λ
1−λ ist Eigenwert vonC
Daµ= 1λ−λ monoton mitλwächst, ist|µ|=µmaximal fürλ=ρ(M)∈σ(M). DaC≥0 liefert Hilfssatz 1, dass der größte Eigenwert gleich dem Spektralradius ist.
⇒ρ(C)= ρ(M) 1−ρ(m)
⇔ρ(M)= ρ(C) 1+ρ(C)
Der folgende Satz erlaubt einen Vergleich der Konvergenzgeschwindigkeiten zweier regulärer Aufspaltungen.
Satz 7. Für die Matrix A∈RI×I gelte A≥0. Durch W1und W2 seien zwei reguläre Aufspaltungen gegeben. Wenn W1und W2in der Form
A≤W1 ≤W2
vergleichbar sind, lassen sich auch die zugehörigen Konvergenzraten vergleichen:
0≤ρ(M1)≤ρ(M2)<1 wobei Mi BW−i1Ri, Ri BWi−A
Beweis. Die MatrizenBBA−1R1undCBA−1R2erfüllen 0≤B≤Cund damit nach Hilfssatz 3: 0≤ρ(B)≤ρ(C). Anwendung von Satz 6 liefert:
0≤ρ(M1)= ρ(B)
1+ρ(B) ≤ ρ(C)
1+ρ(C) =ρ(M2)<1
4 ANWENDUNGEN 10
4 Anwendungen
4.1 Blockweise Iterationsverfahren
Sowohl das Jacobi- als auch das Gauß-Seidel-Verfahren können in einer Blockversion durch- geführt werden:
Definition 10. Für eine Matrix A∈RI×Isei eine Zerlegung der Indexmenge I in disjunkte, nichtleere Teilmengen gegeben: I = S
κ∈BIκ, wobei B die Indexmenge der Blöcke ist. Mit D wird nun die Blockdiagonale der Matrix bezeichnet:
DBblockdiag(A)=blockdiag(Aκκ:κ ∈B)
Dabei sind Aκκ die Diagonalblöcke der Matrix. Das blockweise Jacobi-Verfahren wird durch die Iteration mit
WBD,RBD−A beschrieben.
Bemerkung 2. Offenbar ist dieses Verfahren genau dann wohldefiniert, wenn D regulär ist, in diesem Fall also, wenn
Aκκregulär für alleκ ∈B
Definition 11. Für eine Matrix A∈RI×Isei eine Zerlegung der Indexmenge I in disjunkte, nichtleere Teilmengen gegeben: I = S
κ∈BIκ, wobei B die Indexmenge der Blöcke ist. Mit D wird nun die Blockdiagonale der Matrix bezeichnet:
DBblockdiag(A)=blockdiag(Aκκ:κ ∈B)
Dabei sind Aκκ die Diagonalblöcke der Matrix. Mit L B Aκφ für κ > φ wird eine strikte untere Blockdreiecksmatrix, mit R0 B Aκφfürκ < φ eine strikte obere Blockdreiecksmatrix definiert. Das blockweise Jacobi-Verfahren wird durch die Iteration mit
WBD−L,RBR0 beschrieben.
Bemerkung 3. Auch dieses Verfahren ist genau dann wohldefiniert, wenn D regulär ist, denn dann ist auch
D−L=Aκφregulär für alleκ ≥φ
Da bei den blockweisen Verfahren in jedem Schritt Gleichungssysteme zu lösen sind, haben sie einen höheren Rechenaufwand (Faktor 1,4). Wie wir im nächsten Kapitel sehen werden konvergieren sie jedoch schneller als die punktweisen Verfahren, da sich die Ausgangsmatrix Aund die AufspaltungsmatrixWweniger unterscheiden.
4 ANWENDUNGEN 11
4.2 Konvergenz für M-Matrizen
Wir wollen nun die Konvergenzeigenschaften des Jacobi- und des Gauß-Seidel-Verfahrens für M-Matrizen untersuchen.
Satz 8. Sei A ∈RI×Ieine M-Matrix. Dann konvergiert sowohl das punktweise als auch das blockweise Jacobi-Verfahren, wobei letzteres schneller konvergiert:
ρ(MBlockJac)≤ρ(MJac)<1 Ist D die Diagonale Dpkt bzw. Dblock von A, so gilt:
D beschreibt eine reguläre Aufspaltung Beweis. DaAeine M-Matrix ist, gilt
D≥0
Nach Hilfssatz 5 ist D eine M-Matrix und somit D−1 ≥ 0.Daraus folgt: D beschreibt eine reguläre Aufspaltung. DaDpkt ≥Dblockfolgt mit Satz 7
0≤ρ(MBlockJac)≤ρ(MJac)<1
Satz 9. Sei A ∈RI×Ieine M-Matrix. Dann konvergiert sowohl das punktweise als auch das blockweise Gauß-Seidel-Verfahren, wobei letzteres schneller konvergiert:
ρ(MBlockGS)≤ρ(MGS)<1
Ist D die Diagonale Dpkt bzw. Dblock von A und L die untere Dreiecks- bzw. Blockdreiecksmatrix, die Durch A =D+L+R entsteht, so gilt:
D−L beschreibt eine reguläre Aufspaltung Beweis. DaAeine M-Matrix ist, gilt
D≥0
undL≤ 0. Nach Hilfssatz 5 istD−Leine M-Matrix und somit (D−L)−1 ≥ 0.Daraus folgt:
D−Lbeschreibt eine reguläre Aufspaltung. Somit istD−Leine reguläre Aufspaltung. Da (D−L)pkt ≥(D−L)block folgt mit Satz 7
0≤ρ(MBlockGS)≤ρ(MGS)<1
Nachdem nun die Konvergenz für block-und punktweise Jacobi- und Gauß-Seidel- Verfahren gezeigt ist, liefert der folgende Satz noch einen Vergleich der beiden Verfahren.
Satz 10. Für eine M-Matrix A∈RI×Igilt:
1. ρ(MGS)≤ρ(MJac)<1
2. ρ(MBlockGS)≤ρ(MBlockJac)<1
Beweis. Für die beiden Aufspaltungen gilt im punktweisen wie im blockweisen Fall:
WGS =D−L≤D=WJac
Satz 8,9 (Konvergenz der Verfahren) und 7 (Ungleichung) liefern dann die Aussage des
Satzes.
LITERATUR 12
Literatur
[1] Wolfgang Hackbusch,Iterative Lösung großer schwachbesetzter Gleichungssysteme, Teubner- Verlag, Stuttgart, 2. überarb. und erw. Aufl., 1994
[2] Rolf Rannacher,Vorlesungsskriptum Einführung in die Numerische Mathematik, 2006
[3] Richard S. Varga,Matrix iterative Analysis, Prentice-Hall-Verlag, Englewood Cliffs NJ, 1962