• Keine Ergebnisse gefunden

Lineare Iterationsverfahren für M-Matrizen

N/A
N/A
Protected

Academic year: 2021

Aktie "Lineare Iterationsverfahren für M-Matrizen"

Copied!
12
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Lineare Iterationsverfahren für M-Matrizen

Simon Renner

22.06.2010

(2)

INHALTSVERZEICHNIS 2

Inhaltsverzeichnis

1 Einleitung 3

2 M-Matrizen 3

2.1 Vorbemerkungen der linearen Algebra . . . 3 2.2 Kriterien für M-Matrizen . . . 5

3 Reguläre Aufspaltungen 8

4 Anwendungen 10

4.1 Blockweise Iterationsverfahren . . . 10 4.2 Konvergenz für M-Matrizen . . . 11

(3)

1 EINLEITUNG 3

1 Einleitung

Zur Lösung der Gleichung A· x = b können entweder direkte oder iterative Verfahren verwendet werden. In direkten Verfahren wird die Gleichung in endlich vielen Schritten bis auf Rundungsfehler exakt gelöst. Ein iteratives Verfahren generiert in jedem Schritt ein neuesx, das mit jedem Schritt näher an die exakte Lösung heranrückt. Wie viele Schritte für eine bestimmte Genauigkeit benötigt werden ist u.a ein Maßstab für die Qualität des Verfahrens. Ist die MatrixAsehr groß und dünn besetzt, so sind iterative Verfahren aufgrund des geringeren Rechen- und Speicheraufwandes die bessere Wahl.

Wird die Matrix A in D+ L+ R mit D = diag(aαβ),R = (aαβ) α < β,L = (aαβ) α > β aufgespalten, so entsteht im FalleDregulär folgendes Iterationsverfahren:

xt =−D1(L+R)xt1+D1b

Dies ist das sog. Jacobi Verfahren. Ein weiteres wichtiges Verfahren ist das Gauß-Seidel Verfahren:

xt =−(D+L)1Rxt1+(D+L)1b

Es stellt sich nun die Frage, wann ein solches Verfahren konvergiert. Eine Antwort hierauf liefert der folgende Satz.

Satz 1. Die durch

xt =Bxt1+b

erzeugten Iterierten xt ∈ R,t = 1,2... konvergieren genau dann für jeden Startwert x0 gegen die Lösung x∈Rder Fixpunktgleichung, wenn

ρ(B)<1 ρ(B)bezeichnet den Spektralradius der Matrix.

Die Eigenschaften der IterationsmatrixBhängen offensichtlich von der AusgangsmatrixA ab. Wir wollen nun die Eigenschaften solcher Verfahren bei der Anwendung auf M-Matrizen untersuchen.

2 M-Matrizen

2.1 Vorbemerkungen der linearen Algebra

Zunächst einige Hilfssätze und Definitionen, die in den nächsten Kapiteln benötigt werden:

Hilfssatz 1. Für eine Matrix A∈KI×Igilt, falls A≥0:

1. ρ(A)∈σ(A)

2. λ=ρ(A)hat einen positiven Eigenvektor x 3. ρ(B)≥ρ(A)für alle B≥A

Man beachte, dass die Ordnungsrelation≥für jedes Element definiert ist:A≥B⇔ aαβ ≥bαβ für alleα, β∈I.

(4)

2 M-MATRIZEN 4 Hilfssatz 2. Für eine Matrix A∈KI×I,A≥0gilt:

ρ(A)<1⇔

X

ν=0

Aν =(1−A)1

Definition 1. Sei A∈KI×Ieine Matrix. Als Graph G(A)der Matrix wird folgende Menge bezeichnet:

G(A)={(α, β)∈I×I :aαβ ,0}

Definition 2. Eine Matrix A ∈ KI×I heißt irreduzibel, wenn in G(A)jedesα ∈ I mit jedemβ ∈ I verbunden ist. Andernfalls heißt sie reduzibel.

Diese Formulierung ist sehr nützlich, da sie am Rechner leicht überprüft werden kann.

Eine andere Formulierung der Irreduzibilität, die wir später noch brauchen werden, liefert die folgende Bemerkung:

Bemerkung 1. Eine Matrix A∈KI×I ist genau dann reduzibel, wenn man die Indizes so anordnen kann, dass A die Blockgestalt

A= A11 A12

0 A22

!

wobei A11, A22nichtleere quadratische Blöcke sind.

Definition 3. Eine Matrix A∈KI×I heißt stark diagonaldominant, wenn:

|aαα|>X

βI β,α

aαβ

∀α∈I

Definition 4. Eine Matrix A∈KI×I heißt schwach diagonaldominant, wenn:

|aαα| ≥X

βI β,α

aαβ

∀α∈I

Definition 5. Eine Matrix A∈KI×Iheißt irreduzibel diagonaldominant, falls A irreduzibel, schwach diagonaldominant ist und außerdem gilt:

|aαα|>X

βI β,α

aαβ

für mindestens einα∈I

Definition 6. Sei A∈ KI×Ieine Matrix und fürγ∈I sei

Gγ B {β∈ I :γmitβim Matrixgraphen G(A)verbunden}. A heißt im wesentlichen diagonaldomi- nant, wenn A schwach diagonaldominant ist und für alleγ ∈I gilt:

|aαα|>X

βI β,α

aαβ

für mindestens einα∈Gγ

Hilfssatz 3. Für eine Matrix B∈KI×Igilt, falls|B| ≤A∈KI×I: ρ(B)≤ρ(A)

Hilfssatz 4. Für eine Matrix A∈KI×Igelten die Implikationen:

stark diagonaldominant⇒irreduzibel diagonaldominant⇒im wesentlichen diagonaldominant

(5)

2 M-MATRIZEN 5

2.2 Kriterien für M-Matrizen

Definition 7. Eine Matrix A∈RI×I heißt M-Matrix, falls 1. aαα >0für alleα∈I

2. aαβ ≤0für alleα,β 3. A regulär und A1≥0

Die ersten zwei Kriterien dieser Definition sind leicht nach zu prüfen. Da Matrizeninversion jedoch ein numerisch recht aufwändiger Prozess ist, werden wir nach anderen Kriterien suchen, um die Regularität vonAund Positivität vonA1fest zu stellen. Einen ersten Schritt in diese Richtung tut der folgende Satz.

Satz 2. A∈RI×Ierfülle: aαβ ≤0für alleα,β. D= diag(aαα : α∈I)bezeichne die Diagonale von A.

Dann sind die folgenden Aussagen äquivalent:

1. A regulär und A1≥0

2. aαα >0, M:=1−D1A≥0, ρ(M)<1

Im Fall 1 oder 2 ist A eine M-Matrix. Umgekehrt gilt für jede M-Matrix Aussage 2.

Beweis. ⇒:

aαα >0: Seisγdieγ ∈Ientsprechende Spalte vonA. DaA1A=1

⇒A1sγ =eγ(Einheitsvektor) Daaαβ ≤0 ist, gilt, fallsaαα ≤0 :aγ ≤0

⇒A1aγ ≤0⇒eγ ≤0

⇒aαα >0 M=1−D1A≥0: Daaαα >0⇒D≥0 und regulär.

⇒ A0 :=D1A⇒A0−1 =A1D≥0

M=1−A0hat die DiagonaleinträgeMαα =1−1=0. Die restlichen Einträge sind Mαβ =0−aαα1aαβ ≥0

⇒M≥0

ρ(M)<1: Nach Hilfssatz 1 existiert zuλ:=ρ(M) ein positiver Eigenvektorx≥0:

Mx=λx⇔(1−A1D)x=A1Dλx

⇔(A1D−A1Dλ)x=x

⇔A0−1(1−λ)x=x Da sowohlA0−1 ≥0 als auchx≥0gilt:

1−λ≥0⇒0≤ρ(M)=λ <1

⇐:

Aus Hilfssatz 2 folgt

(1−M)1≥0

⇒ 0≤(1−M)1D1 =(D1A)1D1 =A1DD1 =A1

(6)

2 M-MATRIZEN 6 Man kann den Satz sogar noch ein wenig verschärfen:

Satz 3. Für eine Matrix A∈RI×Igelte: aαβ ≤0für alleα,β. D bezeichne die Diagonale der Matrix, MB1−D1A. Dann sind die folgenden Aussagen äquivalent:

1. A regulär und A1>0

2. aαα >0, M≥0, ρ(M)<1, M irreduzibel Beweis. ⇒:

WäreAreduzibel, so gäbe es eine Blockstruktur wie in Bemerkung 1:

A= A11 A12

0 A22

!

Wobei die inverse MatrixCBA1 folgende Struktur hätte:

C= A111 −A111A12A221 0 A221

!

wobeiC21 =0, was im Widerspruch steht zuA1 >0. Also istAirreduzibel. Da sichMundA nur auf ihrer Diagonalen unterscheiden gilt:G(A)=G(M), somit ist auchMirreduzibel.

⇐:

Aus dem Beweis von Satz 2 entnehmen wir:

A1 =(

X

ν=0

Mν)D1 DaP

ν=0MνundD1 >0⇒A1>0

Satz 4. Die Matrix A∈KI×I sei stark diagonaldominant, im wesentlichen diagonaldominant oder irreduzibel diagonaldominant. Dann gilt:

ρ(M)<1

für die Jacobi Iterationsmatrix M B 1−D1A, wobei D die Diagonale von A ist. Gilt außerdem aαα >0und aαβ ≤0∀α,β, so ist A eine M-Matrix.

Beweis. Für stark diagonaldominante Matrizen istD offensichtlich regulär. Dies gilt auch für irreduzibel diagonaldominante Matrizen, da in jeder Spalte ein Eintrag außerhalb der Diagonale ungleich 0 ist. Bei im wesentlichen diagonaldominanten Matrizen lässt sich für jedesaαα einβ∈Gγfinden, sodass auch hierDregulär ist.

Wir definieren nun eine neue MatrixM0 B|M|mit den ElementenM0αα =0 für alleα=βund M0αβ = |aαβ/aαα|fürα,β. Nach Hilfssatz 3 giltρ(M)≤ρ(M0) weshalb es reichtρ(M0)<1 zu zeigen.

Da M0 ≥ 0 ⇒ λ B ρ(M0) ∈ σ(M0) und es gibt einen zugehörigen positiven normierten Eigenvektorx: kxk=1.

Seiαein Index mitxα =1

⇒λ=λxα =(M0x)α

(7)

2 M-MATRIZEN 7

=







 X

β,α

|aαβ|xβ







/|aαα| ≤







 X

β,α

|aαβ|







/|aαα| ≤1

Hier wurde benutzt, dassM0αα =0 um die Summe zu reduzieren,kxk =1 schafft die erste Umgleichung, die schwache Diagonaldominanz die zweite.

Fallsλ < 1⇒ρ(M0)<1.

Fallsλ =1⇒xγ=1 für alleγ∈Gα

Da stark diagonaldominant⇒irreduzibel diagonaldominant⇒im wesentlichen diagonaldo- minant (Hilfssatz 4) gibt es einen Indexγ ∈Gαmit|aγγ>P

β,γ|aβγ|, so dass wegenxγ =xβ =1 fürγ, β∈Gαgilt:

λ=λxγ =







 X

β,γ

|aγβ|xβ







/|aγγ|=







 X

β,γ







/|aγγ|<1

Wenden wir Satz 2 auf diesen Satz an, so erhalten wir:

Satz 5. Eine Matrix A ∈RI×I erfülle aαα >0und aαβ ≤0∀α,βund sei irreduzibel diagonaldomi- nant. Dann ist A eine M-Matrix mit A1 >0.

Wir haben nun also mehrere Kriterien, die am Rechner leicht zu überprüfen sind, gewonnen um fest zu stellen, ob eine gegebene MatrixAeine M-Matrix ist. Für einen späteren Beweis benötigen wir aber noch folgenden Hilfssatz.

Hilfssatz 5. Sei A∈RI×Ieine M-Matrix und für B∈RI×Igelte: B≥A sowie bαβ ≤0für alleα,β.

Dann ist auch B eine M-Matrix und es gilt

0≤B1 ≤A1

Beweis. Da B ≥ A gilt bαα ≥ aαα für alle α ∈ I. Somit sind die Elemente der Inversen Diagonalmatrix vonB1/bαα ≤1/aαα. Es gilt also

0≤DB1 ≤D1 sowie, daMαα =0

0≤MB ≤M Daρ(A)<1 gilt nach Hilfssatz 2

X

ν=0

Mν =(1−M)1 DaMB durchMmajorisiert wird, gilt:

X

ν=0

MνB konvergiert und erneute Anwendung von Hilfssatz 2 ergibt

X

ν=0

MνB =(1−MB)1 ⇔ρ(MB)<1

(8)

3 REGULÄRE AUFSPALTUNGEN 8

3 Reguläre Aufspaltungen

Die AufspaltungA=W−Reiner Matrix induziert das IterationsverfahrenWxt+1 =Rxt+b fallsWregulär ist.

Definition 8. Die Matrix W∈RI×Ibeschreibt eine reguläre Aufspaltung von A ∈RI×I, falls W regulär, W1 ≥0, W ≥A

Die Iterationsmatrix des induzierten Iterationsverfahrens ist M = W1R, zudem wird durch die Definition impliziert:M≥0 für reguläre Aufspaltungen. Mit Hilfe dieser Bedingung lässt sich die Definition etwas abschwächen:

Definition 9. Die Matrix W ∈RI×Ibeschreibt eine schwach reguläre Aufspaltung von A∈RI×I, falls W regulär, W1≥0, M=W1R≥0

Die Konvergenzeigenschaften eines solchen induzierten Iterationsverfahrens für M- Matrizen werden im folgenden Satz deutlich.

Satz 6. Die Matrix A∈RI×I sei eine M-Matrix. W beschreibe eine schwach reguläre Aufspaltung von A. Dann konvergiert das induzierte Iterationsverfahren und es gilt:

ρ(M)=ρ(W1R)= ρ(A1R) 1+ρ(A1R) <1

Beweis. MitCBA1Rreicht es, die Gleichheit fürρ(W1R)= ρ(C)/(1+ρ(C)) zu zeigen. Da M≥0 gilt:

0≤M=W1R

⇔[A1W]1A1WM=[A1W]1A1R

=[A1(A+R)]1A1R=[1+C]1C

Wir verwenden nun wieder Hilfssatz 1: Zuλ=ρ(M)∈σ(M) gehört wegenM≥0 ein positiver Eigenvektorx.

⇒λx=Mx=(1+C)1Cx

⇔ λx+λCx=Cx Angenommenλ=1⇒x=0.

⇒Cx= λ 1−λx FallsC≥0⇒ λ

1λ ≥0 also 0 ≤λ=ρ(M)<1. Daher zeigen wir nun, dassC≥0:

DaM≥0 undW1 ≥0 gilt 1. 0≤Pm1

ν=0 Mν W1 2. W1=(1−M)A1 ≤A 3. Pm1

ν=0 Mν(1−M)=1−Mm

(9)

3 REGULÄRE AUFSPALTUNGEN 9 Einsetzen von zwei in eins liefert:

0≤







m1

X

ν=0

Mν







(1−M)A1 Kombination mit der dritten Gleichung ergibt:

0≤(1−Mm)A1 ≤A1 ⇒0≤MmA1 ≤A1

M ist also beschränkt ⇒ λ = ρ(M) ≤ 1. Da λ = 1 jedoch zum Widerspruch führt, muss λ=ρ(M)<1 gelten. Dies impliziert unter Verwendung von Hilfssatz 2:

C=A1R=[W(1−M)]1R

=(1−M)1W1R=





X

ν=0

Mν





M≥0 Nun zuρ(M)=ρ(C)/(1−ρ(C)):

Die Gleichung

Cx= λ 1−λx bedeutet, dass

λist Eigenwert vonM⇔µ= λ

1−λ ist Eigenwert vonC

Daµ= 1λλ monoton mitλwächst, ist|µ|=µmaximal fürλ=ρ(M)∈σ(M). DaC≥0 liefert Hilfssatz 1, dass der größte Eigenwert gleich dem Spektralradius ist.

⇒ρ(C)= ρ(M) 1−ρ(m)

⇔ρ(M)= ρ(C) 1+ρ(C)

Der folgende Satz erlaubt einen Vergleich der Konvergenzgeschwindigkeiten zweier regulärer Aufspaltungen.

Satz 7. Für die Matrix A∈RI×I gelte A≥0. Durch W1und W2 seien zwei reguläre Aufspaltungen gegeben. Wenn W1und W2in der Form

A≤W1 ≤W2

vergleichbar sind, lassen sich auch die zugehörigen Konvergenzraten vergleichen:

0≤ρ(M1)≤ρ(M2)<1 wobei Mi BWi1Ri, Ri BWi−A

Beweis. Die MatrizenBBA1R1undCBA1R2erfüllen 0≤B≤Cund damit nach Hilfssatz 3: 0≤ρ(B)≤ρ(C). Anwendung von Satz 6 liefert:

0≤ρ(M1)= ρ(B)

1+ρ(B) ≤ ρ(C)

1+ρ(C) =ρ(M2)<1

(10)

4 ANWENDUNGEN 10

4 Anwendungen

4.1 Blockweise Iterationsverfahren

Sowohl das Jacobi- als auch das Gauß-Seidel-Verfahren können in einer Blockversion durch- geführt werden:

Definition 10. Für eine Matrix A∈RI×Isei eine Zerlegung der Indexmenge I in disjunkte, nichtleere Teilmengen gegeben: I = S

κBIκ, wobei B die Indexmenge der Blöcke ist. Mit D wird nun die Blockdiagonale der Matrix bezeichnet:

DBblockdiag(A)=blockdiag(Aκκ:κ ∈B)

Dabei sind Aκκ die Diagonalblöcke der Matrix. Das blockweise Jacobi-Verfahren wird durch die Iteration mit

WBD,RBD−A beschrieben.

Bemerkung 2. Offenbar ist dieses Verfahren genau dann wohldefiniert, wenn D regulär ist, in diesem Fall also, wenn

Aκκregulär für alleκ ∈B

Definition 11. Für eine Matrix A∈RI×Isei eine Zerlegung der Indexmenge I in disjunkte, nichtleere Teilmengen gegeben: I = S

κBIκ, wobei B die Indexmenge der Blöcke ist. Mit D wird nun die Blockdiagonale der Matrix bezeichnet:

DBblockdiag(A)=blockdiag(Aκκ:κ ∈B)

Dabei sind Aκκ die Diagonalblöcke der Matrix. Mit L B Aκφ für κ > φ wird eine strikte untere Blockdreiecksmatrix, mit R0 B Aκφfürκ < φ eine strikte obere Blockdreiecksmatrix definiert. Das blockweise Jacobi-Verfahren wird durch die Iteration mit

WBD−L,RBR0 beschrieben.

Bemerkung 3. Auch dieses Verfahren ist genau dann wohldefiniert, wenn D regulär ist, denn dann ist auch

D−L=Aκφregulär für alleκ ≥φ

Da bei den blockweisen Verfahren in jedem Schritt Gleichungssysteme zu lösen sind, haben sie einen höheren Rechenaufwand (Faktor 1,4). Wie wir im nächsten Kapitel sehen werden konvergieren sie jedoch schneller als die punktweisen Verfahren, da sich die Ausgangsmatrix Aund die AufspaltungsmatrixWweniger unterscheiden.

(11)

4 ANWENDUNGEN 11

4.2 Konvergenz für M-Matrizen

Wir wollen nun die Konvergenzeigenschaften des Jacobi- und des Gauß-Seidel-Verfahrens für M-Matrizen untersuchen.

Satz 8. Sei A ∈RI×Ieine M-Matrix. Dann konvergiert sowohl das punktweise als auch das blockweise Jacobi-Verfahren, wobei letzteres schneller konvergiert:

ρ(MBlockJac)≤ρ(MJac)<1 Ist D die Diagonale Dpkt bzw. Dblock von A, so gilt:

D beschreibt eine reguläre Aufspaltung Beweis. DaAeine M-Matrix ist, gilt

D≥0

Nach Hilfssatz 5 ist D eine M-Matrix und somit D1 ≥ 0.Daraus folgt: D beschreibt eine reguläre Aufspaltung. DaDpkt ≥Dblockfolgt mit Satz 7

0≤ρ(MBlockJac)≤ρ(MJac)<1

Satz 9. Sei A ∈RI×Ieine M-Matrix. Dann konvergiert sowohl das punktweise als auch das blockweise Gauß-Seidel-Verfahren, wobei letzteres schneller konvergiert:

ρ(MBlockGS)≤ρ(MGS)<1

Ist D die Diagonale Dpkt bzw. Dblock von A und L die untere Dreiecks- bzw. Blockdreiecksmatrix, die Durch A =D+L+R entsteht, so gilt:

D−L beschreibt eine reguläre Aufspaltung Beweis. DaAeine M-Matrix ist, gilt

D≥0

undL≤ 0. Nach Hilfssatz 5 istD−Leine M-Matrix und somit (D−L)1 ≥ 0.Daraus folgt:

D−Lbeschreibt eine reguläre Aufspaltung. Somit istD−Leine reguläre Aufspaltung. Da (D−L)pkt ≥(D−L)block folgt mit Satz 7

0≤ρ(MBlockGS)≤ρ(MGS)<1

Nachdem nun die Konvergenz für block-und punktweise Jacobi- und Gauß-Seidel- Verfahren gezeigt ist, liefert der folgende Satz noch einen Vergleich der beiden Verfahren.

Satz 10. Für eine M-Matrix A∈RI×Igilt:

1. ρ(MGS)≤ρ(MJac)<1

2. ρ(MBlockGS)≤ρ(MBlockJac)<1

Beweis. Für die beiden Aufspaltungen gilt im punktweisen wie im blockweisen Fall:

WGS =D−L≤D=WJac

Satz 8,9 (Konvergenz der Verfahren) und 7 (Ungleichung) liefern dann die Aussage des

Satzes.

(12)

LITERATUR 12

Literatur

[1] Wolfgang Hackbusch,Iterative Lösung großer schwachbesetzter Gleichungssysteme, Teubner- Verlag, Stuttgart, 2. überarb. und erw. Aufl., 1994

[2] Rolf Rannacher,Vorlesungsskriptum Einführung in die Numerische Mathematik, 2006

[3] Richard S. Varga,Matrix iterative Analysis, Prentice-Hall-Verlag, Englewood Cliffs NJ, 1962

Referenzen

ÄHNLICHE DOKUMENTE

Matrizen, Determinanten und Lineare Gleichungssysteme. Tutorien Höhere Mathematik I,

Matrizen, Determinanten und Lineare Gleichungssysteme. Tutorien Höhere Mathematik I,

Matrizen, Determinanten und Lineare Gleichungssysteme. Tutorien Höhere Mathematik I,

Geben Sie eine explizite Abbildungs- vorschrift für χ 1 an (in der Form, wie sie in den Aufgabenteilen (a) und (b) gegeben ist). Geben Sie eine explizite Abbildungs- vorschrift für χ

(b) In dem Beweis des im Hinweis erwähnten Satzes aus der Vorlesung wird eine mögliche Konstruktion der beiden

Entscheide, ob folgende Ausdrücke definiert sind (“Sinn machen” bzw. “zulässig sind”) und schreibe sie, falls ja, in der indizierten Schreibweise auf. Zeige, dass die Summe

Der Gesamtdrehimpuls (Spin plus Bahndrehimpuls) eines einzelnen Elektrons kann sowohl ganzzahlig als auch halb- zahlig sein.. Die Energien des Wasserstoffatoms (ohne Spin) h¨angen

Lineare Algebra und Analytische Geometrie II ♦ Prof... Lineare Algebra und Analytische Geometrie II