• Keine Ergebnisse gefunden

4.6 Berechnung von Eigenwerten

N/A
N/A
Protected

Academic year: 2021

Aktie "4.6 Berechnung von Eigenwerten"

Copied!
8
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

4.6 Berechnung von Eigenwerten

In diesem Abschnitt befassen wir uns mit dem Eigenwertproblem: zu gegebener Matrix A∈Rn×n sind die Eigenwerte (und gegebenenfalls Eigenvektoren) gesucht. Wir erinnern an Definition 4.9 und formulieren

Satz 4.70 (Eigenwert). Es sei A∈Rn×n. Dann gilt:

Die Matrix A hat genau n Eigenwerte, ihrer Vielfachheit nach gezählt.

Die Eigenwerte sind Nullstellen des charakteristischen Polynoms:

det(A−λI) = 0.

Reelle Matrizen können komplexe Eigenwerte haben, komplexe Eigenwerte treten stets als konjugierte Paare λ,¯λauf.

Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig.

Fallsnlinear unabhängige Eigenvektoren existieren, so existiert eine reguläre Matrix S ∈Rn×n, so dassS−1AS =D eine Diagonalmatrix ist. Die Spaltenvektoren von S sind die Eigenvektoren und die Diagonaleinträge von D die Eigenwerte.

Symmetrische Matrizen A =AT haben nur reelle Eigenwerte. Es existiert eine Or- thonormalbasis von Eigenvektoren und eine Diagonalisierung QTAQ=D mit einer orthogonalen Matrix.

Bei Dreiecksmatrizen stehen die Eigenwerte auf der Diagonalen.

Zu einem Eigenwert λ sind die Eigenvektoren als Lösung des homogenen linearen Glei- chungssystems bestimmt:

(A−λI)w= 0.

Umgekehrt gilt:

Definition 4.71 (Rayleigh-Quotient). Sei A ∈ Rn×n sowie w ∈ Rn ein Eigenvektor.

Dann ist durch den Rayleigh-Quotienten der zugehörige Eigenwert gegeben:

λ= (Aw, w)2

kwk22 .

Mit Hilfe dieser Definition folgt eine einfache Schranke für die Eigenwerte:

|λ| ≤sup

w6=0

(Aw, w)2

kwk22 ≤ kAk2kwk22

kwk22 =kAk2.

Wir haben in Abschnitt 4.1 bereits gesehen, dass diese Schranke für die Beträge der Ei- genwerte in jeder Matrixnorm mit verträglicher Vektornorm gilt.

(2)

4.6.1 Konditionierung der Eigenwertaufgabe

Bevor wir auf konkrete Verfahren zur Eigenwertberechnung eingehen, analysieren wir die Kondition der Aufgabe, d.h. die Abhängigkeit der Eigenwerte von der Störung der Matrix.

Hierfür benötigen wir zunächst einen Hilfsatz:

Hilfsatz 4.72. Es seien A, B ∈Rn×n beliebige Matrizen. Dann gilt für jeden Eigenwert λ von A, der nicht zugleich Eigenwert von B für jede natürliche Matrizennorm die Ab- schätzung:

k(λI−B)−1(A−B)k ≥1.

Beweis: Es sei w6= 0 ein Eigenvektor zuλ. Dann gilt:

(A−B)w= (λI−B)w.

Wennλkein Eigenwert vonB ist, so ist die Matrix (λI−B) regulär, d.h. es folgt:

(λI−B)−1(A−B)w=w.

Und schließlich durch Normbilden:

1 = k(λI−B)−1(A−B)wk

kwk ≤sup

x

k(λI−B)−1(A−B)xk

kxk =k(λI−B)−1(A−B)k.

Auf dieser Basis erhalten wir ein einfaches Kriterium zur Eingrenzung der Eigenwerte einer Matrix:

Satz 4.73 (Gerschgorin-Kreise). Es sei A∈Rn×n. Alle EigenwerteλvonA liegen in der Vereinigung der Gerschgorin-Kreise:

Ki={z∈C: |z−aii| ≤

n

X

k=1,k6=i

|aik|}, i= 1, . . . , n.

Angenommen zu den Indexmengen Im = {i1, . . . , im} und Im = {1, . . . , n} \Im seien die Vereinigungen Um = Si∈ImKi und Um = Si∈I

mKi disjunkt. Dann liegen genau m Eigenwerte (ihrer algebraischen Vielfachheit nach gezählt) in Um und nm Eigenwerte in Um .

Beweis:(i)Es seiD∈Rn×ndie DiagonalmatrixD= diag(aii). Weiter seiλein Eigenwert vonAmitλ6=aii. (In diesem Fall wäre die Aussage des Satzes trivial erfüllt). Hilfsatz 4.72 besagt bei Wahl der maximalen Zeilensummennorm:

1≤ k(λI−D)−1(A−D)k= max

i

n

X

j=1,j6=i

|(λ−aii)−1aij|

= max

i

|λ−aii|−1

n

X

j=1,j6=i

|aij|

.

(3)

D.h. es existiert zu jedem λein Indexi∈ {1, . . . , n}so dass gilt:

|λ−aii| ≤

n

X

j=1,j6=i

|aij|.

(ii) Es seien durchImundIm Indexmengen mit oben genannter Eigenschaft gegeben. Wir definieren die Matrix

As:=D+s(AD),

mitA0=Dund A1 =A. Entsprechend definieren wir die Vereinigungen:

Um,s:= [

i∈Im

Ki(As), Um,s := [

i∈Im

Ki(As), Ki(As) ={z∈C, |z−aii| ≤sX

j6=i

|aij|}.

Aufgrund der stetigen Abhängigkeit der Kreisradien von s gilt Um,sUm,s = ∅ für s ∈ [0,1]. Im Fall s = 0 gilt A0 = D und jeder Eigenwert von A0 liegt im Mittelpunkt (also λi =aii) des trivialen Kreises mit Radius Null. Das Ergebnis folgt nun durch die stetige

Abhängigkeit der Eigenwerte von s.

Wir betrachten hierzu ein Beispiel:

Beispiel 4.74 (Gerschgorin-Kreise). Wir betrachten die Matrix

A=

2 0.1 −0.5 0.2 3 0.5

−0.4 0.1 5

,

mit den Eigenwerten spr(A)≈ {1.91,3.01,5.08}. Eine erste Schranke liefern verschiedene mit Vektornormen verträgliche Matrixnormen von A:

kAk= 5.5, kAk1 = 6, kAk2≈5.1.

Die Gerschgorin-Kreise von A sind:

K1 ={z∈C, |z−2| ≤0.6}, K2 ={z∈C, |z−3| ≤0.7}, K3 ={z∈C, |z−5| ≤0.5}.

Diese Abschätzung kann verfeinert werden, daAund AT die gleichen Eigenwerte besitzen.

Die Radien der Gerschgorin-Kreise können auch als Summe der Spaltenbeträge berechnet werden. Zusammen ergibt sich:

K1 ={z∈C, |z−2| ≤0.6}, K2 ={z∈C, |z−3| ≤0.2}, K3 ={z∈C, |z−5| ≤0.5}.

Alle drei Kreise sind disjunkt.

Wir können nun den allgemeinen Stabilitätssatz für das Eigenwertproblem beweisen:

(4)

Satz 4.75 (Stabilität des Eigenwertproblems). Es seiA∈Rn×n eine Matrix mitnlinear unabhängigen Eigenvektoren w1, . . . , wn. Durch A˜ = A +δA sei eine beliebig gestörte Matrix gegeben. Dann existiert zu jedem Eigenwert λ( ˜A) von A˜=A+δA ein Eigenwert λ(A) von A so dass mit der Matrix W := (w1, . . . , wn) gilt:

|λ(A)−λ( ˜A)| ≤cond2(W)kδAk.

Beweis:Es gilt füri= 1, . . . , ndie BeziehungAwi=λi(A)wi, oder in Matrixschreibweise AW =Wdiag(λi(A)), also

W−1AW = diag(λi(A)).

Wir betrachten nun einen Eigenwert ˜λ=λ( ˜A). Falls ˜λauch Eigenwert vonA ist, so gilt die Behauptung. Also sei ˜λnun kein Eigenwert vonA. Dann folgt:

k(˜λIA)−1k2 =kW−1λI−diag(˜λi(A))]−1Wk2≤cond2(W)k[˜λI−diag(λi(A))]−1k2. Für die (symmetrische) Diagonalmatrix ˜λI−diag(λi(A)) gilt

k[˜λI−diag(λi(A))]−1k2= max

i=1,...,nλλi(A)|−1. Mit Hilfsatz 4.72 folgt das gewünschte Ergebnis:

1≤ k[˜λIA)−1δAk2≤ k[˜λIA)−1k kδAk2≤cond2(W) max

i=1,...,nλλi(A)|−12 kδAk2. Die Konditionierung des Eigenwertproblems einer MatrixAhängt von der Konditionszahl der Matrix der Eigenvektoren ab. Für symmetrische (hermitesche) Matrizen existiert eine Orthonormalbasis von Eigenvektoren mit cond2(W) = 1. Für solche Matrizen ist das Eigenwertproblem gut konditioniert. Für allgemeine Matrizen kann das Eigenwertproblem beliebig schlecht konditioniert sein.

4.6.2 Direkte Methode zur Eigenwertberechnung

Die Eigenwerte einer Matrix A können prinzipiell als Nullstellen des charakteristischen Polynoms χA(z) = det(zI−A) berechnet werden. Die Berechnung der Nullstellen kann zum Beispiel mit dem Newton-Verfahren geschehen, Startwerte können mit Hilfe der Gerschgorin-Kreise bestimmt werden.

In Kapitel 2 haben die Berechnung von Nullstellen eines Polynoms jedoch als ein sehr schlecht konditioniertes Problem kennengelernt. Wir betrachten hierzu ein Beispiel.

Beispiel 4.76 (Direkte Berechnung von Eigenwerten). Es sei A∈R5×5 eine Matrix mit den Eigenwertenλi = 1, i= 1, . . . ,5. Dann gilt:

χA(z) =

5

Y

i=1

(z−i) =z5−15z4+ 85x3−225x2+ 274z−120.

(5)

Der Koeffizient −55 vor z9 sei mit einem relativen Fehler von 0.1% gestört:

˜

χA(z) =z5−0.999·15z4+ 85x3−225x2+ 274z−120.

Dieses gestörte Polynom hat die Nullstellen (d.h. Eigenwerte):

λ1≈0.999, λ2 ≈2.05, λ3≈2.76, λ4/5 ≈4.59±0.430i.

Die Eigenwerte können also nur mit einem (ab λ3) wesentlichen Fehler bestimmt werden.

Es gilt etwa:

|4.59 + 0.43i−5|

5 ≈0.1,

d.h. der Fehler in den Eigenwerten beträgt 10%, eine Fehlerverstärkung von 100.

Das Aufstellen des charakteristischen Polynoms erfordert eine Vielzahl schlecht konditio- nierter Additionen sowie Multiplikationen. Für allgemeine Matrizen verbietet sich dieses direkte Verfahren. Lediglich für spezielle Matrizen wie Tridiagonalsysteme lassen die Ei- genwerte bestimmen, ohne das zunächst die Koeffizienten des charakteristischen Polynoms explizit berechnet werden müssen.

4.6.3 Iterative Verfahren zur Eigenwertberechnung

Das vorangegangene Beispiel widerspricht scheinbar zunächst der (auf jeden bei hermite- schen Matrizen) guten Konditionierung der Eigenwertsuche. Wir leiten nun stabile nume- rische Verfahren her, die die Eigenwerte nicht mehr direkt berechnen, sondern sie iterativ approximieren.

Zur Herleitung eines ersten einfachen Iterationsverfahren machen wir die folgende Beob- achtung: angenommen, zu gegebener Matrix A∈Rn×n existiere eine Basis aus Eigenvek- toren{w1, . . . , wn}, d.h. die Matrix sei diagonalisierbar. Weiter gelte|λn|>n−1| ≥ · · · ≥

1|>0. Dann seix∈Rn in Basisdarstellung:

x(0) =

n

X

j=1

αjwj.

Wir nehmen an, dassαn6= 0, dass also die Komponente zum Eigenvektor des betragsmäßig größten Eigenwertes nicht trivial ist. Wir definieren die Iteration

x(i+1) = Ax(i) kAx(i)k. Dann gilt

x(i+1)= AkAxAx(i−1)(i−1)k

kAkAxAx(i−1)(i−1)kk = A2x(i−1) kA2x(i−1)k

kAx(i−1)k

kAx(i−1)k =· · ·= Ai+1x(0)

kAi+1x(0)k. (4.10)

(6)

Weiter gilt mit der Basisdarstellung von x(0):

Aix(0)=

n

X

j=1

αjλijwj =αnλin

wn+

n−1

X

j=1

αj αn

λij λin

. (4.11)

Es gilt|λjn|<1 für j < n, daher folgt:

Aix(0) =

n

X

j=1

αjλijwj =αnλin(wn+o(1)),

Hieraus folgt durch Normierung:

Aix(0)

kAix(0)k = αnλin

nλin|

! wn

kwnk +o(1)→span{wn} (i→ ∞).

Die Iteration läuft in den Raum, der durchwn aufgespannt wird. Für einen Vektorw, der Vielfaches eines Eigenvektors istw=swn gilt:

Aw=sAwn=nwn=λnw.

Diese vektorwertige Gleichung gilt in jeder Komponente, kann daher nach dem Eigenwert aufgelöst werden:

λn= [Aw]k wk .

Wir fassen zusammen:

Satz 4.77 (Potenzmethode nach von Mises). Es sei A∈Rn×n eine Matrix n linear un- abhängigen Eigenvektoren {w1, . . . , wn}. Der betragsmäßig größte Eigenwert sei separiert

n|>n−1| ≥ · · · ≥ |λ1|. Es sei x(0) ∈Rn ein Startwert mit nichttrivialer Komponente in Bezug auf wn. Für einen beliebigen Indexk∈ {1, . . . , n} konvergiert die Iteration

˜

x(i)=Ax(i−1), x(i) := x˜(i)

kx˜(i)k, λ(i):= x˜(i)k x(i−1)k , gegen den betragsmäßig größten Eigenwert:

(i+1)λn|=O

λn−1 λn

i!

, i→ ∞.

Beweis: Wir knüpfen an der Vorbereitung des Beweises (4.10) an. Es gilt:

λ(i) = x˜(i)k

x(i−1)k = [Ax(i−1)]k

x(i−1)k = [Aix(0)]k [Ai−1x(0)]k.

(7)

Weiter, mit (4.11) gilt:

λ(i)=

anλin

[wn]k+Pn−1j=1 ααj

n

λij λin[wj]k

anλi−1n

[wn]k+Pn−1j=1 ααj

n

λij−1 λin−1[wj]k

=λn [wn]k+Pn−1j=1 ααj

n

λij λin[wj]k [wn]k+Pn−1j=1 ααk

n

λij−1 λin−1[wj]k

=λn

[wn]k+ααn−1

n +o(1) λλn−1

n

i[wn]k [wn]k+ααn−1

n +o(1) λλn−1

n

i−1[wn]k

=λn 1 +O

λn−1

λn

i−1!!

.

Die letzte Abschätzung nutzt die Reihenentwicklung:

1 +xn+1

1 +xn = 1 +O(|x|n).

Die Potenzmethode ist eine sehr einfache und numerisch stabile Iteration. Sie kann al- lerdings nur den betragsmäßig größten Eigenwert ermitteln. Der Konvergenzbeweis kann verallgemeinert werden auf Matrizen, deren größter Eigenwert mehrfach vorkommt. Kon- vergenz gilt jedoch nur dann, wenn aus |λn|=|λi| auch λn =λi folgt. Es darf also nicht zwei verschiedene Eigenwerte geben, die beide den gleichen, größten Betrag annehmen.

Dies schließt zum Beispiel den Fall zweier komplex konjugierter Eigenwerten λund ¯λals beträgsgrößte aus.

Bemerkung 4.78 (Potenzmethode bei symmetrischen Matrizen). Die Potenzmethode kann im Fall symmetrischer Matrizen durch Verwenden des Rayleigh-Quotienten verbes- sert werden. Die Iteration

λ(i)= (Ax(i−1), x(i−1))2

(x(i−1), x(i−1))2 = (˜x(i), x(i−1))2, liefert die Fehlerabschätzung:

λ(i)=λn+O

λn−1 λn

2i! .

Beispiel 4.79 (Potenzmethode nach von Mises). Es sei:

A=

2 1 2

−1 2 1

1 2 4

,

mit den Eigenwerten:

λ1≈0.80131, λ2= 2.2865, λ3= 4.9122.

(8)

Wir starten die Potenzmethode mit x(0) = (1,1,1)T, und wählen zur Normierung die Maximumsnorm. Weiter wählen wir als Index k= 1:

i= 1 : x˜(1)=Ax(0) =

5 2 7

, x(1)= x˜(1) kx˜(1)k

0.714 0.286

1

, λ(1) = x˜(1)1 x(0)1 ≈5,

i= 2 : x˜(2)=Ax(1) =

3.71 0.857

5.29

, x(2)= x˜(2) kx˜(2)k

0.702 0.162

1

, λ(2) = x˜(2)1

x(1)1 ≈5.19,

i= 3 : x˜(3)=Ax(2) =

3.57 0.124

1

, x(3)= x˜(3) kx˜(3)k

0.710 0.124

1

, λ(3) = x˜(3)1

x(2)1 ≈5.077,

i= 4 : x˜(4)=Ax(3) =

3.54 0.538

4.96

, x(4)= x˜(4) kx˜(4)k

0.715 0.108

1

, λ(4) = x˜(4)1

x(3)1 ≈4.999,

i= 5 : x˜(5)=Ax(4) =

3.54 0.502

4.93

, x(5)= x˜(5) kx˜(5)k

0.717 0.102

1

, λ(5) = x˜(5)1

x(4)1 ≈4.950,

i= 6 : x˜(6)=Ax(5) =

3.54 0.486

4.92

, x(6)= x˜(6) kx˜(6)k

0.719 0.0988

1

, λ(6) = x˜(6)1

x(5)1 ≈4.930.

Referenzen

ÄHNLICHE DOKUMENTE

Wieviele Nullstellen liegen innerhalb des

Die Subtraktion zweier ann¨ ahernd gleicher Zahlen f¨ uhrt zur Stellenausl¨ oschung, wodurch Eingabefehler verst¨ arkt werden.. Dieses Problem ist somit

[r]

Betriebsminimum Minimum der variablen Stückkosten Berechnung kvar; Berechnung der Menge bei der das Minimum von kvar erreicht wirds. Durch Einsetzen von x min in kvar

Kein Schnitt- punkt mit der y-Achse (weil die Funktion bei 0 nicht definiert ist). Auch wenn es in diesem Ausschnitt schwer zu erkennen ist: Der Graph ist punktsymmetrisch zu

Ubungsaufgaben zu Mathematik I f¨ ¨ ur Ingenieure, WS 2006/07 Serie 2, Determinanten, Matrizen. Die Aufgaben finden Sie auch auf

Polynomdivision ohne

M¨undliche Pr¨ufung in Linearer Algebra f¨ur Studierende im Lehramt, neue Ordnung.. Eine m¨undliche Pr¨ufung ist f¨ur alle verbindlich vorgeschrieben, sie kann vor Beginn des SS 07