• Keine Ergebnisse gefunden

Kapitel 3 Vektoren und Matrizen

N/A
N/A
Protected

Academic year: 2022

Aktie "Kapitel 3 Vektoren und Matrizen"

Copied!
17
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Vektoren und Matrizen

In diesem Kapitel sollen die Grundlagen aus der linearen Algebra bereitgestellt werden, die sp¨ater bei der Konstruktion effizienter Algorithmen f¨ur die L¨osung linearer Gleichungs- systeme ben¨otigt werden. Neben den grundlegenden Begriffen wie zum Beispiel Normen von Vektoren und Matrizen wird die Singul¨arwertzerlegung beliebiger Matrizen hergeleitet.

Das Orthogonalisierungsverfahren nach Gram–Schmidt bildet den Ausgangspunkt f¨ur die Herleitung von modernen Iterationsverfahren f¨ur lineare Gleichungssysteme.

3.1 Normen von Vektoren und Matrizen

F¨ur n ∈ N ist Rn der Raum der n–dimensionalen Vektoren u ∈ Rn mit Komponenten ui ∈R f¨ur i= 1, . . . , n. Mit

h·,·i : Rn×Rn →R

wird ein beliebiges Skalarprodukt im VektorraumRn bezeichnet, das heißt es gilt die Dis- tributivit¨at

hu+v, wi = hu, wi+hv, wi, die Kommutativit¨at

hu, vi = hv, ui, die Homogenit¨at

hαu, vi = αhu, vi

f¨ur alle Vektorenu, v, w ∈Rn und α∈R sowie die positive Definitheit hu, ui > 0

f¨ur alle u∈Rn mit u6= 0. Insbesondere definiert hu, vi2 := (u, v) =

Xn i=1

uivi

(2)

3.1. Normen von Vektoren und Matrizen 73 das Euklidische Skalarprodukt. F¨ur einen Vektor u∈Rn bezeichnet

k · kV : Rn →R

eine beliebige Vektornorm, f¨ur welche die Normaxiome gelten, das heißt die positive Defi- nitheit

kukV ≥ 0 f¨ur alleu∈Rn, kukV = 0 genau dann, wennu= 0, die Homogenit¨at

kα ukV = |α| kukV f¨ur alleu∈Rnundα∈R, sowie die Dreiecksungleichung

ku+vkV ≤ kukV +kvkV f¨ur alleu, v ∈Rn. Beispiele f¨ur Vektornormen sind die Euklidische Norm

kuk2 :=

Xn i=1

u2i

!1/2

, die Maximumnorm

kuk := max

i=1,...,n|ui|, sowie die Summennorm

kuk1 :=

Xn i=1

|ui|. Nach Definition ist

kuk22 = Xn

i=1

u2i = (u, u) f¨ur alleu∈Rn und es gilt die Cauchy–Schwarz–Ungleichung

(u, v) = Xn

i=1

uivi ≤ Xn

i=1

u2i

!1/2 Xn i=1

vi2

!1/2

= kuk2kvk2 (3.1) f¨ur alle u, v ∈Rn.

Zwei Vektornormen k · kV1 und k · kV2 heißen zueinander ¨aquivalent, wenn unabh¨angig von u∈Rn zwei positive Konstanten c1 und c2 existieren, so daß die ¨Aquivalenzungleichungen c1kukV1 ≤ kukV2 ≤ c2kukV1 f¨ur alleu∈Rn (3.2) erf¨ullt sind. Die ¨Aquivalenzungleichungen sind scharf, wenn im allgemeinen unterschiedliche Vektoren u∈Rn existieren, f¨ur die in (3.2) jeweils die Gleichheit gilt.

(3)

Lemma 3.1. F¨ur beliebiges u∈Rn gelten die ¨Aquivalenzungleichungen

kuk ≤ kuk1 ≤ nkuk, kuk ≤ kuk2 ≤ √nkuk, kuk2 ≤ kuk1 ≤ √

nkuk2. Alle Absch¨atzungen sind scharf.

Beweis: Zun¨achst ist

kuk = max

i=1,...,n|ui| ≤ Xn

i=1

|ui| = kuk1,

wobei die Gleichheit zum Beispiel f¨ur u = (1,0, . . . ,0) angenommen wird. F¨ur die Ab- sch¨atzung in umgekehrter Richtung folgt

kuk1 = Xn

i=1

|ui| ≤ n max

i=1,...,n|ui| = nkuk. Diese ist scharf zum Beispiel f¨ur u= (1, . . . ,1).

Die ¨Aquivalenz zwischen Maximumnormk · k und Euklidischer Normk · k2 folgt analog, das heißt

kuk2 =

i=1,...,nmax |ui| 2

= max

i=1,...,n|ui|2 ≤ Xn

i=1

|ui|2 = kuk22

sowie

kuk22 = Xn

i=1

|ui|2 ≤ n max

i=1,...,n|ui|2 = n||u||2.

Gleichheit gilt beispielsweise f¨ur u= (1,0, . . . ,0) sowie f¨ur u= (1, . . . ,1).

Die Kombination der bereits gezeigten Ungleichungen ergibt f¨ur die ¨Aquivalenz der Eukli- dischen Norm k · k2 zur Summennorm k · k1 die Ungleichungen

1

nkuk1 ≤ kuk2 ≤ √

nkuk1. (3.3)

Da aber in den einzelnen ¨Aquivalenzungleichungen die Gleichheit jeweils f¨ur unterschiedli- che Vektoren u∈Rn angenommen wird, sind die resultierenden ¨Aquivalenzungleichungen (3.3) nicht scharf und daher nicht optimal.

Mit der Cauchy–Schwarz–Ungleichung (3.1) folgt

kuk1 = Xn

i=1

|ui| = Xn

i=1

(1· |ui|) ≤ Xn

i=1

12

!1/2 Xn i=1

|ui|2

!1/2

= √

nkuk2.

(4)

3.1. Normen von Vektoren und Matrizen 75 Diese ist scharf f¨ur u= (1, . . . ,1). Andererseits ist

kuk22 = Xn

i=1

|ui|2 ≤ Xn

i=1

|ui|

!2

= kuk21

mit Gleichheit f¨ur u= (1,0, . . . ,0).

Sei B ∈ Rm×n eine beliebig gegebene Matrix mit Eintr¨agen B[k, ℓ] = bkℓ ∈ R f¨ur k = 1, . . . , mund ℓ = 1, . . . , n. Mit

k · kM : Rm×n→R

wird eine beliebige Matrixnorm bezeichnet. Beispiele f¨ur Matrixnormen sind die Zeilen- summennorm

kBk := max

k=1,...,m

Xn ℓ=1

|bkℓ|, die Spaltensummennorm

kBk1 := max

ℓ=1,...,n

Xm k=1

|bkℓ| sowie die Frobenius–Norm (Hilbert–Schmidt–Norm)

kBkF :=

Xm k=1

Xn ℓ=1

b2kℓ

!1/2

.

F¨ur eine sowohl in Rn als auch in Rm gegebene Vektornorm k · kV kann durch kBkM := sup

06=x∈Rn,Bx∈Rm

kBxkV kxkV

stets eine induzierte Matrixnorm definiert werden. Insbesondere induziert die Euklidische Vektornorm die Euklidische Matrixnorm

kBk2 := sup

06=x∈Rn

||Bx||2

||x||2

.

Lemma 3.2. Die Zeilensummennorm kBk wird durch die Maximumnorm kxk indu- ziert.

Beweis: F¨ur die Maximumnorm von Bx ∈Rm f¨ur einen beliebigen Vektor x∈Rn ergibt sich

kBxk = max

k=1,...,m

Xn ℓ=1

bkℓx

≤ kxk max

k=1,...,m

Xn ℓ=1

|bkℓ|.

(5)

F¨ur alle x∈Rn mit kxk 6= 0 ist somit kBxk

kxk ≤ max

k=1,...,m

Xn ℓ=1

|bkℓ| = kBk, woraus

sup

06=x∈Rn

kBxk

kxk ≤ kBk

folgt. F¨ur den Nachweis der umgekehrten Ungleichung bezeichne k0 den Index, f¨ur welchen die Zeilensummennorm angenommen wird, das heißt

kBk = max

k=1,...,m

Xn ℓ=1

|bkℓ| = Xn

ℓ=1

|bk0|.

Sei xe∈Rn definiert durch

e x =



 bk0

|bk0| f¨urbk0 6= 0, 1 f¨urbk0 = 0

und ℓ= 1, . . . , n. Nach Konstruktion istkexk = 1. Dann ergibt sich kBxek= max

k=1,...,m| Xn

ℓ=1

bkℓxe| ≥ | Xn

ℓ=1

bk0xe| = Xn

ℓ=1

|bk0| = kBk, und wegen kexk = 1 folgt

kBk ≤ kBexk

kexk ≤ sup

06=x∈Rn

kBxk

kxk ≤ kBk und somit die Gleichheit.

Lemma 3.3. Die SpaltensummennormkBk1 wird durch die Summennormkxk1 induziert.

Beweis: F¨ur die Summennorm von Bx∈Rm ergibt sich kBxk1 =

Xm k=1

Xn ℓ=1

bkℓx

Xm k=1

Xn ℓ=1

|bkℓ| |x|

≤ max

ℓ=1,...,n

Xm k=1

|bkℓ|

! n X

ℓ=1

|x| = kBk1kxk1 f¨ur alle x∈Rn, und f¨ur kxk1 6= 0 folgt

sup

06=x∈Rn

kBxk1

kxk1 ≤ kBk1.

(6)

3.1. Normen von Vektoren und Matrizen 77 Sei nun ℓ0 der Index, f¨ur den die Spaltensummennorm angenommen wird,

kBk1 = max

ℓ=1,...,n

Xm k=1

|bkℓ| = Xm

k=1

|bkℓ0|,

und seixe= (δ1ℓ0, . . . , δnℓ0) mit kexk1 = 1. Hierbei bezeichnet δkℓ =

1 f¨urk =ℓ, 0 f¨urk 6=ℓ das Kroneckersymbol. Dann folgt

kBk1 = Xm k=1

|bkℓ0| = Xm k=1

Xn ℓ=1

bkℓex

= kBxek1 = kBxek1

kexk1 ≤ sup

06=x∈Rn

kBxk1

kxk1

und somit insgesamt die Behauptung

kBk1 = sup

06=x∈Rn

kBxk1

kxk1 .

Eine Matrixnormk·kM heißt kompatibel beziehungsweise vertr¨aglich zur Vektornormk·kV, wenn f¨ur beliebige Matrizen B ∈Rm×n und beliebige Vektoren x∈Rn die Ungleichung

kBxkV ≤ kBkMkxkV

gilt. F¨ur eine durch eine Vektornorm k · kV induzierte Matrixnorm k · kM folgt kBkM = sup

06=x∈Rn

kBxkV

kxkV ≥ kBxkV kxkV

f¨ur allex∈Rn,kxkV 6= 0,

das heißt eine induzierte Matrixnorm k · kM ist stets vertr¨aglich zu der sie erzeugenden Vektornorm k · kV. Ist eine Matrixnorm k · kM durch eine Vektornorm k · kV induziert, so ergibt sich f¨ur die Norm der Einheitsmatrix I ∈Rn×n

kIkM = sup

06=x∈Rn

kIxkV

kxkV = sup

06=x∈Rn

kxkV kxkV = 1.

Abschließend soll ein Beispiel einer zu einer Vektornorm k · kV vertr¨aglichen Matrixnorm k · kM betrachtet werden, die durch keine Vektornorm induziert wird.

Beispiel 3.1. Sei zun¨achst m = n. F¨ur die Einheitsmatrix I ∈ Rn×n gilt dann in der Frobenius–Norm kIkF = √

n, dies steht aber f¨ur n > 1 im Widerspruch zu kIkM = 1 f¨ur eine induzierte Matrix–Norm k · kM. Deshalb kann die Frobenius–NormkAkF durch keine Vektornorm kxkV induziert sein.

(7)

F¨ur B ∈Rm×n folgt andererseits mit der Cauchy–Schwarz–Ungleichung (3.1) kBxk22 =

Xm k=1

Xn ℓ=1

bkℓx

!2

≤ Xm k=1

Xn ℓ=1

b2kℓ

! n X

ℓ=1

x2

!

= kBk2Fkxk22

und somit die Vertr¨aglichkeit der Frobenius–Norm kBkF zur Euklidischen Vektornorm kxk2.

Eine invertierbare Matrix V ∈Rn×n (beziehungsweise U ∈Rm×m) heißt orthogonal, wenn ihre inverse Matrix V−1 durch die transponierte Matrix V gegeben ist, das heißt

VV = V V = In ∈Rn×n, UU = U U = Im ∈Rm×m. Wegen

kxk22 = (x, x)2 = (V| {z }V

=I

x, x)2 = (V x, V x)2 = kV xk22

f¨ur beliebige Vektoren x∈Rn folgt mit der Substitution x=V z kBk2 = sup

06=x∈Rn

kBxk2

kxk2 = sup

06=x=V z∈Rn

kBV zk2

kV zk2 = sup

06=z∈Rn

kBV zk2

kzk2 = kBVk2. Analog ergibt sich

kBk2 = sup

06=x∈Rn

kBxk2

kxk2 = sup

06=x∈Rn

kU Bxk2

kxk2 = kU Bk2.

Insgesamt gilt also f¨ur eine beliebige MatrixB ∈Rm×nund orthogonale MatrizenV ∈Rn×n beziehungsweise U ∈Rm×m die Gleichheit

kBk2 = kU Bk2 = kBVk2 = kU BVk2, (3.4) das heißt die Euklidische Matrixnorm kBk2 ist invariant bez¨uglich orthogonaler Transfor- mationen.

F¨urℓ = 1, . . . , nbezeichneb= (bkℓ)mk=1 die Spaltenvektoren der Matrix B ∈Rm×n mit der Euklidischen Vektornorm

kbk22 = Xm k=1

b2kℓ.

Damit ergibt sich f¨ur die Frobenius–Norm der Matrix B die Darstellung kBk2F =

Xm k=1

Xn ℓ=1

b2kℓ = Xn

ℓ=1

kbk22.

Andererseits gilt f¨ur das Matrixprodukt U B mit einer orthogonalen Matrix U ∈Rm×m U B = U b1, . . . , U bn

.

(8)

3.2. Eigenwerte und Singul¨arwerte 79 Aus der Invarianz der Euklidischen Vektornorm ergibt sich in der Frobenius–Norm

kU Bk2F = Xn

ℓ=1

kU bk22 = Xn

ℓ=1

kbk22 = kBk2F

und somit

kU BkF = kBkF .

Damit folgt auch, jeweils durch ¨Ubergang zur transponierten Matrix, f¨ur eine orthogonale Matrix V ∈Rn×n

kBkF = kBkF = kVBkF = k(VB)kF = kBVkF.

Insgesamt gilt f¨ur eine beliebige Matrix B ∈ Rm×n und orthogonale Matrizen V ∈ Rn×n und U ∈Rm×m die Gleichheit

kBkF = kU BkF = kBVkF = kU BVkF, (3.5) das heißt die Invarianz der Frobenius–Norm bez¨uglich orthogonaler Transformationen.

Ist eine quadratische Matrix A∈Rn×n invertierbar, so definiert

κM(A) := kAkMkA−1kM (3.6)

die Konditionszahl bez¨uglich der Matrixnorm k · kM. Insbesondere bezeichnet

κ2(A) = kAk2kA−1k2 (3.7)

die spektrale Konditionszahl. Eine MatrixA∈Rn×n (beziehungsweise die Familie von Ma- trizen A∈ Rn×n f¨ur verschiedene n ∈N) heißt schlecht konditioniert, wenn ihre spektrale Konditionszahl κ2(A) proportional zur Dimension n anw¨achst.

3.2 Eigenwerte und Singul¨ arwerte

Eine komplexe Zahl λ(A)∈Cheißt Eigenwert der quadratischen Matrix A∈Rn×n, wenn das lineare Gleichungssystem

Ax = λ(A)x (3.8)

eine nicht triviale L¨osung x ∈ Rn mit kxkV > 0 besitzt. Diese heißt Eigenvektor zum Eigenwert λ(A). Als notwendige Bedingung f¨ur die Existenz nichttrivialer L¨osungen von (3.8) ergeben sich die µvoneinander verschiedenen Eigenwerte λk(A) f¨urk = 1, . . . , µ≤n als Nullstellen des charakteristischen Polynoms

p(λ) := det(A−λI) = (λ1(A)−λ)α1. . .(λµ(A)−λ)αµ = Yµ k=1

k(A)−λ)αk.

(9)

Die Potenzenαk ∈Nbeschreiben die algebraische Vielfachheit des Eigenwertesλk(A), und es gilt

Xµ k=1

αk = n .

Durch Koeffizientenvergleich des charakteristischen Polynoms folgen spur(A) =

Xn i=1

aii = Xµ k=1

αkλk(A), det(A) = Yµ k=1

k(A)]αk.

Da ein Eigenwert λk(A) Nullstelle des charakteristischen Polynoms det(A−λI) ist, so ist auch sein konjugiert komplexer Wert λk(A) Nullstelle und somit Eigenwert von A. Wegen det(A−λI) = det(A−λI) sind diese auch Eigenwerte der transponierten Matrix A. Die zum Eigenwert λk(A) geh¨orenden Eigenvektoren bilden einen linearen Teilraum,

L(λk(A)) := {x∈Rn : Ax=λk(A)x}, βk := dimL(λk(A)),

dessen Dimension βk die Anzahl der linear unabh¨angigen Eigenvektoren zum Eigenwert λk(A) angibt. Diese heißt geometrische Vielfachheit des Eigenwerts λk(A).

Durch

̺(A) := max

k=1,...,µ≤nk(A)| wird schließlich der Spektralradius der Matrix A definiert.

F¨ur symmetrische Matrizen A = A ∈ Rn×n sind die Eigenwerte λk(A) f¨ur k = 1, . . . , n reell und die zugeh¨origen Eigenvektoren {vk}nk=1 bilden eine Orthonormalbasis mit

(vk, v) = δkℓ f¨ur allek, ℓ= 1, . . . , n.

Ein beliebiges Element x∈Rn kann deshalb durch x =

Xn k=1

ξkvk mitξk = (x, vk) (3.9) dargestellt werden, und es gilt

kxk22 = (x, x) = ( Xn k=1

ξkvk, Xn

ℓ=1

ξv) = Xn k=1

Xn ℓ=1

ξkξ(vk, v) = Xn k=1

ξk2

sowie

(Ax, x) = Xn k=1

Xn ℓ=1

ξkξ(Avk, v) = Xn

k=1

Xn ℓ=1

ξkξλk(A)(vk, v) = Xn k=1

λk(A)ξk2.

(10)

3.2. Eigenwerte und Singul¨arwerte 81 Eine symmetrische MatrixA=A∈Rn×nheißt positiv definit, falls alle Eigenwerteλk(A) positiv sind. In diesem Fall folgt

(Ax, x) = Xn k=1

λk(A)ξk2 ≥ min

k=1,...,nλk(A) Xn

k=1

ξk2 = min

k=1,...,nλk(A)kxk22

f¨ur alle x ∈ Rn. Weiterhin kann der Rayleigh–Quotient durch die extremalen Eigenwerte von A abgesch¨atzt werden, das heißt f¨ur alle x∈Rn mit kxkV >0 gilt

k=1,...,nmin λk(A) ≤ (Ax, x)

(x, x) ≤ max

k=1,...,nλk(A).

Damit folgt

λmin(A) = min

06=x∈Rn

(Ax, x)

(x, x) , λmax(A) = max

06=x∈Rn

(Ax, x) (x, x) . Gelten die Spektral¨aquivalenzungleichungen

cA1 (x, x) ≤ (Ax, x) ≤ cA2 (x, x) (3.10) f¨ur alle x∈Rn mit positiven Konstanten cA1 und cA2, so folgt

cA1 ≤ λmin(A) ≤ λmax(A) ≤ cA2 ,

das heißt, die Konstanten cA1 und cA2 sind untere beziehungsweise obere Schranken der extremalen Eigenwerte der positiv definiten Matrix A.

F¨ur eine symmetrische und positiv definite Matrix A∈Rn×n kann durch

hu, viA := (Au, v) = (u, Av) : Rn×Rn→R (3.11) das A–energetische Skalarprodukt erkl¨art werden. Die durch dieses Skalarprodukt indu- zierte Vektornorm

||x||A := [hx, xiA]1/2 = (Ax, x)1/2 (3.12) wird als A–energetische Vektornorm bezeichnet.

Die durch die Eigenvektoren von A=A∈Rn×n gebildete Matrix V = (v1, . . . , vn)∈Rn×n

ist orthogonal, und es gilt

AV = Av1, . . . , Avn

= λ1(A)v1, . . . , λn(A)vn

= V D mit der durch die Eigenwerte von A definierten Diagonalmatrix

D = diag (λk(A))nk=1.

(11)

Multiplikation mit V von links ergibt wegen der Orthogonalit¨at der Eigenvektoren

VAV = D (3.13)

beziehungsweise durch die Multiplikation mit V von rechts folgt die bekannte Faktorisie- rung der Matrix A,

A = V D V = Xn

k=1

λk(A)vkvk,⊤. (3.14) Die Darstellung (3.14) ist einerseits Grundlage f¨ur die Definition einer Niedrig–Rang Ap- proximation von A, andererseits erm¨oglicht sie die symmetrische Vorkonditionierung eines linearen Gleichungssystems Ax = f zur Verbesserung der spektralen Konditionszahl der vorkonditionierten Systemmatrix. Hierzu wird die Wurzel einer symmetrischen und positiv definiten Matrix A ben¨otigt: F¨ur positive Eigenwerte λk(A) > 0, k = 1, . . . , n, kann die Diagonalmatrix

D1/2 = diagp

λk(A)n k=1

und somit die symmetrische und positiv definite Matrix

A1/2 = V D1/2V (3.15)

erkl¨art werden. Nach Konstruktion gilt A1/2A1/2 = V D1/2V| {z }V

=I

D1/2V = V DV = A . Entsprechend kann

A−1/2 = (A1/2)−1 = V D−1/2V, D−1/2 = diag 1 pλk(A)

!n

k=1

definiert werden. Mit der Transformation x=A−1/2z folgt aus den Spektral¨aquivalenzun- gleichungen (3.10) auch die G¨ultigkeit der Spektral¨aquivalenzungleichungen

1

cA2 (z, z) ≤ (A−1z, z) ≤ 1

cA1 (z, z) (3.16)

f¨ur alle z ∈Rn.

Der Rang einer Matrix A beschreibt die Anzahl der linear unabh¨angigen Zeilen bezie- hungsweise Spalten vonA. Die Darstellung (3.14) zeigt, daß der Rang einer symmetrischen Matrix A ∈ Rn×n mit der Anzahl der nicht verschwindenden Eigenwerte zusammenf¨allt, das heißt es gilt

A =

rangA

X

k=1

λk(A)vkvk,⊤,

(12)

3.2. Eigenwerte und Singul¨arwerte 83 falls eine entsprechende Nummerierung der Eigenwerte mit λk(A) = 0 f¨ur k > rangA vorausgesetzt wird.

Aus der Norminvarianz (3.4) folgt schließlich

kAk2 = kV DVk2 = kDk2 = max

k=1,...,nk(A)| = ̺(A), beziehungsweise gilt mit der Invarianz (3.5) der Frobenius–Norm

kAkF = kV DVkF = kDkF = vu ut

Xn k=1

k(A)]2.

Ist die Matrix A invertierbar, so sind die Eigenwerte der Inversen A−1 durch λk(A−1) = [λk(A)]−1

gegeben. Ist A zus¨atzlich symmetrisch und positiv definit, so folgt f¨ur die spektrale Kon- ditionszahl

κ2(A) = kAk2kA−1k2 = ̺(A)̺(A−1) =

k=1,...,nmax |λk(A)|

k=1,...,nmin |λk(A)| = λmax(A) λmin(A).

Bei den obigen ¨Uberlegungen wurden Matrizen A ∈ Rn×n betrachtet. Sei nun B ∈ Rm×n eine beliebig gegebene Matrix mit rangB ≤min{m, n}. Dann definiert A:=BB ∈Rn×n eine symmetrische Matrix mit rangA≤min{m, n} und n reellen Eigenwerten

λk(A) =λk(BB)

sowie einem zugeh¨origen orthonormalen System {vk}nk=1 von Eigenvektoren. Dieses bildet eine Basis des Rn, so daß jedes Elementx∈Rn wie in (3.9) dargestellt werden kann,

x = Xn k=1

ξkvk mitξk = (x, vk).

Wegen

0 ≤ kBxk22 = (Bx, Bx) = (BBx, x) = (Ax, x)

= Xn k=1

Xn ℓ=1

ξkξ(Avk, v) = Xn k=1

Xn ℓ=1

ξkξλk(A)(vk, v) = Xn

k=1

λk(A)ξ2k

folgtλk(A)≥0 f¨ur allek = 1, . . . , n. Ohne Einschr¨ankung der Allgemeinheit gelteλk(A)>

0 f¨ur alle k = 1, . . . , µ = rangA ≤ min{m, n} und λk(A) = 0 f¨ur k =µ+ 1, . . . , n. Nach (3.13) gilt die Faktorisierung

VAV = VBBV = D = diag (λk(A))nk=1. (3.17)

(13)

Wegen λk(A)≥0 f¨ur k= 1, . . . ,min{m, n} existieren die Singul¨arwerte σk(B) = p

λk(A) = p

λk(BB)≥0 f¨urk = 1, . . . ,min{m, n}.

Insbesondere gilt σk(B) > 0 f¨ur k = 1, . . . , µ ≤ min{m, n}. Die Singul¨arwerte definieren eine Diagonalmatrix

Σ = diag (σk(B))min{m,n}k=1 ∈Rm×n (3.18) und es gilt

D = ΣΣ∈Rn×n. Wird durch

Σ+ =











 1 σ1(B)

. ..

1 σµ(B)

0 . ..

0













∈Rn×m (3.19)

die Pseudoinverse zu Σ definiert, das heißt Σ+Σ =

Iµ 0

∈Rn×n,

dann folgt aus der Faktorisierung (3.17) durch Multiplikation mit der Pseudoinversen Σ+,⊤

von links

Σ+,⊤VBBV = Σ∈Rm×n beziehungsweise

UBV = Σ (3.20)

mit

U = BVΣ+∈Rm×m. Wegen

UU = Σ+,⊤VBBVΣ+ = Σ+,⊤+ = Iµ

0

∈Rm×m

ist U die Pseudoinverse zu U. Damit folgt aus (3.20) die Singul¨arwertzerlegung von B ∈Rm×n,

B = UΣV = Xµ k=1

σk(B)ukvk,⊤, (3.21) das heißt µ= rangB beschreibt die Anzahl der nicht verschwindenden Singul¨arwerte von B. Aus der Invarianz (3.4) der Euklidischen Matrixnorm folgt schließlich

kBk2 =kUΣVk2 =kΣk2 = max

k=1,...,µσk(B) = max

k=1,...,µ

k(BB) =p

̺(BB)

(14)

3.3. Orthogonalisierung von Vektorsystemen 85 beziehungsweise ist mit der Invarianz (3.5) der Frobenius–Norm

kBkF = kUΣVkF = kΣkF = vu ut

Xµ k=1

k(B)]2.

Multiplikation der Gleichung (3.20) von rechts mit V und ¨Ubergang zur Transponierten ergibt

BU = VΣ und somit folgt durch Vergleich der Spaltenvektoren

Buk = σk(B)vk f¨urk= 1, . . . ,min{m, n}. Multiplikation der Gleichung (3.20) von links mitU liefert

BV = UΣ und somit

Bvk = σk(B)uk f¨urk = 1, . . . ,min{m, n}.

3.3 Orthogonalisierung von Vektorsystemen

F¨urm ∈Nmit m≤n heißt ein System1 {wk}m−1k=0 von m nicht verschwindenden Vektoren wk ∈Rn, das heißt es gilt kwkkV >0, linear unabh¨angig, wenn die Gleichheit

m−1X

k=0

αkwk = 0 nur f¨ur die triviale L¨osung

α0 =· · ·=αk =· · ·=αm−1 = 0

erf¨ullt ist. Die Vektoren {wk}m−1k=0 heißen zueinander orthogonal bez¨uglich dem Skalarpro- dukt h·,·i, falls

hwk, wi = 0 f¨ur allek, ℓ= 0, . . . , m−1 undk 6=ℓ gilt, und orthonormal, wenn

hwk, wi = δkℓ f¨ur allek, ℓ= 0, . . . , m−1

erf¨ullt ist. F¨ur m = n heißt das System {wk}n−1k=0 von n linear unabh¨angigen Vektoren Basis des Rn, das heißt ein beliebiges Element u ∈ Rn kann als Linearkombination der Basisvektoren {wk}n−1k=0 dargestellt werden.

1Im Hinblick auf die sp¨ater beschriebenen Iterationsverfahren zur L¨osung linearer Gleichungssysteme werden Vektorsysteme{wk}nk=01 stets vonk= 0, . . . , n1 indiziert.

(15)

Beispiel 3.2. Die Einheitsvektoren ek = δ(k+1)jn

j=1 f¨urk = 0, . . . , n−1

bilden eine Basis desRn. Diese wird als kanonische Basis bezeichnet. Die Einheitsvektoren ek sind orthonormal bez¨uglich dem Euklidischen Skalarprodukt, und f¨ur einen beliebigen Vektor u= (u1, . . . , un) ∈Rn gilt die Darstellung

u = Xn−1

k=0

uk+1ek ∈Rn.

Gegeben sei jetzt eine beliebige Basis {wk}n−1k=0 des Rn, gesucht ist eine bez¨uglich dem Skalarprodukth·,·i orthogonale Basis {pk}n−1k=0 mit

hpk, pi = 0 f¨urk, ℓ= 0, . . . , n−1 undk 6=ℓ.

Diese kann durch das Gram–Schmidtsche Orthogonalisierungsverfahren wie folgt konstru- iert werden:

Setze p0 :=w0.

F¨urk = 0, . . . , n−2 berechne pk+1 :=wk+1

Xk ℓ=0

βkℓp, βkℓ = hwk+1, pi hp, pi .

Algorithmus 1.1: Orthogonalisierungsverfahren nach Gram–Schmidt.

Lemma 3.4. Sei {wk}n−1k=0 ein System linear unabh¨angiger Vektoren. Dann ist das durch das Gram–Schmidtsche Orthogonalisierungsverfahren (Algorithmus 1.1) erzeugte Vektor- system {pk}n−1k=0 orthogonal, das heißt es gilt

hpk, pi = 0 f¨urk, ℓ= 0, . . . , n−1, k6=ℓ und

hpk, pki > 0 f¨urk= 0, . . . , n−1.

Beweis:Der Nachweis erfolgt durch vollst¨andige Induktion nach k. F¨urk = 0 istp0 =w0 und es gilt hp0, p0i>0. Dann ist p1 durch

p1 = w1 −β10p0, β10 = hw1, p0i hp0, p0i wohldefiniert, und die Orthogonalit¨at folgt aus

hp1, p0i = hw1−β10p0, p0i = hw1, p0i − hw1, p0i

hp0, p0ihp0, p0i = 0.

(16)

3.3. Orthogonalisierung von Vektorsystemen 87 Zu zeigen bleibthp1, p1i>0. Dieser Nachweis erfolgtindirekt, das heißt aus der Annahme hp1, p1i= 0 folgt

0 = p1 = w1−β10p0 = w1−β10w0

im Widerspruch zur linearen Unabh¨angigkeit der Vektoren w0 und w1. F¨ur k = 1 gelten somit die Induktionsvoraussetzungen

hp, pji = 0 f¨ur alleℓ, j = 0, . . . , k mit ℓ6=j und

hp, pi>0 f¨ur alleℓ = 0, . . . , k.

Aus der Induktionsvoraussetzung f¨ur k∈Nfolgt durch Einsetzen der Koeffizienten βkj f¨ur den Induktionsschritt k+ 1 die Orthogonalit¨at

hpk+1, pji = hwk+1, pji − Xk

ℓ=0

βkℓhp, pji = hwk+1, pji −βkjhpj, pji = 0 f¨ur j = 0, . . . , k. Zu zeigen bleibt hpk+1, pk+1i>0. Nach Konstruktion gilt

p ∈span

w0, . . . , w f¨ur alleℓ= 0, . . . , k+ 1.

Die Annahme pk+1 = 0 f¨uhrt dann wegen 0 = pk+1 = wk+1

Xk ℓ=0

βkℓp = wk+1− Xk

ℓ=0

βkℓ X

j=0

αℓjwj

zum Widerspruch zur Voraussetzung der linearen Unabh¨angigkeit des Vektorsystems{w}k+1ℓ=0. Damit ist Algorithmus 1.1 wohldefiniert.

Sei A∈ Rn×n eine invertierbare Matrix mit rangA =n. Dann bilden die Spaltenvektoren von A,

A = a1, . . . , an

∈Rn×n,

ein linear unabh¨angiges Vektorsystem {ak}nk=1. Die Anwendung des Orthogonalisierungs- verfahrens nach Gram–Schmidt bez¨uglich dem Euklidischen Skalarprodukt und bei gleich- zeitiger Normierung,

ˆ

vk=ak− Xk−1

ℓ=1

(ak, v)v, vk = 1

kvˆkk2 ˆvk f¨urk = 1, . . . , n, liefert f¨ur die Spaltenvektoren von A die Darstellung

ak = kvˆkk2vk+ Xk−1

ℓ=1

(ak, v)v f¨urk= 1, . . . , n.

(17)

In Matrixschreibweise lautet diese

A = Q R (3.22)

mit

Q = v1, . . . , vn

∈Rn×n, QQ=I, und der durch

R[ℓ, k] =





(ak, v) f¨urℓ = 1, . . . , k−1, kvˆkk2 f¨urℓ =k,

0 f¨urℓ =k+ 1, . . . , n.

f¨ur k = 1, . . . , n definierten oberen Dreiecksmatrix R. Durch das Orthogonalisierungs- verfahren von Gram–Schmidt kann also die QR–Zerlegung (3.22) einer regul¨aren Matrix A∈Rn×n berechnet werden.

Wird ein gegebenes linear unabh¨angiges Vektorsystem {w}n−1ℓ=0 bez¨uglich dem A–energe- tischen Skalarprodukt (3.11) orthogonalisiert, so nennt man das resultierende Vektorsystem {p}n−1ℓ=0 A–orthogonal beziehungsweise konjugiert, das heißt es gilt

hpk, piA = (Apk, p) = (pk, Ap) = 0 f¨urk 6=ℓ.

Referenzen

ÄHNLICHE DOKUMENTE

Das ISEK stellt für Haunstetten Südwest also eine wichtige Planungs- grundlage dar, bietet aber für ein derart komplexes Projekt wie die Entwicklung des neuen Stadtquartiers

In dem versicherten Gebäude befinden sich vier Wohnungen, von denen zum Zeit- punkt des Schadenseintritts zwei an Dritte vermietet waren. Eine Wohnung bewohnte

Für die meisten Arten stellt die Sauerstoffminimumzone eine Barriere für Wanderungen dar, während speziell angepasste Arten wie der Krill Euphausia mucronata in ihr ein

According to the first preliminary results of the research cruise, the pelagic community and in particular the zooplankton in the Humboldt Current off Peru are characterised by a

Bruchterme können nur dann addiert oder subtrahiert werden, wenn sie den gleichen Nenner haben!. Bei beiden Summanden zerlegen wir Zähler und Nenner (sprich „faktorisieren“) und

Bruchterme können nur dann addiert oder subtrahiert werden, wenn sie den gleichen Nenner haben!. Bei beiden Summanden zerlegen wir Zähler und Nenner (sprich „faktorisieren“) und

Wäre ein Stern im Azimut 45° benützt worden, so würde man in diesem Fall einen Zeitfehler von 2,2“ erhalten haben..

Die Resultate (Ortszeit — Chronometer) waren (Phys. Die Refraction wird ge- wöhnlich bei correspondirenden Sonnenhöhen Vormittags und Nachmittags als gleich angenommen, und