• Keine Ergebnisse gefunden

Wir wissen schon aus Lemma 4.2.3, dass eine quadratische Matrix von maximalem Rang da-durch charakterisiert werden kann, dass sie nicht-verschwindende Determinante hat. Man kann auch einen nicht-maximalen Rang durch die Berechnung von Determinanten bestimmen. Hierf¨ur betrachten wir nicht nur quadratische Matrizen.

Definition 4.5.1

Ist A ∈ M(m×n, K) und k ≤ min(m, n), so heißt eine k×k-Matrix A0, die durch Streichen von m−k Zeilen und n−k Spalten ausA hervorgeht, eine k-reihige Untermatrix von A. Ihre Determinante detA0 heißt ein k-reihiger Minor der Matrix A.

Satz 4.5.2.

Sei A∈M(m×n, K) und r∈N. Dann sind die folgenden Bedingungen ¨aquivalent:

(i) r = rg (A).

(ii) Es gibt einen r-reihigen Minor ungleich Null, und f¨ur k > r ist jeder k-reihige Minor gleich Null.

Beweis.

Wir zeigen zum Beweis, dass die folgenden beiden Bedingungen ¨aquivalent sind:

(a) rg (A)≥k

(b) Es gibt eine k-reihige UntermatrixA0 von A mit detA0 6= 0.

Wir zeigen (b)⇒(a): aus detA0 6= 0 folgt Lemma 4.2.3 rg (A0) =k, und daraus rg (A)≥k, da der Rang einer Untermatrix durch den Rang der Matrix nach oben beschr¨ankt ist. Denn die lineare Abh¨angigkeit von Zeilen (oder Spalten) der Matrix impliziert, dass auch die entspre-chenden Zeilen (oder Spalten) der Untermatrix linear abh¨angig sind.

Um (a)⇒ (b) zu sehen, beachten wir, dass es wegen rg (A)≥k sicherk linear unabh¨angige Zeilenvektoren vonAgibt. Wir w¨ahlenk solche Zeilen aus; f¨ur die dadurch erhaltene rechtecki-ge Matrix ist nach Satz 3.7.13 der Zeilenrang gleich dem Spaltenrang. Wir finden also k linear unabh¨angige Spalten dieser Untermatrix, die wir ausw¨ahlen, so dass wir eine k×k-Teilmatrix A0 erhalten, die maximalen Rang k und somit nach Lemma 4.2.3 nicht-verschwindende

Determinante hat.

Wir beweisen schließlich noch eine Verallgemeinerung des Multiplikationssatzes 4.2.12 f¨ur Determinanten. Daf¨ur dr¨ucken wir wir A ∈ M(m × n, K) durch die n Spaltenvektoren a1, a2, . . . , an ∈ Km aus, A = (a1. . . . , an). Wir schreiben Ak1,...,km = (ak1, . . . akm) f¨ur die m-reihige Untermatrix, deren erster Spaltenvektor derk1-te Spaltenvektor von A ist, usw.

Satz 4.5.3 (Verallgemeinerter Determinantenmultiplikationssatz).

Sei m≤n; dann gilt f¨ur alle Matrizen A, B ∈M(m×n, K) det (ABt) = X

1≤k1<...<km≤n

det (Ak1,...,km)·det (Bk1,...,km).

Beweis.

• Behauptung: Die Aussage gilt f¨ur den Fall, wenn die Zeilenvektoren vonA Transponierte der Elemente der Standardbasis von Kn sind:

A= gleich signσ. Andererseits gilt mit Spaltenvektoren bi von B

A·Bt =

Die Determinante dieses Produkts ist nur dann ungleich Null, wenn die Indizes paarweise verschieden sind. Dann gibt es eine Permutation σ∈Sm mit ji =kσ(i), und es gilt

detABt= signσ·detBk1,...,km .

• Gilt die Aussage f¨ur eine MatrixAund entsteht die Matrix ˜AausAdurch Multiplikation der i-ten Zeile mit λ ∈ K, so gilt die Aussage auch f¨ur ˜A, denn der Wert beider Seiten der Gleichung muss mit λ multipliziert werden.

• Aus der Linearit¨at der Determinantenfunktion folgt ebenso: gilt die Aussage f¨ur eine MatrixA mit i-tem Zeilenvektor (ai)t und eine Matrix ˜A, die sich von A nur in der i-ten Zeile darin unterscheidet, dass der Spaltenvektor gleich (˜ai)t ist, so gilt sie auch f¨ur die Matrix A+ ˜A.

• Man kann jede beliebige Matrix A nun mit Hilfe der vorangehenden Schritte aufbauen:

fixiere beliebigej2, . . . jm ∈ {1, . . . , n}. W¨ahleλj1 =a1j1, so folgt die Aussage f¨ur Matrizen

Nun halte den Zeilenvektor (a1)t fest und lassej2 von 1 bisnlaufen. Es folgt die Behaup-tung f¨ur Matrizen der Form

A1 :=

Nach m solchen Schritten erh¨alt man die Behauptung f¨ur die Matrix A.

Bemerkungen 4.5.4.

1. Der Fallm > n braucht keine Formell: es ist rgA ≤n und rgB = rgBt≤n, somit rg (ABt)≤min{rgA,rgB} ≤n < m

Damit ist der Rang von ABt nicht maximal. Es gilt im Fall m > n immer detABt= 0.

2. Man beachte, dass es im Fal m≤n genau n

m

m-reihige Minoren gibt. Insbesondere hat f¨ur m = n, also f¨ur quadratische Matrizen, die Summe nur einen Term, und wir erhalten einen neuen Beweis des Multiplikationssatzes 4.2.12 f¨ur Determinanten.

3. Insbesondere gilt f¨ur jedes A∈M(m×n, K) mit m≤n det (AAt) = X

1≤k1<...<km≤n

det (Ak1,...,km)2 .

Man nennt det (AAt) eine Gramsche Determinante. Sie ist f¨ur Matrizen mit reellen Ein-tr¨agen als Summe von Quadraten reeler Zahlen nicht-negativ. Sie ist genau dann gleich Null, wenn rgA < m. Denn rgA < m≤n ist nach Satz 4.5.2 ¨aquivalent dazu, dass jeder m-reihige Minor gleich Null ist, was zu det (AAt) = 0 ¨aquivalent ist.

5 Eigenwerte

5.1 Definitionen

Die Klassen ¨aquivalenter m × n Matrizen kennen wir aus Bemerkung 3.7.8.4: jede Matrix A∈M(m×n, K) ist ¨aquivalent zu genau einer Matrix der Form

Er ... 0 . . . .

0 ... 0

 mit r = rg (A).

Dies erlaubt es uns, durch Wahl geeigneter Basen f¨ur V und f¨ur W eine besonders einfache Beschreibung einer gegebenen linearen Abbildung Φ : V →W mit dimV =n und dimW =m zu finden.

Wir wollen in diesem Kapitel die Grundlagen f¨ur eine Beschreibung der ¨Ahnlichkeitsklassen quadratischer Matrizen legen. Dies geht Hand in Hand mit dem Verst¨andnis der Frage, auf wel-che Form die darstellende Matrix eines Endomorphismus durch geschickte Basiswahl gebracht werden kann. Entsprechend werden wir ab sofort frei zwischen der Sprache der (quadratischen) Matrizen und der linearen (Selbst-)Abbildungen wechseln.

Definition 5.1.1 Sei K ein K¨orper.

1. Sei V ein K–Vektorraum und Φ : V → V ein Endomorphismus. Ein Element λ ∈ K heißt Eigenwert von Φ, falls es einv ∈V \ {0}gibt, so dass Φ(v) =λv gilt. Dann heißt v Eigenvektor von Φ zum Eigenwert λ.

2. SeiA∈M(n×n, K). Ein Elementλ∈K heißt Eigenwert vonA, falls es einv ∈Kn\ {0}

gibt mit A·v =λv. Dann heißt v Eigenvektor von A zum Eigenwert λ.

3. Ein Endomorphismus Φ : V → V heißt diagonalisierbar, falls es eine Basis B von V gibt, die nur aus Eigenvektoren von Φ besteht. Dann ist die darstellende Matrix MBB(Φ) bez¨uglich jeder Ordnung dieser Basis B eine Diagonalmatrix.

Satz 5.1.2.

Sei Φ : V → V ein Endomorphismus. Seien v1, . . . , vm Eigenvektoren von Φ zu paarweise verschiedenen Eigenwerten λ1, . . . , λm. Dann ist die Familie (v1, . . . , vm) linear unabh¨angig.

Beweis.

Wir benutzen vollst¨andige Induktion nach m. F¨ur m = 1 ist v1 6= 0 per Definition eines Eigenvektors klar. Gelte

0 =

m

X

i=1

αivi mit αi ∈K . (∗) Es folgt

0 = Φ(0) =

m

X

i=1

αiΦ(vi) =

m

X

i=1

αiλivi .

Die Multiplikation von (∗) mit λ1 liefert:

0 =

m

X

i=1

αiλ1vi .

Die Differenz der Gleichungen ist

m

X

i=2

αii−λ1)vi = 0.

Nach Induktionsannahme ist die Familie (v2, . . . , vm) linear unabh¨angig, also αii−λ1) = 0 f¨ur alle i = 2, . . . , m. Wegen λi 6=λ1 folgt α2 = α3 =. . . =αm = 0. Da v1 6= 0 ist, folgt auch

α1 = 0.

Korollar 5.1.3.

1. Istn := dimKV <∞, so hat jeder Endomorphismus Φ : V →V h¨ochstensnverschiedene Eigenwerte.

2. Istn:= dimKV <∞und hat Φ genau n verschiedene Eigenwerte, so ist Φ diagonalisier-bar.

Beweis.

1. ist klar, weil jede Familie von mehr als n Vektoren linear abh¨angig ist.

2. W¨ahle zu jedem Eigenwert λi einen Eigenvektor vi. Die Familie (vi)i=1...n ist nach Satz 5.1.2 linear unabh¨angig und wegen dimKV =n eine Basis.

Definition 5.1.4

Φ : V →V ein Endomorphismus eines K–Vektorraums V. F¨urλ ∈K heißt Eig(Φ, λ) := {v ∈V|Φ(v) =λv}

der Eigenraum von Φzum Wert λ.

Bemerkungen 5.1.5.

1. Die Menge Eig(Φ, λ)\ {0}besteht aus den Eigenvektoren zum Eigenwertλ. Ein Element λ∈K ist also genau dann Eigenwert, wenn Eig(Φ, λ)6={0}.

2. Eig(Φ, λ) = ker(λidV −Φ), denn Φ(v) = λv genau dann, wenn (λidV −Φ)v = 0. Insbe-sondere ist Eig(Φ, λ) als Kern ein Untervektorraum vonV.

3. Aus λ1 6= λ2 folgt Eig(Φ, λ1)∩Eig(Φ, λ2) = {0}. Denn f¨ur v ∈ Eig(Φ, λ1 ∩Eig(Φ, λ2)) folgt

λ1v = Φ(v) = λ2v , also (λ1 −λ2)v = 0, woraus v = 0 wegen λ1 6=λ2 folgt.

4. Aus 2. folgt sofort: λ ist genau dann Eigenwert, wenn die Abbildung λ·idV −Φ nicht bijektiv ist. Dies ist genau dann der Fall, wenn

det (λidV −Φ) = 0 gilt.

Definition 5.1.6 Ist

µgeo(Φ, λ) := dimKEig(Φ, λ)

nicht verschwindend, so heißt µgeo geometrische Vielfachheit des Eigenwerts λ.

Definition 5.1.7 Die Funktion

PΦ : K →K

λ7→det (λidV −Φ)

heißt das charakteristisches Polynom von Φ. Korrekter w¨are hier die Bezeichnung charakteri-stische Funktion.

Bemerkungen 5.1.8.

1. Die Eigenwerte von Φ sind genau die Nullstellen von PΦ. 2. SeiB eine geordnete Basis von V und

A=MBB(Φ) ∈M(n×n, K). Es ist

MBB(λidV −Φ) =λEn−A , woraus folgt:

PΦ(λ) = det (λidV −Φ) = det (λEn−A) =:PA(λ).

Insbesondere haben ¨ahnliche Matrizen das gleiche charakteristische Polynom, da sie den gleichen Endomorphismus bez¨uglich verschiedener Basen darstellen, vergleiche Bemer-kung 3.7.8.3.

3. Beispiel: Drehungen des R2 um den Ursprung:

A=M(Rθ) =

cosθ −sinθ sinθ cosθ

PA(λ) = det

λ−cosθ sinθ

−sinθ λ−cosθ

2−2 cosθλ+ 1 Die komplexen Nullstellen sind

λ1,2 = cosθ±i sinθ .

Diese sind nur f¨ur θ = 0, π reell. Nur dann gibt es reelle Eigenwerte und auch Eigenvek-toren in R2. Beiθ = 0 handelt es sich um die Identit¨at, alle Vektoren sind Eigenvektoren zum Eigenwert 1; bei θ = π handelt es sich um die Punktspiegelung am Ursprung, alle Vektoren sind Eigenvektoren zum Eigenwert −1.

Satz 5.1.9.

Sei A∈M(n×n, K). Dann ist PA(λ) eine polynomiale Funktion vom Grad n, PA(λ) =anλn+an−1λn−1+. . .+a0 mit ai ∈K und

an = 1, an−1 =−(a11+a22+. . .+ann) und a0 = (−1)ndetA . Beweis.

• Wir zeigen zun¨achst:

PA(λ) = (λ−a11). . .(λ−ann) +QA(λ),

wobeiQA(λ) ein Polynom vom Grad h¨ochstensn−2 ist. Hierf¨ur verwenden wir vollst¨ andi-ge Induktion nach n:

n = 1 : PA(λ) = det (λ−a11) =λ−a11. Induktionsschritt: Entwicklung nach der ersten Spalte:

PA(λ) = (λ−a11)det

λ−a22 . . . −a2n ... ...

−an2 . . . λ−ann

+

n

X

j=2

(−1)j+1aj1det (λEn−A)Str1j

| {z }

Polynom der Ordnung≤n−2

= (λ−a11)PAStr

11 (λ) +O(n−2),

wobeiO(n−2) ein Polynom der Ordnung h¨ochstensn−2 ist. Hieraus folgt die Behauptung.

• Wir entwickeln daher

PA(λ) = (λ−a11). . .(λ−ann) +QA(λ)

n

n

X

i=1

aiiλn−1+. . .

woraus die Formeln f¨ur die Koeffizienten an und an−1 des charakteristischen Polynoms folgen.

• Schließlich beachten wir

a0 =PA(0) = det (0·idV −A) = (−1)ndetA .

Definition 5.1.10 Die Abbildung

Tr : M(n×n, K)→K A7→

n

X

i=1

aii heißt Spur (englisch: trace).

Bemerkungen 5.1.11.

1. ¨Ahnliche Matrizen haben nach Bemerkung 5.1.8.2 dasselbe charakteristische Polynom, also insbesondere dieselbe Spur. F¨ur Φ∈EndK(V) heißt

Tr Φ = Tr MBB(Φ)

die Spur des Endomorphismus Φ. Sie h¨angt nicht von der Wahl der geordneten Basis B von V ab.

2. Die Spur ist eine K–lineare Abbildung von M(n×n, K) mit Werten in K.

3. Es gilt f¨ur A∈M(n×m, K) undB ∈M(m×n, K) TrAB=

n

X

i=1

(AB)ii=

n

X

i=1 m

X

j=1

aijbji =

m

X

j=1 n

X

i=1

bjiaij

=

m

X

j=1

(BA)jj = TrBA .

Oft wird dies als zyklische Invarianz der Spur formuliert: es gilt TrA1·A2·. . .·An = TrAn·A1·. . .·An−1 .

4. Eine diagonalisierbare Matrix kann durch die folgenden Schritte diagonalisiert werden:

(a) Berechne das charakteristische PolynomPA(λ) und bestimme seine Nullstellen.

(b) Zu jedem Eigenwert λ bestimme den Eigenraum:

x∈Eig(A, λ) = ker(λEn−A)⇔(λEn−A)x= 0.

Dieses lineare Gleichungssystem von n Gleichungen in n Unbestimmten kann zum Beispiel mit dem Gauß’schen Algorithmus gel¨ost werden.

(c) W¨ahle Basen der Eigenr¨aume, die zusammen eine Basis (v1, . . . , vn) von Kn bilden.

Setze

S−1 := (v1, . . . , vn).

Dann ist SAS−1 eine Diagonalmatrix, denn es gilt f¨ur den i-ten Vektor der Stan-dardbasis

SAS−1ei =SAviiSviiei . 5. Beispiel: Spiegelungen des R2 an einer Ursprungsgeraden:

A=

cos 2θ sin 2θ sin 2θ −cos 2θ

(a)

PA(λ) = (λ−cos 2θ)(λ+ cos 2θ)−sin22θ =λ2−1 Die beiden Eigenwerte sind λ1,2 =±1.

(b) Eigenr¨aume sind

Man beachte, dass der Eigenraum zum Eigenwert +1 die Spiegelachse ist und der Eigenraum zum Eigenwert−1 senkrecht bez¨uglich des euklidischen Standardskalar-produkts auf R2 auf der Spiegelachse steht.

(c) Wir erhalten

7. Als Beispiel bestrachten wir die MatrixA = 1 1

0 1

. Ihr charakteristisches Polynom ist PA(λ) = det

λ−1 −1 0 λ−1

= (λ−1)2 . Also hat A nur den Eigenwert 1. Die Eigenvektoren bestimmen wir zu

x∈Eig(A,1)⇔

0 −1 0 0

x= 0 ⇔x2 = 0.

Somit ist Eig(A,1) = spanKe1 nur eindimensional. Die Matrix A ist also nicht diagonali-sierbar!