Wir wissen schon aus Lemma 4.2.3, dass eine quadratische Matrix von maximalem Rang da-durch charakterisiert werden kann, dass sie nicht-verschwindende Determinante hat. Man kann auch einen nicht-maximalen Rang durch die Berechnung von Determinanten bestimmen. Hierf¨ur betrachten wir nicht nur quadratische Matrizen.
Definition 4.5.1
Ist A ∈ M(m×n, K) und k ≤ min(m, n), so heißt eine k×k-Matrix A0, die durch Streichen von m−k Zeilen und n−k Spalten ausA hervorgeht, eine k-reihige Untermatrix von A. Ihre Determinante detA0 heißt ein k-reihiger Minor der Matrix A.
Satz 4.5.2.
Sei A∈M(m×n, K) und r∈N. Dann sind die folgenden Bedingungen ¨aquivalent:
(i) r = rg (A).
(ii) Es gibt einen r-reihigen Minor ungleich Null, und f¨ur k > r ist jeder k-reihige Minor gleich Null.
Beweis.
Wir zeigen zum Beweis, dass die folgenden beiden Bedingungen ¨aquivalent sind:
(a) rg (A)≥k
(b) Es gibt eine k-reihige UntermatrixA0 von A mit detA0 6= 0.
Wir zeigen (b)⇒(a): aus detA0 6= 0 folgt Lemma 4.2.3 rg (A0) =k, und daraus rg (A)≥k, da der Rang einer Untermatrix durch den Rang der Matrix nach oben beschr¨ankt ist. Denn die lineare Abh¨angigkeit von Zeilen (oder Spalten) der Matrix impliziert, dass auch die entspre-chenden Zeilen (oder Spalten) der Untermatrix linear abh¨angig sind.
Um (a)⇒ (b) zu sehen, beachten wir, dass es wegen rg (A)≥k sicherk linear unabh¨angige Zeilenvektoren vonAgibt. Wir w¨ahlenk solche Zeilen aus; f¨ur die dadurch erhaltene rechtecki-ge Matrix ist nach Satz 3.7.13 der Zeilenrang gleich dem Spaltenrang. Wir finden also k linear unabh¨angige Spalten dieser Untermatrix, die wir ausw¨ahlen, so dass wir eine k×k-Teilmatrix A0 erhalten, die maximalen Rang k und somit nach Lemma 4.2.3 nicht-verschwindende
Determinante hat.
Wir beweisen schließlich noch eine Verallgemeinerung des Multiplikationssatzes 4.2.12 f¨ur Determinanten. Daf¨ur dr¨ucken wir wir A ∈ M(m × n, K) durch die n Spaltenvektoren a1, a2, . . . , an ∈ Km aus, A = (a1. . . . , an). Wir schreiben Ak1,...,km = (ak1, . . . akm) f¨ur die m-reihige Untermatrix, deren erster Spaltenvektor derk1-te Spaltenvektor von A ist, usw.
Satz 4.5.3 (Verallgemeinerter Determinantenmultiplikationssatz).
Sei m≤n; dann gilt f¨ur alle Matrizen A, B ∈M(m×n, K) det (ABt) = X
1≤k1<...<km≤n
det (Ak1,...,km)·det (Bk1,...,km).
Beweis.
• Behauptung: Die Aussage gilt f¨ur den Fall, wenn die Zeilenvektoren vonA Transponierte der Elemente der Standardbasis von Kn sind:
A= gleich signσ. Andererseits gilt mit Spaltenvektoren bi von B
A·Bt =
Die Determinante dieses Produkts ist nur dann ungleich Null, wenn die Indizes paarweise verschieden sind. Dann gibt es eine Permutation σ∈Sm mit ji =kσ(i), und es gilt
detABt= signσ·detBk1,...,km .
• Gilt die Aussage f¨ur eine MatrixAund entsteht die Matrix ˜AausAdurch Multiplikation der i-ten Zeile mit λ ∈ K, so gilt die Aussage auch f¨ur ˜A, denn der Wert beider Seiten der Gleichung muss mit λ multipliziert werden.
• Aus der Linearit¨at der Determinantenfunktion folgt ebenso: gilt die Aussage f¨ur eine MatrixA mit i-tem Zeilenvektor (ai)t und eine Matrix ˜A, die sich von A nur in der i-ten Zeile darin unterscheidet, dass der Spaltenvektor gleich (˜ai)t ist, so gilt sie auch f¨ur die Matrix A+ ˜A.
• Man kann jede beliebige Matrix A nun mit Hilfe der vorangehenden Schritte aufbauen:
fixiere beliebigej2, . . . jm ∈ {1, . . . , n}. W¨ahleλj1 =a1j1, so folgt die Aussage f¨ur Matrizen
Nun halte den Zeilenvektor (a1)t fest und lassej2 von 1 bisnlaufen. Es folgt die Behaup-tung f¨ur Matrizen der Form
A1 :=
Nach m solchen Schritten erh¨alt man die Behauptung f¨ur die Matrix A.
Bemerkungen 4.5.4.
1. Der Fallm > n braucht keine Formell: es ist rgA ≤n und rgB = rgBt≤n, somit rg (ABt)≤min{rgA,rgB} ≤n < m
Damit ist der Rang von ABt nicht maximal. Es gilt im Fall m > n immer detABt= 0.
2. Man beachte, dass es im Fal m≤n genau n
m
m-reihige Minoren gibt. Insbesondere hat f¨ur m = n, also f¨ur quadratische Matrizen, die Summe nur einen Term, und wir erhalten einen neuen Beweis des Multiplikationssatzes 4.2.12 f¨ur Determinanten.
3. Insbesondere gilt f¨ur jedes A∈M(m×n, K) mit m≤n det (AAt) = X
1≤k1<...<km≤n
det (Ak1,...,km)2 .
Man nennt det (AAt) eine Gramsche Determinante. Sie ist f¨ur Matrizen mit reellen Ein-tr¨agen als Summe von Quadraten reeler Zahlen nicht-negativ. Sie ist genau dann gleich Null, wenn rgA < m. Denn rgA < m≤n ist nach Satz 4.5.2 ¨aquivalent dazu, dass jeder m-reihige Minor gleich Null ist, was zu det (AAt) = 0 ¨aquivalent ist.
5 Eigenwerte
5.1 Definitionen
Die Klassen ¨aquivalenter m × n Matrizen kennen wir aus Bemerkung 3.7.8.4: jede Matrix A∈M(m×n, K) ist ¨aquivalent zu genau einer Matrix der Form
Er ... 0 . . . .
0 ... 0
mit r = rg (A).
Dies erlaubt es uns, durch Wahl geeigneter Basen f¨ur V und f¨ur W eine besonders einfache Beschreibung einer gegebenen linearen Abbildung Φ : V →W mit dimV =n und dimW =m zu finden.
Wir wollen in diesem Kapitel die Grundlagen f¨ur eine Beschreibung der ¨Ahnlichkeitsklassen quadratischer Matrizen legen. Dies geht Hand in Hand mit dem Verst¨andnis der Frage, auf wel-che Form die darstellende Matrix eines Endomorphismus durch geschickte Basiswahl gebracht werden kann. Entsprechend werden wir ab sofort frei zwischen der Sprache der (quadratischen) Matrizen und der linearen (Selbst-)Abbildungen wechseln.
Definition 5.1.1 Sei K ein K¨orper.
1. Sei V ein K–Vektorraum und Φ : V → V ein Endomorphismus. Ein Element λ ∈ K heißt Eigenwert von Φ, falls es einv ∈V \ {0}gibt, so dass Φ(v) =λv gilt. Dann heißt v Eigenvektor von Φ zum Eigenwert λ.
2. SeiA∈M(n×n, K). Ein Elementλ∈K heißt Eigenwert vonA, falls es einv ∈Kn\ {0}
gibt mit A·v =λv. Dann heißt v Eigenvektor von A zum Eigenwert λ.
3. Ein Endomorphismus Φ : V → V heißt diagonalisierbar, falls es eine Basis B von V gibt, die nur aus Eigenvektoren von Φ besteht. Dann ist die darstellende Matrix MBB(Φ) bez¨uglich jeder Ordnung dieser Basis B eine Diagonalmatrix.
Satz 5.1.2.
Sei Φ : V → V ein Endomorphismus. Seien v1, . . . , vm Eigenvektoren von Φ zu paarweise verschiedenen Eigenwerten λ1, . . . , λm. Dann ist die Familie (v1, . . . , vm) linear unabh¨angig.
Beweis.
Wir benutzen vollst¨andige Induktion nach m. F¨ur m = 1 ist v1 6= 0 per Definition eines Eigenvektors klar. Gelte
0 =
m
X
i=1
αivi mit αi ∈K . (∗) Es folgt
0 = Φ(0) =
m
X
i=1
αiΦ(vi) =
m
X
i=1
αiλivi .
Die Multiplikation von (∗) mit λ1 liefert:
0 =
m
X
i=1
αiλ1vi .
Die Differenz der Gleichungen ist
m
X
i=2
αi(λi−λ1)vi = 0.
Nach Induktionsannahme ist die Familie (v2, . . . , vm) linear unabh¨angig, also αi(λi−λ1) = 0 f¨ur alle i = 2, . . . , m. Wegen λi 6=λ1 folgt α2 = α3 =. . . =αm = 0. Da v1 6= 0 ist, folgt auch
α1 = 0.
Korollar 5.1.3.
1. Istn := dimKV <∞, so hat jeder Endomorphismus Φ : V →V h¨ochstensnverschiedene Eigenwerte.
2. Istn:= dimKV <∞und hat Φ genau n verschiedene Eigenwerte, so ist Φ diagonalisier-bar.
Beweis.
1. ist klar, weil jede Familie von mehr als n Vektoren linear abh¨angig ist.
2. W¨ahle zu jedem Eigenwert λi einen Eigenvektor vi. Die Familie (vi)i=1...n ist nach Satz 5.1.2 linear unabh¨angig und wegen dimKV =n eine Basis.
Definition 5.1.4
Φ : V →V ein Endomorphismus eines K–Vektorraums V. F¨urλ ∈K heißt Eig(Φ, λ) := {v ∈V|Φ(v) =λv}
der Eigenraum von Φzum Wert λ.
Bemerkungen 5.1.5.
1. Die Menge Eig(Φ, λ)\ {0}besteht aus den Eigenvektoren zum Eigenwertλ. Ein Element λ∈K ist also genau dann Eigenwert, wenn Eig(Φ, λ)6={0}.
2. Eig(Φ, λ) = ker(λidV −Φ), denn Φ(v) = λv genau dann, wenn (λidV −Φ)v = 0. Insbe-sondere ist Eig(Φ, λ) als Kern ein Untervektorraum vonV.
3. Aus λ1 6= λ2 folgt Eig(Φ, λ1)∩Eig(Φ, λ2) = {0}. Denn f¨ur v ∈ Eig(Φ, λ1 ∩Eig(Φ, λ2)) folgt
λ1v = Φ(v) = λ2v , also (λ1 −λ2)v = 0, woraus v = 0 wegen λ1 6=λ2 folgt.
4. Aus 2. folgt sofort: λ ist genau dann Eigenwert, wenn die Abbildung λ·idV −Φ nicht bijektiv ist. Dies ist genau dann der Fall, wenn
det (λidV −Φ) = 0 gilt.
Definition 5.1.6 Ist
µgeo(Φ, λ) := dimKEig(Φ, λ)
nicht verschwindend, so heißt µgeo geometrische Vielfachheit des Eigenwerts λ.
Definition 5.1.7 Die Funktion
PΦ : K →K
λ7→det (λidV −Φ)
heißt das charakteristisches Polynom von Φ. Korrekter w¨are hier die Bezeichnung charakteri-stische Funktion.
Bemerkungen 5.1.8.
1. Die Eigenwerte von Φ sind genau die Nullstellen von PΦ. 2. SeiB eine geordnete Basis von V und
A=MBB(Φ) ∈M(n×n, K). Es ist
MBB(λidV −Φ) =λEn−A , woraus folgt:
PΦ(λ) = det (λidV −Φ) = det (λEn−A) =:PA(λ).
Insbesondere haben ¨ahnliche Matrizen das gleiche charakteristische Polynom, da sie den gleichen Endomorphismus bez¨uglich verschiedener Basen darstellen, vergleiche Bemer-kung 3.7.8.3.
3. Beispiel: Drehungen des R2 um den Ursprung:
A=M(Rθ) =
cosθ −sinθ sinθ cosθ
PA(λ) = det
λ−cosθ sinθ
−sinθ λ−cosθ
=λ2−2 cosθλ+ 1 Die komplexen Nullstellen sind
λ1,2 = cosθ±i sinθ .
Diese sind nur f¨ur θ = 0, π reell. Nur dann gibt es reelle Eigenwerte und auch Eigenvek-toren in R2. Beiθ = 0 handelt es sich um die Identit¨at, alle Vektoren sind Eigenvektoren zum Eigenwert 1; bei θ = π handelt es sich um die Punktspiegelung am Ursprung, alle Vektoren sind Eigenvektoren zum Eigenwert −1.
Satz 5.1.9.
Sei A∈M(n×n, K). Dann ist PA(λ) eine polynomiale Funktion vom Grad n, PA(λ) =anλn+an−1λn−1+. . .+a0 mit ai ∈K und
an = 1, an−1 =−(a11+a22+. . .+ann) und a0 = (−1)ndetA . Beweis.
• Wir zeigen zun¨achst:
PA(λ) = (λ−a11). . .(λ−ann) +QA(λ),
wobeiQA(λ) ein Polynom vom Grad h¨ochstensn−2 ist. Hierf¨ur verwenden wir vollst¨ andi-ge Induktion nach n:
n = 1 : PA(λ) = det (λ−a11) =λ−a11. Induktionsschritt: Entwicklung nach der ersten Spalte:
PA(λ) = (λ−a11)det
λ−a22 . . . −a2n ... ...
−an2 . . . λ−ann
+
n
X
j=2
(−1)j+1aj1det (λEn−A)Str1j
| {z }
Polynom der Ordnung≤n−2
= (λ−a11)PAStr
11 (λ) +O(n−2),
wobeiO(n−2) ein Polynom der Ordnung h¨ochstensn−2 ist. Hieraus folgt die Behauptung.
• Wir entwickeln daher
PA(λ) = (λ−a11). . .(λ−ann) +QA(λ)
=λn−
n
X
i=1
aiiλn−1+. . .
woraus die Formeln f¨ur die Koeffizienten an und an−1 des charakteristischen Polynoms folgen.
• Schließlich beachten wir
a0 =PA(0) = det (0·idV −A) = (−1)ndetA .
Definition 5.1.10 Die Abbildung
Tr : M(n×n, K)→K A7→
n
X
i=1
aii heißt Spur (englisch: trace).
Bemerkungen 5.1.11.
1. ¨Ahnliche Matrizen haben nach Bemerkung 5.1.8.2 dasselbe charakteristische Polynom, also insbesondere dieselbe Spur. F¨ur Φ∈EndK(V) heißt
Tr Φ = Tr MBB(Φ)
die Spur des Endomorphismus Φ. Sie h¨angt nicht von der Wahl der geordneten Basis B von V ab.
2. Die Spur ist eine K–lineare Abbildung von M(n×n, K) mit Werten in K.
3. Es gilt f¨ur A∈M(n×m, K) undB ∈M(m×n, K) TrAB=
n
X
i=1
(AB)ii=
n
X
i=1 m
X
j=1
aijbji =
m
X
j=1 n
X
i=1
bjiaij
=
m
X
j=1
(BA)jj = TrBA .
Oft wird dies als zyklische Invarianz der Spur formuliert: es gilt TrA1·A2·. . .·An = TrAn·A1·. . .·An−1 .
4. Eine diagonalisierbare Matrix kann durch die folgenden Schritte diagonalisiert werden:
(a) Berechne das charakteristische PolynomPA(λ) und bestimme seine Nullstellen.
(b) Zu jedem Eigenwert λ bestimme den Eigenraum:
x∈Eig(A, λ) = ker(λEn−A)⇔(λEn−A)x= 0.
Dieses lineare Gleichungssystem von n Gleichungen in n Unbestimmten kann zum Beispiel mit dem Gauß’schen Algorithmus gel¨ost werden.
(c) W¨ahle Basen der Eigenr¨aume, die zusammen eine Basis (v1, . . . , vn) von Kn bilden.
Setze
S−1 := (v1, . . . , vn).
Dann ist SAS−1 eine Diagonalmatrix, denn es gilt f¨ur den i-ten Vektor der Stan-dardbasis
SAS−1ei =SAvi =λiSvi =λiei . 5. Beispiel: Spiegelungen des R2 an einer Ursprungsgeraden:
A=
cos 2θ sin 2θ sin 2θ −cos 2θ
(a)
PA(λ) = (λ−cos 2θ)(λ+ cos 2θ)−sin22θ =λ2−1 Die beiden Eigenwerte sind λ1,2 =±1.
(b) Eigenr¨aume sind
Man beachte, dass der Eigenraum zum Eigenwert +1 die Spiegelachse ist und der Eigenraum zum Eigenwert−1 senkrecht bez¨uglich des euklidischen Standardskalar-produkts auf R2 auf der Spiegelachse steht.
(c) Wir erhalten
7. Als Beispiel bestrachten wir die MatrixA = 1 1
0 1
. Ihr charakteristisches Polynom ist PA(λ) = det
λ−1 −1 0 λ−1
= (λ−1)2 . Also hat A nur den Eigenwert 1. Die Eigenvektoren bestimmen wir zu
x∈Eig(A,1)⇔
0 −1 0 0
x= 0 ⇔x2 = 0.
Somit ist Eig(A,1) = spanKe1 nur eindimensional. Die Matrix A ist also nicht diagonali-sierbar!