Dr. Mario Helm
Institut für Numerische Mathematik und Optimierung Fakultät für Mathematik und Informatik
Höhere Mathematik II
für naturwissenschaftliche Studiengänge
Sommersemester 2013
7 Lineare Algebra II
7.1 Wiederholung einiger Begriffe
In Kapitel 6 hatten wir uns mit Vektorräumen beschäftigt. Unser Standardbeispiel war derKn (mitK=RoderC).
Auch hier werden wir fast ausschließlich mitRn undCn arbeiten.
Folgende Begriffe spielen wieder eine zentrale Rolle, und sollen daher kurz wiederholt werden:
Linearkombinationen und Unterräume, Basis und Dimension,
lineare Abbildungen, Orthogonalität.
Lineare Algebra II TU Bergakademie Freiberg 460
Linearkombination und Unterraum
Zu gegebenen Vektoren~v1, . . . , ~vk∈Kn und Zahlenλ1, . . . , λkheißt
~v= Xk i=1
λi~vi
eineLinearkombinationder Vektoren~v1, . . . , ~vk.
Die Menge aller Linearkombinationen von~v1, . . . , ~vk∈Kn heißt der von
~v1, . . . , ~vkaufgespannteUnterraumU vonKn. Schreibweise:U =span(~v1, . . . , ~vk)
(Anmerkung: “Menge aller Linearkombinationen“ meint, dass die~vi’s fest sind, aber dieλi’s variabel gewählt werden können.)
Lineare Unabhängigkeit, Basis und Dimension
Die Vektoren~v1, . . . , ~vkheißenlinear unabhängig, wenn aus Pk
i=1λi~vi=~0stetsλ1=λ2=. . .=λk= 0folgt.
Andernfalls nennt man sie linear abhängig.
Lineare Unahängigkeit bedeutet, dass sich keiner der Vektoren als Linearkombination der anderen schreiben lässt.
Die maximale Anzahl linear unabhängiger Vektoren, die man in einem UnterraumU⊂Kn finden kann, heißtDimensionvonU (dim(U)).
Eine solche maximale Menge linear unabhängiger Vektoren heißt BasisvonU. Jede Basis von U enthält genaudim(U)Vektoren.
Lineare Algebra II TU Bergakademie Freiberg 462
Beispiel: Unterräume desR3
ImR3 haben die Unterräume folgende Struktur:
Es gibt genau einen0-dimensionalen Unterraum; dieser besteht nur aus dem Ursprung~0.
Die eindimensionalen Unterräume sind die Geraden durch den Ursprung.
Die zweidimensionalen Unterräume sind die Ebenen durch den Ursprung.
Es gibt genau einen3-dimensionalen Unterraum; dieser ist derR3 selbst.
Achtung: Im allgemeinen sind Geraden und Ebenen jedoch keine Unterräume desR3, sondern lediglich verschobene Versionen davon!
Lineare Algebra II TU Bergakademie Freiberg 463
Koordinaten bezüglich einer Basis
IstB={~b1, . . . ,~bn}eine Basis desRn, so existieren zu jedem Vektor
~x∈Rn eindeutig bestimmte Zahlenλ1, . . . , λn mit
~x=λ1~b1+λ2~b2+. . .+λn~bn.
Die Zahlenλi(i= 1, . . . , n)heißenKoordinatenvon~xbezüglich der BasisB.
Die Vektoren √12[11]und √12 1
−1
bilden eine BasisBdesR2. (Warum?)
Wie lauten die Koordinaten von~x=h√
2 0
ibezüglich dieser Basis?
Lineare Abbildungen
Eine Abbildungf~:Rm→Rnheißtlinear, wenn
f(~x~ +~y) =f(~x) +~ f(~y)~ und f~(λ~x) =λ ~f(~x) (1) für alle~x, ~y∈Rmund alleλ∈Rgilt.
Die beiden Beziehungen aus (1) kann man auch in einer Gleichung zusammenfassen:
f(λ~x~ +~y) =λ ~f(~x) +f~(~y). (2)
Machen Sie sich klar, warum.
Lineare Algebra II TU Bergakademie Freiberg 465
Darstellung als Matrix-Vektor-Multiplikation
Matrix-Vektor-Multiplikationen sind lineare Abbildungen (bei fester Matrix und variablem Vektor).
Umgekehrt lässt sich jede lineare Abbildungf~:Rm→Rn als Matrix-Vektor-Multiplikation schreiben:
f(~x) =~ A~x. (3)
Dabei ist die MatrixA∈Rn×m eindeutig bestimmt. Ihre Spalten sind gerade die Bilderf(~e~ 1), . . . , ~f(~em)der Einheitsvektoren desRm.
Lineare Algebra II TU Bergakademie Freiberg 466
Wiederholen Sie die bei Bedarf die Gesetzmäßigkeiten der Matrizenmultiplikation (HM 1, Kap. 6.2, S. 366 ff).
Rechnen Sie die Beziehungen (1) bzw. (2) für Funktionen des Typs f(~x) =~ A~xnach.
Wie lautet die Abbildungsmatrix zur linearen Abbildungf~:R3→R2 mit
f(~e~ 1) = 3
4
, ~f(~e2) = 7
−1
und f(~e~ 3) = 0
1
?
Warum ist eine lineare Abbildungf~:Rm→Rndurch die Bilder der Einheitsvektoren eindeutig bestimmt? Kann man auch die Bilderm beliebiger linear unabhängiger Vektoren verwenden?
Skalarprodukt und Orthogonalität
AufKn (mitK=RoderC) kann man einSkalarproduktdefinieren mittels
h~x, ~yi=~xT~yfür~x, ~y∈Rn, h~x, ~yi=~xH~yfür~x, ~y∈Cn.
Zwei Vektoren heißenorthogonalodersenkrechtwenn ihr Skalarprodukt null ist.
DieNorm(Länge) ergibt sich aus dem Skalarprodukt über
k~xk=p
h~x, ~xi (=
vu utXn
i=1
x2i für x∈Rn).
Lineare Algebra II TU Bergakademie Freiberg 468
Projektion und Winkelmessung
Das Skalarprodukt zweier Vektoren~x, ~y∈Rnkann desweiteren über den Kosinus des eingeschlossenen Winkelsϕdargestellt werden:
~xT~y=k~xk k~ykcosϕ.
Interpretiert man diese Formel an folgender Skizze,
~0
~y
k~xk ~x k~yk
k~ykcosϕ ϕ
so sieht man, dass das Skalarprodukt gleich der (vorzeichenbehafteten) Länge der orthogonalen Projektion von~yauf~x, multipliziert mit der Länge von~x, ist.
Lineare Algebra II TU Bergakademie Freiberg 469
Orthonormalbasen
Eine BasisB={~b1,~b2, . . . ,~bn}desRn heißtOrthonormalbasis(ONB), wenn alle Basisvektoren die Länge1haben und paarweise aufeinander senkrecht stehen, in Formeln:
~bjT~bi=
(1, füri=j, 0, füri6=j.
Die Koordinaten eines Vektors~xbezüglich einer ONB entsprechen gerade den Orthogonalprojektionen auf die Basisvektoren:
~x=
~bT1~x
~b1+
~bT2~x
~b2+. . .+
~bTn~x
~bn.
Bearbeiten Sie die Aufgabe auf Seite 464 unter diesem Aspekt erneut.
7.2 Spiegelungen, Drehungen, orthogonale Abbildungen Eine große Klasse linearer Abbildungen sind die orthogonalen Abbildungen.
Sie spielen insbesondere bei geometrischen Transformationen eine Rolle und zeichnen sich durch die Eigenschaft aus, Längen und Winkel unverändert zu lassen.
So lassen sich zum Beispiel Drehungen und Spiegelungen häufig mit orthogonalen Abbildungen mathematisch beschreiben.
Lineare Algebra II TU Bergakademie Freiberg 471
Drehungen desR2mit Winkelαund Zentrum in~0sind zunächstlineare Abbildungen, wie an folgenden Skizzen deutlich wird:
α λ~x
~ ~x f(~x) f(λ~x) =~ λ ~f(~x)
α ~x
f(~x)~
~y
~x+~y f(~x~ +~y) =f(~x) +~ f(~y)~
f(~y)~
Lineare Algebra II TU Bergakademie Freiberg 472
Zeichnen Sie eine analoge Skizze für Spiegelungen desR2an einer Geraden durch~0.
Natürlich lässt sich dieses geometrische Argument analog auf Drehungen und auf Spiegelungen an Ebenen imR3anwenden.
Sowohl Drehungen um den Ursprung als auch Spiegelungen an einer Geraden (Ebene) durch den Ursprung können also als
Matrix-Vektor-Multiplikationen beschrieben werden.
Wir begeben uns auf die Suche nach den Abbildungsmatrizen zu diesen Abbildungen.
Drehungen um den Ursprung imR2
Die Spalten der gesuchten Abbildungsmatrix sind gerade die Bilder der Einheitsvektoren unter der Drehung.
α
~e1
f(~e~ 1)
~e2
f(~e~ 2)
1 1
α
Es giltf(~e~ 1) = [cossinαα]undf(~e~ 2) = [−cossinαα]. Damit ist die gesuchte Abbildungsmatrix
Dα=
cosα −sinα sinα cosα
.
Lineare Algebra II TU Bergakademie Freiberg 474
Die MatrixDαist invertierbar, denn
detDα= cos2α+ sin2α= 1.
Ihre Inverse realisiert gerade die Drehung um−α, d. h.
D−α1=D−α=
cos(−α) −sin(−α) sin(−α) cos(−α)
=
cosα sinα
−sinα cosα
FürDαgilt also die bemerkenswerte Beziehung D−α1=DTα.
Berechnen Sie Drehmatrix für eine Drehung um den Ursprung mit α= 30◦. Geben Sie das Bild des Vektors[2,3]T an.
Wiederholen Sie bei Bedarf die Begriffe Inverse, Invertierbarkeit und Determinante aus HM1, Kap. 6.4 und 6.5.
Lineare Algebra II TU Bergakademie Freiberg 475
Drehungen im Raum
Drehungen imR3werden durch eine Drehachse (die den Ursprung enthält) und einen Drehwinkelαfestgelegt.
Die Drehachse wird dabei durch einen Vektord~festgelegt, der in die positive Achsenrichtung zeigt.
d~
~x f(~x)~ α
~0
Besonders einfach wird die Angabe der Drehmatrizen, wenn man die Einheitsvektoren (also die Koordinatenachsen) als Drehachsen verwendet:
Dx,α=
1 0 0 0 cosα −sinα 0 sinα cosα
, Dy,α=
cosα 0 sinα
0 1 0
−sinα 0 cosα
, Dz,α=
cosα −sinα 0 sinα cosα 0
0 0 1
.
Jede beliebige Drehung imR3 lässt sich als Komposition von Drehungen um die Koordinatenachsen schreiben.
Physiker sprechen daher häufig von drei möglichen Freiheitsgraden der Rotation.
Machen Sie sich an einem der obigen Beispiele klar, dass die angegebene Matrix die gewünschte Transformation realisiert.
Berechnen Sie dazu das ProduktD~xfür die gewählte DrehmatrixD.
Lineare Algebra II TU Bergakademie Freiberg 477
Exkurs: allgemeine Drehmatrix
Natürlich kann man auch im allgemeinen Fall die Drehmatrix angeben.
Bei vorgegebenem Achsvektord~(mitkd~k= 1) und Winkelαlautet diese
cosα+ (1−cosα)d21 (1−cosα)d1d2−d3sinα (1−cosα)d1d3+d2sinα (1−cosα)d1d2+d3sinα cosα+ (1−cosα)d22 (1−cosα)d2d3−d1sinα (1−cosα)d1d3−d2sinα (1−cosα)d2d3+d1sinα cosα+ (1−cosα)d23
Eine explizite Abbildungsvorschrift ist gegeben durch
f(~x) = cos~ α ~x+ (1−cosα)(~xTd)~ d~+ sin(α)(d~×~x).
Dies alles schaut man bei Bedarf aber am besten in der Literatur nach.
Lineare Algebra II TU Bergakademie Freiberg 478
Spiegelungen in der Ebene
Wir betrachten zunächst Spiegelungen imR2 an einer Geraden durch~0 senkrecht zum Vektor~n. Dabei sei~nauf Länge1normiert (k~nk= 1).
Wir lesen das Spiegelbildf(x)~ von~xaus folgender Skizze ab:
~n
~x f~(~x)
f(x) =~ ~x−2(~nT~x)~n Beachten Sie dabei, dass wegen der Normierung von~ndie Länge der Projektion von~xauf~ngerade~nT~xist.
Es gilt also
f(x) =~ ~x−2(~nT~x)~n
=~x−2~n(~nT~x)
=~x−2(~n~nT)~x,
d. h. die Spiegelung wird durch Multiplikation mit der Matrix S~n=I−2~n~nT =
1−2n21 −2n1n2
−2n1n2 1−2n22
=
n22−n21 −2n1n2
−2n1n2 n21−n22
beschrieben (beachten21+n22= 1).
Geben Sie die Spiegelungsmatrix für die Spiegelung an der Geraden x2=−x1an. Multiplizieren Sie diese Matrix mit einem Vektor~x.
Kann man das Ergebnis auch rein geometrisch begründen?
Lineare Algebra II TU Bergakademie Freiberg 480
Spiegelungen im Raum
Bei Spiegelungen imR3 verwendet man statt der Spiegelachse eine Spiegelebene durch den Ursprung, welche ganz analog durch den Normalenvektor~nfestgelegt ist (k~nk= 1).
Die Spiegelungsmatrix besitzt jetzt drei Zeilen und Spalten, allerdings die gleiche Struktur:
S~n=I−2~n~nT.
Zeichnen Sie eine geeignete Skizze, in welcher die Analogie sichtbar wird. Wie lautet die MatrixS~nin ausgeschriebener Form?
Lineare Algebra II TU Bergakademie Freiberg 481
Orthogonale Abbildungen
Drehungen und Spiegelungen gehören zur Klasse der orthogonalen linearen Abbildungen, die sich auch für höhere Dimensionen erklären lassen:
Definition 7.1.
Eine MatrixU∈Rn×nheißtorthogonal, wenn sie das Innenprodukt nicht verändert, d. h.
(U ~y)T(U~x) =~yT~x für alle ~x, ~y∈Rn. Insbesondere ist eine orthogonale Matrix
längenerhaltend, d. h.kU~xk=k~xkfür alle~xund winkeltreu, d. h.](U~x, U~y) =](~x, ~y)für alle~x, ~y.
Satz 7.2 (Charakterisierung orthogonaler Matrizen).
SeiU ∈Rn×n. Die folgenden Aussagen sind äquivalent:
U ist orthogonal.
Die Spalten (Zeilen) vonU bilden eine Orthonormalbasis desRn. U ist invertierbar mitU−1=UT.
Machen Sie sich klar, warum aus Punkt 1 Punkt 2 und daraus wiederum Punkt 3 folgt.
Bestätigen Sie mit Punkt 3, dass die 2D-Spiegelungsmatrix S=I−2~n~nT orthogonal ist.
Lineare Algebra II TU Bergakademie Freiberg 483
Exkurs: Unitäre Abbildungen
Die Entsprechung zu orthogonalen Matrizen imCnsindunitäre Matrizen. Auch hier verwendet man das unveränderte Skalarprodukt zur Begriffsfestlegung.
Dabei muss natürlich statt~yT~ximmer das komplexe Skalarprodukt~yH~x verwendet werden.
Die Aussagen von Satz 7.2 gelten dann analog – die Beziehung im letzten Punkt lautet dabeiU−1=UH.
Unitäre Abbildungen werden Ihnen möglicherweise in der Quantenmechanik begegnen.
Lineare Algebra II TU Bergakademie Freiberg 484
7.3 Eigenwerte und Eigenvektoren Motivation: Resonanzphänomene
Wir betrachten ein Flugzeug, das auf einer holprigen Piste landet.
Modell des Flugzeugs:
drei Massen:m1 (Rumpf und Motor);m2, m3(Flügel), drei Steifigkeiten (k1, k2, k3) für die “federnde“ Verbindung der Teile.
Die Piste wird durch eine Sinuskurver(t) =r0sin(ω0t)modelliert. Der Rumpf ist dann einer externen Kraft
f1(t) =k1r0sin(ω0t)
ausgesetzt. Die Frequenzω0 hängt von der Landungsgeschwindigkeitv ab.
Situationsskizze
r0
x2 x
x 3 1
1300 kg
300 kg 300 kg
1.7x105 N/m 6x105 N/m 6x105 N/m
Lineare Algebra II TU Bergakademie Freiberg 486
Die mathematische Analyse des Beispiels wird erst am Ende des Semesters gelingen. Wir zeigen hier aber schon die Lösungenx1,2,3(t) [in m] übert[in s] fürv= 120km/h undv= 108km/h:
0 0.5 1 1.5 2 2.5 3 3.5 4
−6
−4
−2 0 2 4
6x 10−6 ω0 = 10, r0 =.2
0 0.5 1 1.5 2 2.5 3 3.5 4
−300
−200
−100 0 100 200 300
ω0 = ω1, r0 =.2
Beachten Sie, dass sich die Amplituden bei den verschiedenen
Landungsgeschwindigkeiten um 7 Größenordnungen(!!!) unterscheiden.
Lineare Algebra II TU Bergakademie Freiberg 487
Im zweiten Fall tritt einResonanzphänomenauf: Wenn die
Anregungsfrequenzω0(nahezu) mit einer derEigenfrequenzenω1,2,3des Flugzeugs übereinstimmt, kommt es zu gefährlich großen Oszillationen.
Die Nichtbeachtung von Eigenfrequenzen und Resonanz kann z. B. bei Brücken oder Hochhäusern katastrophale Auswirkungen haben:
Tacoma Narrows Bridge (WA, 1940).
Bild: Prelinger Archives Weitere Beispiele:
Broughton suspension bridge, Manchester 1831;
Millennium footbridge, London 2000.
Eigenwerte und Eigenvektoren
Um z. B. Resonanzphänomene zu analysieren, benötigt man die folgenden Begriffe:
Definition 7.3.
SeiA∈Rn×n (oderCn×n). Eine Zahlλ∈CheißtEigenwertvon A, wenn es einen Vektor~v∈Cn, ~v6=~0, gibt, so dass
A~v=λ~v. (4)
Jeder Vektor~v∈Cn\ {~0}, der (4) erfüllt, heißtEigenvektorvon A zum Eigenwertλ.
Achtung: Auch wenn wir nur reelle Matrizen betrachten: bei Eigen- werten und Eigenvektoren lässt man immer auch komplexe Zahlen zu!
Lineare Algebra II TU Bergakademie Freiberg 489
Geometrische Interpretation
Die Richtung eines Eigenvektors wird durch die lineare AbbildungA nicht verändert – der Eigenvektor wird lediglich gestreckt.
Das rechte Bild entsteht z. B. aus dem linken durch eine “Scherung“ der Leinwand.
Bild: Wikimedia Commons
Der rote Vektor bleibt unverändert und ist damit ein Eigenvektor zum Eigenwert 1. Der blaue Vektor ändert hingegen seine Richtung und ist daher kein Eigenvektor der Scherungsabbildung.
Lineare Algebra II TU Bergakademie Freiberg 490
Welche reellen Eigenwerte besitzt eine Drehung im Raum um die x1−Achse, und welcher reelle Eigenvektor kommt in Frage?
Wie verhält es sich mit einer Spiegelung in der Ebene an einer Geraden durch0und senkrecht zu~n?
Argumentieren Sie rein geometrisch!
Bestätigen Sie, dassλ= 1Eigenwert vonA= 5 −8
−1 3
mit zugehörigem Eigenvektor~v= [2,1]T ist.
Zeigen Sie, dass jedes komplexe Vielfache des Vektors[1, i]T ein Eigenvektor vonB= 0 1
−1 0
zum Eigenwertλ=iist.
Formulieren Sie eine allgemeingültige Aussage und bestätigen Sie diese durch Einsetzen in (4).
Anmerkung: Bislang wissen wir weder, wie man EW und EV berechnet, noch ob in den Beispielen alle EW und EV erfasst wurden.
Berechnung von Eigenwerten
Wir benutzen zur Herleitung der Formel für die Eigenwertberechnung folgende Äquivalenzkette:
λ∈Cist Eigenwert vonA∈Rn×n. . .
⇔ Es gibt einen Vektor~v6=~0mitA~v=λ~v.
⇔ Ein Vektor~v6=~0löst das homogene LGS(A−λI)~v=~0.
⇔ det(A−λI) = 0.
Die Eigenwerte sind also gerade die Nullstellen der Funktion cA(λ) := det(A−λI).
Diese Funktion ist ein Polynom vom Gradnund wird das charakteristische PolynomvonAgenannt.
Lineare Algebra II TU Bergakademie Freiberg 492
Satz 7.4.
FürA∈Rn×n ist das charakteristische PolynomcA(λ) = det(A−λI) ein Polynom vom exakten Gradnmit reellen Koeffizienten und Höchstkoeffizienten1oder−1.
Die Eigenwerte vonAsind genau die Nullstellen voncA, also die Lösungen der Gleichung
cA(λ) = det(A−λI)= 0.! (5)
Berechnen Sie sämtliche Eigenwerte der Matrizen A=
5 −8
−1 3
und B=
0 1
−1 0 (vgl. 2. und 3. Kasten auf S. 491).
Lineare Algebra II TU Bergakademie Freiberg 493
Berechnung von Eigenvektoren
SeiλEigenwert der MatrixA. Die zugehörigen Eigenvektoren vonA sind die (nicht-trivialen) Lösungen des homogenen Gleichungssystems
(A−λI)~v=~0. (6)
Zusammen mit~0bilden sie einen Unterraum desCn, den sogenannten EigenraumvonAzum Eigenwertλ,
Eig(A, λ) :={~x∈Cn : A~x=λ~x}
={~x∈Cn : (A−λI)~x=~0}
=N(A−λI)
Berechnen Sie sämtliche Eigenvektoren zu den Eigenwerten der MatrizenAundB von Seite 493.
Vielfachheiten von Eigenwerten Definition 7.5.
Diealgebraische Vielfachheitνalg(λ)eines EigenwertsλvonAist seine Vielfachheit als Nullstelle des charakteristischen PolynomscAvonA.
Diegeometrische Vielfachheitνgeom(λ)eines EigenwertsλvonAist die Dimension des zugehörigen Eigenraumsdim(Eig(A, λ)).
Anmerkung zur Berechnung
Um die algebraischen Vielfachheiten zu bestimmen, muss man nur das charakteristische PolynomcAkennen. Um die geometrische
Vielfachheiten zu berechnen, reicht die Kenntnis voncAallein nicht aus.
Lineare Algebra II TU Bergakademie Freiberg 495
Nach dem Fundamentalsatz der Algebra summieren sich die algebrai- schen Vielfachheiten der Eigenwerte einer MatrixA∈Rn×n zun.
Die Summe der geometrischen Vielfachheiten kann dagegen kleiner sein.
Es gilt folgender Satz:
Satz 7.6.
SeiλEigenwert der MatrixA∈Rn×nmit algebraischer Vielfachheit νalg(λ)und geometrischer Vielfachheitνgeom(λ). Dann gilt:
1≤νgeom(λ)≤νalg(λ)≤n.
Machen Sie sich am Beispiel der Matrix[2 10 2]klar, dass die geometrische Vielfachheit eines Eigenwerts tatsächlich kleiner sein kann als die algebraische.
Lineare Algebra II TU Bergakademie Freiberg 496
Beim Beispiel im Kasten auf S. 496 handelt es sich um einen sogenanntenJordan-Block, d. h. eine Matrix der Form
λ 1
λ 1
... 1 λ
∈Rn×n.
Dieser besitzt nur den Eigenwertλmit geometrischer Vielfachheit1und algebraischer Vielfachheitn.
Bestätigen Sie diese Aussagen. Für die geometrische Vielfachheit nutzen Sie am besten die Beziehung
νgeom(λ) = dim(Eig(A, λ)) =n−rang(A).
Mögliche Konstellationen fürA∈R2×2
Das charakteristische Polynom einer reellen2×2-MatrixAbesitzt die Struktur
cA(x) =x2+px+q (mitp, q∈R).
In Kombination mit Satz 7.6 ergeben sich verschiedene Möglichkeiten für die Eigenwerte. Es existieren
entweder zwei verschiedenereelleEigenwerteλ1undλ2, die geometrische und algebraische Vielfachheit1haben. Zu jedem Eigenwert gibt es reelle Eigenvektoren.
oder zwei verschiedenekonjugiert-komplexeEigenwerteλ1undλ2, die geometrische und algebraische Vielfachheit1haben. Zu jedem Eigenwert gibt es komplexe Eigenvektoren.
(b. w.)
Lineare Algebra II TU Bergakademie Freiberg 498
oder nur einen Eigenwertλ, der dann zwangsläufig reell ist.
Er besitzt die algebraische Vielfachheit2und
entweder die geometrische Vielfachheit 2, d. h. jeder Vektor ausC2 ist Eigenvektor.Abesitzt dann die Form
A=λI=
λ 0
0 λ
oder die geometrische Vielfachheit 1.
Ordnen Sie die Beispiele von S. 493 und S. 496 den entsprechenden Fällen zu.
Führen Sie eine ähnliche Analyse für den3×3-Fall durch. (Auf die Unterscheidung zwischen reellen und komplexen Eigenwerten können Sie dabei verzichten.)
Lineare Algebra II TU Bergakademie Freiberg 499
Eigenschaften von Eigenvektoren
Wir widmen uns nun der Frage, wie groß die Dimension des von den Eigenvektoren einer MatrixA∈Rn×n aufgespannten Unterraums ist.
Insbesondere wollen wir wissen, wann es eine Basis desCnaus Eigenvektoren vonAgibt.
Wir beginnen mit folgendem Satz:
Satz 7.7.
Gehören die Eigenvektoren~v1, . . . , ~vrzuverschiedenenEigenwerten λ1, . . . , λrdern×n-MatrixA, dann sind sie linear unabhängig.
Machen Sie sich dies zumindest für den Fallr= 2klar.
Wenn esnverschiedene Eigenwerte zur MatrixA∈Rn×n gibt, existiert also eine Basis desCn, die nur aus Eigenvektoren vonAbesteht.
Allgemeiner gilt sogar:
Satz 7.8.
SeiA∈Rn×n. Es existiert genau dann eine Basis desCnaus Eigenvektoren vonA, wenn die geometrische und algebraische Vielfachheit für jeden Eigenwert vonAübereinstimmen.
Beispiel
Die MatrixA= 5 −8
−1 3
besitzt die Eigenwerteλ1= 1undλ2= 7mit den Eigenvektoren~v1= [2,1]T und~v2= [−4,1]T (vgl. S. 493 f.). Sie bilden eine Basis desC2(und in diesem Falle auch eine Basis desR2).
Lineare Algebra II TU Bergakademie Freiberg 501
Eigenwerte spezieller Matrizen Satz 7.9.
SeiA∈Rn×n. Dann gelten:
AundAT besitzen dasselbe charakteristische Polynom, also dieselben Eigenwerte (mit i. a. verschiedenen Eigenräumen).
BesitztAden Eigenvektor~xzum Eigenwertλ, dann besitzen αA, Am, A+βIn, p(A) =αmAm+· · ·+α1A+α0In
denselben Eigenvektor~x, allerdings zum Eigenwert αλ, λm, λ+β, p(λ) =αmλm+· · ·+α1λ+α0. Aist genau dann invertierbar, wenn alle Eigenwerte vonAvon0 verschieden sind. Ist dannλein Eigenwert vonAmit Eigenvektor
~x, so istλ−1 ein Eigenwert vonA−1 mit demselben Eigenvektor~x.
Verifizieren Sie einige dieser Aussagen.
Satz 7.10.
Lineare Algebra II TU Bergakademie Freiberg 502
Weiterhin kann man Eigenwerte sehr einfach bestimmen, wennA bestimmte strukturelle Eigenschaften besitzt:
Satz 7.11.
IstAeine (untere oder obere) Dreiecksmatrix, so sind die Hauptdiagonaleinträge vonAgenau die Eigenwerte vonA.
Dies trifft insbesondere dann zu, wennAeine Diagonalmatrix ist. In diesem Fall sind die Einheitsvektoren zugehörige Eigenvektoren.
Erinnerung/Bemerkung:
Eine Diagonalmatrix enthält nur auf der Hauptdiagonalen Einträge ungleich Null. Sindλ1, . . . , λn∈Cdie Einträge entlang der Diagonalen, so schreibt manD=diag(λ1, . . . , λn).
Bei Dreiecksmatrizen sind alle Elemente ober- bzw. unterhalb der Hauptdiagonalen gleich Null.
Ähnliche Matrizen Definition 7.12.
Zwei MatrizenA, B∈Cn×n heißenähnlich, wenn es eine invertierbare MatrixV ∈Cn×n gibt, so dass
A=V−1BV. (7)
Eine MatrixA∈Cn×n heißtdiagonalisierbar, wennAähnlich zu einer DiagonalmatrixD∈Cn×nist, d. h. wenn es eine invertierbare Matrix V ∈Cn×ngibt mit
D=V−1AV.
Bemerkung: Gleichung (7) ist äquivalent zu V A=BV und B=V AV−1.
Lineare Algebra II TU Bergakademie Freiberg 504
Ähnliche Matrizen haben das gleiche charakteristische Polynom, wie folgende Rechnung zeigt:
cV−1BV(λ) = det(V−1BV −λI)
= det(V−1(B−λI)V)
= (detV)−1det(B−λI) detV
=cB(λ).
Wir fassen zusammen:
Satz 7.13.
Ähnliche Matrizen haben das gleiche charakteristische Polynom und damit die gleichen Eigenwerte.
Die Eigenvektoren zu einem Eigenwertλsind dabei allerdings verschieden:~xist genau dann Eigenvektor vonA=V−1BV, wenn V ~x Eigenvektor vonB ist.
Lineare Algebra II TU Bergakademie Freiberg 505
Hintergrund: Ähnlichkeit und Basistransformation
Um den Ähnlichkeitsbegriff vollständig zu verstehen, muss man sich mit Basistransformationen auseinandersetzen. Wir gehen dabei von der DarstellungB=V AV−1von S. 504 aus.
Zu einem gegebenen Vektor~xlässt sichV ~xals Linearkombination der Spalten~v1, . . . , ~vnvonV schreiben:
V ~x=x1~v1+x2~v2+. . .+xn~vn. Fasst man~xals Koordinatenvektor bezüglich der Basis BV ={~v1, . . . , ~vn}auf, so istV ~xgerade der zugehörige Koordinatenvektor bezüglich der Standardbasis.
Man sagt daher auch,V stellt eineBasistransformationvon der Basis BV in die Standardbasis dar.
Die AbbildungV−1 macht die Transformation rückgängig und stellt somit eine Basistransformation von der Standardbasis nachBV dar.
Verifizieren Sie beide Aussagen am Beispiel der Basis B={√12[11],√1
2
1
−1
}und des Vektorsh√
2 0
i= [11]Bvon S. 464.
InB~x=V AV−1~xkann man die rechte Seite nun von rechts nach links wie folgt lesen:
Stelle~xals Koordinatenvektor bezüglich der Basis BV ={~v1, . . . , ~vn}dar (d. h. Multiplikation mitV−1).
Führe die durchBbeschriebene lineare Abbildung in den Koordinaten bezüglichBV aus (d. h. Multiplikation mitA).
Transformiere das Ergebnis wieder zurück in die Standardkoordinaten (Multiplikation mitV).
Lineare Algebra II TU Bergakademie Freiberg 507
Wir haben somit erkannt:
Satz 7.14.
Ähnliche Matrizen stellen die gleiche lineare Abbildung bezüglich verschiedener Basen dar.
Folglich besitzen ähnliche Matrizen dieselbe Determinante, denselben Rang und denselben Defekt.
Auch die Aussage von Satz 7.13 wird mit dieser Erkenntnis noch ein Stück verständlicher.
Lineare Algebra II TU Bergakademie Freiberg 508
Diagonalisierbare Matrizen
SeiA∈Cn×n eine Matrix, für eine Basis desCn aus Eigenvektoren von Aexistiert (vgl. Satz 7.8).
Dann kann die AbbildungAbezüglich dieser Basis nur durch
Streckungen der Basisvektoren ausgedrückt werden (Multiplikation mit einer Diagonalmatrix).
Beispiel
Die MatrixA= 5 −8
−1 3
besitzt die Eigenwerteλ1= 1undλ2= 7mit den Eigenvektoren~v1= [2,1]T und~v2= [−4,1]T (vgl. S. 493 f./501).
Es gilt die Darstellung A=V DV−1=
2 −4 1 1
1 0 0 7
2 −4 1 1
−1
. In der DiagonalmatrixDstehen die Eigenwerte und in den Spalten von V die Eigenvektoren.
Die allgemeine Situation beschreibt folgender Satz:
Satz 7.15.
Eine MatrixA∈Cn×n ist genau dann diagonalisierbar, wenn die algebraische und geometrische Vielfachheit für jeden Eigenwert übereinstimmen.
Sindλ1, . . . , λn die Eigenwerte und~v1, . . . , ~vnzugeordnete Eigenvektoren, die eine Basis desCnbilden, so gilt die Darstellung
A=V DV−1.
Dabei giltD=diag(λ1, . . . , λn), und~v1, . . . , ~vnsind in dieser Reihenfolge die Spalten vonV.
Lineare Algebra II TU Bergakademie Freiberg 510
Eigenwerte symmetrischer Matrizen
Eine MatrixA∈Rn×nheißtsymmetrisch, wennA=AT gilt, d. h. die Einträge symmetrisch zur Hauptdiagonalen liegen.
Symmetrische Matrizen haben bemerkenswerte Eigenschaften:
Satz 7.16.
IstA∈Rn×nsymmetrisch, so besitztAnur reelle Eigenwerte. Es gibt eine Orthonormalbasis desRn, die aus Eigenvektoren vonAbesteht.
Es gibt also eine DiagonalmatrixD∈Rn×n und eine orthogonale MatrixU∈Rn×n(d. h.UT =U−1), so dass
A=U DUT. Insbesondere istAdiagonalisierbar.
Lineare Algebra II TU Bergakademie Freiberg 511
Eigenwerte orthogonaler Matrizen
Für orthogonale Matrizen gibt es ein ähnliches Ergebnis. Beachten Sie aber, dass die Eigenwerte hier i. A. komplex sind!
Satz 7.17.
IstA∈Rn×northogonal, so besitztAnur Eigenwerte mit Betrag 1.
Es gibt eine Orthonormalbasis desCn, die aus Eigenvektoren vonA besteht.
Es gibt also eine DiagonalmatrixD∈Cn×n und eine unitäre Matrix U∈Cn×n(d. h.UH=U−1), so dass
A=U DUH. Insbesondere istAdiagonalisierbar.
Bestimmen Sie die Eigenwerte und Eigenvektoren der Matrizen
A=
8 0 0 0 1 −3 0 −3 1
und Dα=
cosα −sinα sinα cosα
Geben Sie in beiden Fällen eine Darstellung der FormV DV−1an.
Erkennen Sie die MatrixB von S. 493 f. wieder?
Lineare Algebra II TU Bergakademie Freiberg 513
Ziele erreicht?
Sie sollten nun (bzw. nach Abschluss der Übungen/Tutorien):
über die Zusammenhänge zwischen Matrizen und linearen Abbildungen bescheidwissen,
einfache geometrische Transformationen wie Drehungen und Spiegelungen mit Hilfe orthogonaler Matrizen beschreiben können, wissen, was orthogonale Matrizen charakterisiert,
die Begriffe Eigenwert, Eigenvektor und Vielfachheit tiefgreifend verstanden haben,
Eigenwerte und Eigenvektoren sicher berechnen können, ggf. auch unter Beachtung der Matrixstruktur,
wissen, was es mit Basen von Eigenvektoren und Diagonalisierbarkeit auf sich hat.
Lineare Algebra II TU Bergakademie Freiberg 514