• Keine Ergebnisse gefunden

7 Lineare Algebra II

N/A
N/A
Protected

Academic year: 2021

Aktie "7 Lineare Algebra II"

Copied!
19
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Dr. Mario Helm

Institut für Numerische Mathematik und Optimierung Fakultät für Mathematik und Informatik

Höhere Mathematik II

für naturwissenschaftliche Studiengänge

Sommersemester 2013

7 Lineare Algebra II

7.1 Wiederholung einiger Begriffe

In Kapitel 6 hatten wir uns mit Vektorräumen beschäftigt. Unser Standardbeispiel war derKn (mitK=RoderC).

Auch hier werden wir fast ausschließlich mitRn undCn arbeiten.

Folgende Begriffe spielen wieder eine zentrale Rolle, und sollen daher kurz wiederholt werden:

Linearkombinationen und Unterräume, Basis und Dimension,

lineare Abbildungen, Orthogonalität.

Lineare Algebra II TU Bergakademie Freiberg 460

Linearkombination und Unterraum

Zu gegebenen Vektoren~v1, . . . , ~vk∈Kn und Zahlenλ1, . . . , λkheißt

~v= Xk i=1

λi~vi

eineLinearkombinationder Vektoren~v1, . . . , ~vk.

Die Menge aller Linearkombinationen von~v1, . . . , ~vk∈Kn heißt der von

~v1, . . . , ~vkaufgespannteUnterraumU vonKn. Schreibweise:U =span(~v1, . . . , ~vk)

(Anmerkung: “Menge aller Linearkombinationen“ meint, dass die~vi’s fest sind, aber dieλi’s variabel gewählt werden können.)

(2)

Lineare Unabhängigkeit, Basis und Dimension

Die Vektoren~v1, . . . , ~vkheißenlinear unabhängig, wenn aus Pk

i=1λi~vi=~0stetsλ12=. . .=λk= 0folgt.

Andernfalls nennt man sie linear abhängig.

Lineare Unahängigkeit bedeutet, dass sich keiner der Vektoren als Linearkombination der anderen schreiben lässt.

Die maximale Anzahl linear unabhängiger Vektoren, die man in einem UnterraumU⊂Kn finden kann, heißtDimensionvonU (dim(U)).

Eine solche maximale Menge linear unabhängiger Vektoren heißt BasisvonU. Jede Basis von U enthält genaudim(U)Vektoren.

Lineare Algebra II TU Bergakademie Freiberg 462

Beispiel: Unterräume desR3

ImR3 haben die Unterräume folgende Struktur:

Es gibt genau einen0-dimensionalen Unterraum; dieser besteht nur aus dem Ursprung~0.

Die eindimensionalen Unterräume sind die Geraden durch den Ursprung.

Die zweidimensionalen Unterräume sind die Ebenen durch den Ursprung.

Es gibt genau einen3-dimensionalen Unterraum; dieser ist derR3 selbst.

Achtung: Im allgemeinen sind Geraden und Ebenen jedoch keine Unterräume desR3, sondern lediglich verschobene Versionen davon!

Lineare Algebra II TU Bergakademie Freiberg 463

Koordinaten bezüglich einer Basis

IstB={~b1, . . . ,~bn}eine Basis desRn, so existieren zu jedem Vektor

~x∈Rn eindeutig bestimmte Zahlenλ1, . . . , λn mit

~x=λ1~b12~b2+. . .+λn~bn.

Die Zahlenλi(i= 1, . . . , n)heißenKoordinatenvon~xbezüglich der BasisB.

Die Vektoren 12[11]und 12 1

1

bilden eine BasisBdesR2. (Warum?)

Wie lauten die Koordinaten von~x=h

2 0

ibezüglich dieser Basis?

(3)

Lineare Abbildungen

Eine Abbildungf~:Rm→Rnheißtlinear, wenn

f(~x~ +~y) =f(~x) +~ f(~y)~ und f~(λ~x) =λ ~f(~x) (1) für alle~x, ~y∈Rmund alleλ∈Rgilt.

Die beiden Beziehungen aus (1) kann man auch in einer Gleichung zusammenfassen:

f(λ~x~ +~y) =λ ~f(~x) +f~(~y). (2)

Machen Sie sich klar, warum.

Lineare Algebra II TU Bergakademie Freiberg 465

Darstellung als Matrix-Vektor-Multiplikation

Matrix-Vektor-Multiplikationen sind lineare Abbildungen (bei fester Matrix und variablem Vektor).

Umgekehrt lässt sich jede lineare Abbildungf~:Rm→Rn als Matrix-Vektor-Multiplikation schreiben:

f(~x) =~ A~x. (3)

Dabei ist die MatrixA∈Rn×m eindeutig bestimmt. Ihre Spalten sind gerade die Bilderf(~e~ 1), . . . , ~f(~em)der Einheitsvektoren desRm.

Lineare Algebra II TU Bergakademie Freiberg 466

Wiederholen Sie die bei Bedarf die Gesetzmäßigkeiten der Matrizenmultiplikation (HM 1, Kap. 6.2, S. 366 ff).

Rechnen Sie die Beziehungen (1) bzw. (2) für Funktionen des Typs f(~x) =~ A~xnach.

Wie lautet die Abbildungsmatrix zur linearen Abbildungf~:R3→R2 mit

f(~e~ 1) = 3

4

, ~f(~e2) = 7

−1

und f(~e~ 3) = 0

1

?

Warum ist eine lineare Abbildungf~:Rm→Rndurch die Bilder der Einheitsvektoren eindeutig bestimmt? Kann man auch die Bilderm beliebiger linear unabhängiger Vektoren verwenden?

(4)

Skalarprodukt und Orthogonalität

AufKn (mitK=RoderC) kann man einSkalarproduktdefinieren mittels

h~x, ~yi=~xT~yfür~x, ~y∈Rn, h~x, ~yi=~xH~yfür~x, ~y∈Cn.

Zwei Vektoren heißenorthogonalodersenkrechtwenn ihr Skalarprodukt null ist.

DieNorm(Länge) ergibt sich aus dem Skalarprodukt über

k~xk=p

h~x, ~xi (=

vu utXn

i=1

x2i für x∈Rn).

Lineare Algebra II TU Bergakademie Freiberg 468

Projektion und Winkelmessung

Das Skalarprodukt zweier Vektoren~x, ~y∈Rnkann desweiteren über den Kosinus des eingeschlossenen Winkelsϕdargestellt werden:

~xT~y=k~xk k~ykcosϕ.

Interpretiert man diese Formel an folgender Skizze,

~0

~y

k~xk ~x k~yk

k~ykcosϕ ϕ

so sieht man, dass das Skalarprodukt gleich der (vorzeichenbehafteten) Länge der orthogonalen Projektion von~yauf~x, multipliziert mit der Länge von~x, ist.

Lineare Algebra II TU Bergakademie Freiberg 469

Orthonormalbasen

Eine BasisB={~b1,~b2, . . . ,~bn}desRn heißtOrthonormalbasis(ONB), wenn alle Basisvektoren die Länge1haben und paarweise aufeinander senkrecht stehen, in Formeln:

~bjT~bi=

(1, füri=j, 0, füri6=j.

Die Koordinaten eines Vektors~xbezüglich einer ONB entsprechen gerade den Orthogonalprojektionen auf die Basisvektoren:

~x=

~bT1~x

~b1+

~bT2~x

~b2+. . .+

~bTn~x

~bn.

Bearbeiten Sie die Aufgabe auf Seite 464 unter diesem Aspekt erneut.

(5)

7.2 Spiegelungen, Drehungen, orthogonale Abbildungen Eine große Klasse linearer Abbildungen sind die orthogonalen Abbildungen.

Sie spielen insbesondere bei geometrischen Transformationen eine Rolle und zeichnen sich durch die Eigenschaft aus, Längen und Winkel unverändert zu lassen.

So lassen sich zum Beispiel Drehungen und Spiegelungen häufig mit orthogonalen Abbildungen mathematisch beschreiben.

Lineare Algebra II TU Bergakademie Freiberg 471

Drehungen desR2mit Winkelαund Zentrum in~0sind zunächstlineare Abbildungen, wie an folgenden Skizzen deutlich wird:

α λ~x

~ ~x f(~x) f(λ~x) =~ λ ~f(~x)

α ~x

f(~x)~

~y

~x+~y f(~x~ +~y) =f(~x) +~ f(~y)~

f(~y)~

Lineare Algebra II TU Bergakademie Freiberg 472

Zeichnen Sie eine analoge Skizze für Spiegelungen desR2an einer Geraden durch~0.

Natürlich lässt sich dieses geometrische Argument analog auf Drehungen und auf Spiegelungen an Ebenen imR3anwenden.

Sowohl Drehungen um den Ursprung als auch Spiegelungen an einer Geraden (Ebene) durch den Ursprung können also als

Matrix-Vektor-Multiplikationen beschrieben werden.

Wir begeben uns auf die Suche nach den Abbildungsmatrizen zu diesen Abbildungen.

(6)

Drehungen um den Ursprung imR2

Die Spalten der gesuchten Abbildungsmatrix sind gerade die Bilder der Einheitsvektoren unter der Drehung.

α

~e1

f(~e~ 1)

~e2

f(~e~ 2)

1 1

α

Es giltf(~e~ 1) = [cossinαα]undf(~e~ 2) = [cossinαα]. Damit ist die gesuchte Abbildungsmatrix

Dα=

cosα −sinα sinα cosα

.

Lineare Algebra II TU Bergakademie Freiberg 474

Die MatrixDαist invertierbar, denn

detDα= cos2α+ sin2α= 1.

Ihre Inverse realisiert gerade die Drehung um−α, d. h.

Dα1=Dα=

cos(−α) −sin(−α) sin(−α) cos(−α)

=

cosα sinα

−sinα cosα

FürDαgilt also die bemerkenswerte Beziehung Dα1=DTα.

Berechnen Sie Drehmatrix für eine Drehung um den Ursprung mit α= 30. Geben Sie das Bild des Vektors[2,3]T an.

Wiederholen Sie bei Bedarf die Begriffe Inverse, Invertierbarkeit und Determinante aus HM1, Kap. 6.4 und 6.5.

Lineare Algebra II TU Bergakademie Freiberg 475

Drehungen im Raum

Drehungen imR3werden durch eine Drehachse (die den Ursprung enthält) und einen Drehwinkelαfestgelegt.

Die Drehachse wird dabei durch einen Vektord~festgelegt, der in die positive Achsenrichtung zeigt.

d~

~x f(~x)~ α

~0

(7)

Besonders einfach wird die Angabe der Drehmatrizen, wenn man die Einheitsvektoren (also die Koordinatenachsen) als Drehachsen verwendet:

Dx,α=

1 0 0 0 cosα sinα 0 sinα cosα

, Dy,α=

cosα 0 sinα

0 1 0

sinα 0 cosα

, Dz,α=

cosα sinα 0 sinα cosα 0

0 0 1

.

Jede beliebige Drehung imR3 lässt sich als Komposition von Drehungen um die Koordinatenachsen schreiben.

Physiker sprechen daher häufig von drei möglichen Freiheitsgraden der Rotation.

Machen Sie sich an einem der obigen Beispiele klar, dass die angegebene Matrix die gewünschte Transformation realisiert.

Berechnen Sie dazu das ProduktD~xfür die gewählte DrehmatrixD.

Lineare Algebra II TU Bergakademie Freiberg 477

Exkurs: allgemeine Drehmatrix

Natürlich kann man auch im allgemeinen Fall die Drehmatrix angeben.

Bei vorgegebenem Achsvektord~(mitkd~k= 1) und Winkelαlautet diese

cosα+ (1cosα)d21 (1cosα)d1d2d3sinα (1cosα)d1d3+d2sinα (1cosα)d1d2+d3sinα cosα+ (1cosα)d22 (1cosα)d2d3d1sinα (1cosα)d1d3d2sinα (1cosα)d2d3+d1sinα cosα+ (1cosα)d23

Eine explizite Abbildungsvorschrift ist gegeben durch

f(~x) = cos~ α ~x+ (1−cosα)(~xTd)~ d~+ sin(α)(d~×~x).

Dies alles schaut man bei Bedarf aber am besten in der Literatur nach.

Lineare Algebra II TU Bergakademie Freiberg 478

Spiegelungen in der Ebene

Wir betrachten zunächst Spiegelungen imR2 an einer Geraden durch~0 senkrecht zum Vektor~n. Dabei sei~nauf Länge1normiert (k~nk= 1).

Wir lesen das Spiegelbildf(x)~ von~xaus folgender Skizze ab:

~n

~x f~(~x)

f(x) =~ ~x−2(~nT~x)~n Beachten Sie dabei, dass wegen der Normierung von~ndie Länge der Projektion von~xauf~ngerade~nT~xist.

(8)

Es gilt also

f(x) =~ ~x−2(~nT~x)~n

=~x−2~n(~nT~x)

=~x−2(~n~nT)~x,

d. h. die Spiegelung wird durch Multiplikation mit der Matrix S~n=I−2~n~nT =

1−2n21 −2n1n2

−2n1n2 1−2n22

=

n22−n21 −2n1n2

−2n1n2 n21−n22

beschrieben (beachten21+n22= 1).

Geben Sie die Spiegelungsmatrix für die Spiegelung an der Geraden x2=−x1an. Multiplizieren Sie diese Matrix mit einem Vektor~x.

Kann man das Ergebnis auch rein geometrisch begründen?

Lineare Algebra II TU Bergakademie Freiberg 480

Spiegelungen im Raum

Bei Spiegelungen imR3 verwendet man statt der Spiegelachse eine Spiegelebene durch den Ursprung, welche ganz analog durch den Normalenvektor~nfestgelegt ist (k~nk= 1).

Die Spiegelungsmatrix besitzt jetzt drei Zeilen und Spalten, allerdings die gleiche Struktur:

S~n=I−2~n~nT.

Zeichnen Sie eine geeignete Skizze, in welcher die Analogie sichtbar wird. Wie lautet die MatrixS~nin ausgeschriebener Form?

Lineare Algebra II TU Bergakademie Freiberg 481

Orthogonale Abbildungen

Drehungen und Spiegelungen gehören zur Klasse der orthogonalen linearen Abbildungen, die sich auch für höhere Dimensionen erklären lassen:

Definition 7.1.

Eine MatrixU∈Rn×nheißtorthogonal, wenn sie das Innenprodukt nicht verändert, d. h.

(U ~y)T(U~x) =~yT~x für alle ~x, ~y∈Rn. Insbesondere ist eine orthogonale Matrix

längenerhaltend, d. h.kU~xk=k~xkfür alle~xund winkeltreu, d. h.](U~x, U~y) =](~x, ~y)für alle~x, ~y.

(9)

Satz 7.2 (Charakterisierung orthogonaler Matrizen).

SeiU ∈Rn×n. Die folgenden Aussagen sind äquivalent:

U ist orthogonal.

Die Spalten (Zeilen) vonU bilden eine Orthonormalbasis desRn. U ist invertierbar mitU−1=UT.

Machen Sie sich klar, warum aus Punkt 1 Punkt 2 und daraus wiederum Punkt 3 folgt.

Bestätigen Sie mit Punkt 3, dass die 2D-Spiegelungsmatrix S=I−2~n~nT orthogonal ist.

Lineare Algebra II TU Bergakademie Freiberg 483

Exkurs: Unitäre Abbildungen

Die Entsprechung zu orthogonalen Matrizen imCnsindunitäre Matrizen. Auch hier verwendet man das unveränderte Skalarprodukt zur Begriffsfestlegung.

Dabei muss natürlich statt~yT~ximmer das komplexe Skalarprodukt~yH~x verwendet werden.

Die Aussagen von Satz 7.2 gelten dann analog – die Beziehung im letzten Punkt lautet dabeiU1=UH.

Unitäre Abbildungen werden Ihnen möglicherweise in der Quantenmechanik begegnen.

Lineare Algebra II TU Bergakademie Freiberg 484

7.3 Eigenwerte und Eigenvektoren Motivation: Resonanzphänomene

Wir betrachten ein Flugzeug, das auf einer holprigen Piste landet.

Modell des Flugzeugs:

drei Massen:m1 (Rumpf und Motor);m2, m3(Flügel), drei Steifigkeiten (k1, k2, k3) für die “federnde“ Verbindung der Teile.

Die Piste wird durch eine Sinuskurver(t) =r0sin(ω0t)modelliert. Der Rumpf ist dann einer externen Kraft

f1(t) =k1r0sin(ω0t)

ausgesetzt. Die Frequenzω0 hängt von der Landungsgeschwindigkeitv ab.

(10)

Situationsskizze

r0

x2 x

x 3 1

1300 kg

300 kg 300 kg

1.7x105 N/m 6x105 N/m 6x105 N/m

Lineare Algebra II TU Bergakademie Freiberg 486

Die mathematische Analyse des Beispiels wird erst am Ende des Semesters gelingen. Wir zeigen hier aber schon die Lösungenx1,2,3(t) [in m] übert[in s] fürv= 120km/h undv= 108km/h:

0 0.5 1 1.5 2 2.5 3 3.5 4

−6

−4

−2 0 2 4

6x 10−6 ω0 = 10, r0 =.2

0 0.5 1 1.5 2 2.5 3 3.5 4

−300

−200

−100 0 100 200 300

ω0 = ω1, r0 =.2

Beachten Sie, dass sich die Amplituden bei den verschiedenen

Landungsgeschwindigkeiten um 7 Größenordnungen(!!!) unterscheiden.

Lineare Algebra II TU Bergakademie Freiberg 487

Im zweiten Fall tritt einResonanzphänomenauf: Wenn die

Anregungsfrequenzω0(nahezu) mit einer derEigenfrequenzenω1,2,3des Flugzeugs übereinstimmt, kommt es zu gefährlich großen Oszillationen.

Die Nichtbeachtung von Eigenfrequenzen und Resonanz kann z. B. bei Brücken oder Hochhäusern katastrophale Auswirkungen haben:

Tacoma Narrows Bridge (WA, 1940).

Bild: Prelinger Archives Weitere Beispiele:

Broughton suspension bridge, Manchester 1831;

Millennium footbridge, London 2000.

(11)

Eigenwerte und Eigenvektoren

Um z. B. Resonanzphänomene zu analysieren, benötigt man die folgenden Begriffe:

Definition 7.3.

SeiA∈Rn×n (oderCn×n). Eine Zahlλ∈CheißtEigenwertvon A, wenn es einen Vektor~v∈Cn, ~v6=~0, gibt, so dass

A~v=λ~v. (4)

Jeder Vektor~v∈Cn\ {~0}, der (4) erfüllt, heißtEigenvektorvon A zum Eigenwertλ.

Achtung: Auch wenn wir nur reelle Matrizen betrachten: bei Eigen- werten und Eigenvektoren lässt man immer auch komplexe Zahlen zu!

Lineare Algebra II TU Bergakademie Freiberg 489

Geometrische Interpretation

Die Richtung eines Eigenvektors wird durch die lineare AbbildungA nicht verändert – der Eigenvektor wird lediglich gestreckt.

Das rechte Bild entsteht z. B. aus dem linken durch eine “Scherung“ der Leinwand.

Bild: Wikimedia Commons

Der rote Vektor bleibt unverändert und ist damit ein Eigenvektor zum Eigenwert 1. Der blaue Vektor ändert hingegen seine Richtung und ist daher kein Eigenvektor der Scherungsabbildung.

Lineare Algebra II TU Bergakademie Freiberg 490

Welche reellen Eigenwerte besitzt eine Drehung im Raum um die x1−Achse, und welcher reelle Eigenvektor kommt in Frage?

Wie verhält es sich mit einer Spiegelung in der Ebene an einer Geraden durch0und senkrecht zu~n?

Argumentieren Sie rein geometrisch!

Bestätigen Sie, dassλ= 1Eigenwert vonA= 5 8

1 3

mit zugehörigem Eigenvektor~v= [2,1]T ist.

Zeigen Sie, dass jedes komplexe Vielfache des Vektors[1, i]T ein Eigenvektor vonB= 0 1

−1 0

zum Eigenwertλ=iist.

Formulieren Sie eine allgemeingültige Aussage und bestätigen Sie diese durch Einsetzen in (4).

Anmerkung: Bislang wissen wir weder, wie man EW und EV berechnet, noch ob in den Beispielen alle EW und EV erfasst wurden.

(12)

Berechnung von Eigenwerten

Wir benutzen zur Herleitung der Formel für die Eigenwertberechnung folgende Äquivalenzkette:

λ∈Cist Eigenwert vonA∈Rn×n. . .

⇔ Es gibt einen Vektor~v6=~0mitA~v=λ~v.

⇔ Ein Vektor~v6=~0löst das homogene LGS(A−λI)~v=~0.

⇔ det(A−λI) = 0.

Die Eigenwerte sind also gerade die Nullstellen der Funktion cA(λ) := det(A−λI).

Diese Funktion ist ein Polynom vom Gradnund wird das charakteristische PolynomvonAgenannt.

Lineare Algebra II TU Bergakademie Freiberg 492

Satz 7.4.

FürA∈Rn×n ist das charakteristische PolynomcA(λ) = det(A−λI) ein Polynom vom exakten Gradnmit reellen Koeffizienten und Höchstkoeffizienten1oder−1.

Die Eigenwerte vonAsind genau die Nullstellen voncA, also die Lösungen der Gleichung

cA(λ) = det(A−λI)= 0.! (5)

Berechnen Sie sämtliche Eigenwerte der Matrizen A=

5 −8

−1 3

und B=

0 1

−1 0 (vgl. 2. und 3. Kasten auf S. 491).

Lineare Algebra II TU Bergakademie Freiberg 493

Berechnung von Eigenvektoren

SeiλEigenwert der MatrixA. Die zugehörigen Eigenvektoren vonA sind die (nicht-trivialen) Lösungen des homogenen Gleichungssystems

(A−λI)~v=~0. (6)

Zusammen mit~0bilden sie einen Unterraum desCn, den sogenannten EigenraumvonAzum Eigenwertλ,

Eig(A, λ) :={~x∈Cn : A~x=λ~x}

={~x∈Cn : (A−λI)~x=~0}

=N(A−λI)

Berechnen Sie sämtliche Eigenvektoren zu den Eigenwerten der MatrizenAundB von Seite 493.

(13)

Vielfachheiten von Eigenwerten Definition 7.5.

Diealgebraische Vielfachheitνalg(λ)eines EigenwertsλvonAist seine Vielfachheit als Nullstelle des charakteristischen PolynomscAvonA.

Diegeometrische Vielfachheitνgeom(λ)eines EigenwertsλvonAist die Dimension des zugehörigen Eigenraumsdim(Eig(A, λ)).

Anmerkung zur Berechnung

Um die algebraischen Vielfachheiten zu bestimmen, muss man nur das charakteristische PolynomcAkennen. Um die geometrische

Vielfachheiten zu berechnen, reicht die Kenntnis voncAallein nicht aus.

Lineare Algebra II TU Bergakademie Freiberg 495

Nach dem Fundamentalsatz der Algebra summieren sich die algebrai- schen Vielfachheiten der Eigenwerte einer MatrixA∈Rn×n zun.

Die Summe der geometrischen Vielfachheiten kann dagegen kleiner sein.

Es gilt folgender Satz:

Satz 7.6.

SeiλEigenwert der MatrixA∈Rn×nmit algebraischer Vielfachheit νalg(λ)und geometrischer Vielfachheitνgeom(λ). Dann gilt:

1≤νgeom(λ)≤νalg(λ)≤n.

Machen Sie sich am Beispiel der Matrix[2 10 2]klar, dass die geometrische Vielfachheit eines Eigenwerts tatsächlich kleiner sein kann als die algebraische.

Lineare Algebra II TU Bergakademie Freiberg 496

Beim Beispiel im Kasten auf S. 496 handelt es sich um einen sogenanntenJordan-Block, d. h. eine Matrix der Form





λ 1

λ 1

... 1 λ



∈Rn×n.

Dieser besitzt nur den Eigenwertλmit geometrischer Vielfachheit1und algebraischer Vielfachheitn.

Bestätigen Sie diese Aussagen. Für die geometrische Vielfachheit nutzen Sie am besten die Beziehung

νgeom(λ) = dim(Eig(A, λ)) =n−rang(A).

(14)

Mögliche Konstellationen fürA∈R2×2

Das charakteristische Polynom einer reellen2×2-MatrixAbesitzt die Struktur

cA(x) =x2+px+q (mitp, q∈R).

In Kombination mit Satz 7.6 ergeben sich verschiedene Möglichkeiten für die Eigenwerte. Es existieren

entweder zwei verschiedenereelleEigenwerteλ1undλ2, die geometrische und algebraische Vielfachheit1haben. Zu jedem Eigenwert gibt es reelle Eigenvektoren.

oder zwei verschiedenekonjugiert-komplexeEigenwerteλ1undλ2, die geometrische und algebraische Vielfachheit1haben. Zu jedem Eigenwert gibt es komplexe Eigenvektoren.

(b. w.)

Lineare Algebra II TU Bergakademie Freiberg 498

oder nur einen Eigenwertλ, der dann zwangsläufig reell ist.

Er besitzt die algebraische Vielfachheit2und

entweder die geometrische Vielfachheit 2, d. h. jeder Vektor ausC2 ist Eigenvektor.Abesitzt dann die Form

A=λI=

λ 0

0 λ

oder die geometrische Vielfachheit 1.

Ordnen Sie die Beispiele von S. 493 und S. 496 den entsprechenden Fällen zu.

Führen Sie eine ähnliche Analyse für den3×3-Fall durch. (Auf die Unterscheidung zwischen reellen und komplexen Eigenwerten können Sie dabei verzichten.)

Lineare Algebra II TU Bergakademie Freiberg 499

Eigenschaften von Eigenvektoren

Wir widmen uns nun der Frage, wie groß die Dimension des von den Eigenvektoren einer MatrixA∈Rn×n aufgespannten Unterraums ist.

Insbesondere wollen wir wissen, wann es eine Basis desCnaus Eigenvektoren vonAgibt.

Wir beginnen mit folgendem Satz:

Satz 7.7.

Gehören die Eigenvektoren~v1, . . . , ~vrzuverschiedenenEigenwerten λ1, . . . , λrdern×n-MatrixA, dann sind sie linear unabhängig.

Machen Sie sich dies zumindest für den Fallr= 2klar.

(15)

Wenn esnverschiedene Eigenwerte zur MatrixA∈Rn×n gibt, existiert also eine Basis desCn, die nur aus Eigenvektoren vonAbesteht.

Allgemeiner gilt sogar:

Satz 7.8.

SeiA∈Rn×n. Es existiert genau dann eine Basis desCnaus Eigenvektoren vonA, wenn die geometrische und algebraische Vielfachheit für jeden Eigenwert vonAübereinstimmen.

Beispiel

Die MatrixA= 5 −8

1 3

besitzt die Eigenwerteλ1= 1undλ2= 7mit den Eigenvektoren~v1= [2,1]T und~v2= [−4,1]T (vgl. S. 493 f.). Sie bilden eine Basis desC2(und in diesem Falle auch eine Basis desR2).

Lineare Algebra II TU Bergakademie Freiberg 501

Eigenwerte spezieller Matrizen Satz 7.9.

SeiA∈Rn×n. Dann gelten:

AundAT besitzen dasselbe charakteristische Polynom, also dieselben Eigenwerte (mit i. a. verschiedenen Eigenräumen).

BesitztAden Eigenvektor~xzum Eigenwertλ, dann besitzen αA, Am, A+βIn, p(A) =αmAm+· · ·+α1A+α0In

denselben Eigenvektor~x, allerdings zum Eigenwert αλ, λm, λ+β, p(λ) =αmλm+· · ·+α1λ+α0. Aist genau dann invertierbar, wenn alle Eigenwerte vonAvon0 verschieden sind. Ist dannλein Eigenwert vonAmit Eigenvektor

~x, so istλ1 ein Eigenwert vonA1 mit demselben Eigenvektor~x.

Verifizieren Sie einige dieser Aussagen.

Satz 7.10.

Lineare Algebra II TU Bergakademie Freiberg 502

Weiterhin kann man Eigenwerte sehr einfach bestimmen, wennA bestimmte strukturelle Eigenschaften besitzt:

Satz 7.11.

IstAeine (untere oder obere) Dreiecksmatrix, so sind die Hauptdiagonaleinträge vonAgenau die Eigenwerte vonA.

Dies trifft insbesondere dann zu, wennAeine Diagonalmatrix ist. In diesem Fall sind die Einheitsvektoren zugehörige Eigenvektoren.

Erinnerung/Bemerkung:

Eine Diagonalmatrix enthält nur auf der Hauptdiagonalen Einträge ungleich Null. Sindλ1, . . . , λn∈Cdie Einträge entlang der Diagonalen, so schreibt manD=diag(λ1, . . . , λn).

Bei Dreiecksmatrizen sind alle Elemente ober- bzw. unterhalb der Hauptdiagonalen gleich Null.

(16)

Ähnliche Matrizen Definition 7.12.

Zwei MatrizenA, B∈Cn×n heißenähnlich, wenn es eine invertierbare MatrixV ∈Cn×n gibt, so dass

A=V−1BV. (7)

Eine MatrixA∈Cn×n heißtdiagonalisierbar, wennAähnlich zu einer DiagonalmatrixD∈Cn×nist, d. h. wenn es eine invertierbare Matrix V ∈Cn×ngibt mit

D=V1AV.

Bemerkung: Gleichung (7) ist äquivalent zu V A=BV und B=V AV1.

Lineare Algebra II TU Bergakademie Freiberg 504

Ähnliche Matrizen haben das gleiche charakteristische Polynom, wie folgende Rechnung zeigt:

cV1BV(λ) = det(V−1BV −λI)

= det(V−1(B−λI)V)

= (detV)−1det(B−λI) detV

=cB(λ).

Wir fassen zusammen:

Satz 7.13.

Ähnliche Matrizen haben das gleiche charakteristische Polynom und damit die gleichen Eigenwerte.

Die Eigenvektoren zu einem Eigenwertλsind dabei allerdings verschieden:~xist genau dann Eigenvektor vonA=V1BV, wenn V ~x Eigenvektor vonB ist.

Lineare Algebra II TU Bergakademie Freiberg 505

Hintergrund: Ähnlichkeit und Basistransformation

Um den Ähnlichkeitsbegriff vollständig zu verstehen, muss man sich mit Basistransformationen auseinandersetzen. Wir gehen dabei von der DarstellungB=V AV1von S. 504 aus.

Zu einem gegebenen Vektor~xlässt sichV ~xals Linearkombination der Spalten~v1, . . . , ~vnvonV schreiben:

V ~x=x1~v1+x2~v2+. . .+xn~vn. Fasst man~xals Koordinatenvektor bezüglich der Basis BV ={~v1, . . . , ~vn}auf, so istV ~xgerade der zugehörige Koordinatenvektor bezüglich der Standardbasis.

Man sagt daher auch,V stellt eineBasistransformationvon der Basis BV in die Standardbasis dar.

(17)

Die AbbildungV1 macht die Transformation rückgängig und stellt somit eine Basistransformation von der Standardbasis nachBV dar.

Verifizieren Sie beide Aussagen am Beispiel der Basis B={12[11],1

2

1

1

}und des Vektorsh

2 0

i= [11]Bvon S. 464.

InB~x=V AV1~xkann man die rechte Seite nun von rechts nach links wie folgt lesen:

Stelle~xals Koordinatenvektor bezüglich der Basis BV ={~v1, . . . , ~vn}dar (d. h. Multiplikation mitV1).

Führe die durchBbeschriebene lineare Abbildung in den Koordinaten bezüglichBV aus (d. h. Multiplikation mitA).

Transformiere das Ergebnis wieder zurück in die Standardkoordinaten (Multiplikation mitV).

Lineare Algebra II TU Bergakademie Freiberg 507

Wir haben somit erkannt:

Satz 7.14.

Ähnliche Matrizen stellen die gleiche lineare Abbildung bezüglich verschiedener Basen dar.

Folglich besitzen ähnliche Matrizen dieselbe Determinante, denselben Rang und denselben Defekt.

Auch die Aussage von Satz 7.13 wird mit dieser Erkenntnis noch ein Stück verständlicher.

Lineare Algebra II TU Bergakademie Freiberg 508

Diagonalisierbare Matrizen

SeiA∈Cn×n eine Matrix, für eine Basis desCn aus Eigenvektoren von Aexistiert (vgl. Satz 7.8).

Dann kann die AbbildungAbezüglich dieser Basis nur durch

Streckungen der Basisvektoren ausgedrückt werden (Multiplikation mit einer Diagonalmatrix).

Beispiel

Die MatrixA= 5 8

1 3

besitzt die Eigenwerteλ1= 1undλ2= 7mit den Eigenvektoren~v1= [2,1]T und~v2= [−4,1]T (vgl. S. 493 f./501).

Es gilt die Darstellung A=V DV1=

2 −4 1 1

1 0 0 7

2 −4 1 1

−1

. In der DiagonalmatrixDstehen die Eigenwerte und in den Spalten von V die Eigenvektoren.

(18)

Die allgemeine Situation beschreibt folgender Satz:

Satz 7.15.

Eine MatrixA∈Cn×n ist genau dann diagonalisierbar, wenn die algebraische und geometrische Vielfachheit für jeden Eigenwert übereinstimmen.

Sindλ1, . . . , λn die Eigenwerte und~v1, . . . , ~vnzugeordnete Eigenvektoren, die eine Basis desCnbilden, so gilt die Darstellung

A=V DV1.

Dabei giltD=diag(λ1, . . . , λn), und~v1, . . . , ~vnsind in dieser Reihenfolge die Spalten vonV.

Lineare Algebra II TU Bergakademie Freiberg 510

Eigenwerte symmetrischer Matrizen

Eine MatrixA∈Rn×nheißtsymmetrisch, wennA=AT gilt, d. h. die Einträge symmetrisch zur Hauptdiagonalen liegen.

Symmetrische Matrizen haben bemerkenswerte Eigenschaften:

Satz 7.16.

IstA∈Rn×nsymmetrisch, so besitztAnur reelle Eigenwerte. Es gibt eine Orthonormalbasis desRn, die aus Eigenvektoren vonAbesteht.

Es gibt also eine DiagonalmatrixD∈Rn×n und eine orthogonale MatrixU∈Rn×n(d. h.UT =U1), so dass

A=U DUT. Insbesondere istAdiagonalisierbar.

Lineare Algebra II TU Bergakademie Freiberg 511

Eigenwerte orthogonaler Matrizen

Für orthogonale Matrizen gibt es ein ähnliches Ergebnis. Beachten Sie aber, dass die Eigenwerte hier i. A. komplex sind!

Satz 7.17.

IstA∈Rn×northogonal, so besitztAnur Eigenwerte mit Betrag 1.

Es gibt eine Orthonormalbasis desCn, die aus Eigenvektoren vonA besteht.

Es gibt also eine DiagonalmatrixD∈Cn×n und eine unitäre Matrix U∈Cn×n(d. h.UH=U−1), so dass

A=U DUH. Insbesondere istAdiagonalisierbar.

(19)

Bestimmen Sie die Eigenwerte und Eigenvektoren der Matrizen

A=

 8 0 0 0 1 −3 0 −3 1

 und Dα=

cosα −sinα sinα cosα

Geben Sie in beiden Fällen eine Darstellung der FormV DV1an.

Erkennen Sie die MatrixB von S. 493 f. wieder?

Lineare Algebra II TU Bergakademie Freiberg 513

Ziele erreicht?

Sie sollten nun (bzw. nach Abschluss der Übungen/Tutorien):

über die Zusammenhänge zwischen Matrizen und linearen Abbildungen bescheidwissen,

einfache geometrische Transformationen wie Drehungen und Spiegelungen mit Hilfe orthogonaler Matrizen beschreiben können, wissen, was orthogonale Matrizen charakterisiert,

die Begriffe Eigenwert, Eigenvektor und Vielfachheit tiefgreifend verstanden haben,

Eigenwerte und Eigenvektoren sicher berechnen können, ggf. auch unter Beachtung der Matrixstruktur,

wissen, was es mit Basen von Eigenvektoren und Diagonalisierbarkeit auf sich hat.

Lineare Algebra II TU Bergakademie Freiberg 514

Referenzen

ÄHNLICHE DOKUMENTE

Die Giants – zu Deutsch Riesenvesikel – sind spezielle, bis zu 100 Mikrometer (tausendstel Mil- limeter) große Lipidbläschen und für Rumiana Dimova das perfekte Modell- system:

Nach dem Hauptsatz f¨ ur symmetrische Matrizen zerf¨ allt R n in einen orthogonale Summe der Eigenr¨ aume, d. P ist eine

Susanne Kürsten Tristan

(b) Da die Berechnung der Determinante unabhängig davon ist, ob man die Matrix als reelle oder komplexe Matrix betrachtet, stimmen die charakteristischen Polynome von A und B

Zeigen Sie, dass jeder Eigenwert von A reell ist und dass zwei Eigenvektoren von A zu verschiedenen Eigenwerten senkrecht aufeinander stehen (bzgl. Wann gilt in dieser Ungleichung

Zeigen Sie, dass jeder Eigenwert von A reell ist und dass zwei Eigenvektoren von A zu verschiedenen Eigenwerten senkrecht aufeinander stehen (bzgl.. Aus der letzten Gleichung

sie sehen nach einer Spiegelung an ihrer Achse wieder gleich aus.. Auf diesem Bild findest du einige

[r]