• Keine Ergebnisse gefunden

Determinante eines Endomorphismus

Im Dokument 1.1 Mathematische Sprache (Seite 195-200)

Satz 9.20 (Leibnizsche Formel)

Die Determinante einer Matrix A∈Kn×n lässt sich berechnen durch detA= X

τ∈Sn

sign(τ)·a1,τ(1)·. . .·an,τ(n) (Summe über alle Permutationen). Bemerkung 9.21

Die Cramersche Regel als auch die Determinantenformeln von Laplace und Leibniz sind in der Praxis (außer für sehr kleine Matrizen) nicht brauchbar, da sie viel Rechenaufwand für große n benötigen (die Anzahl der Permutationen und damit der Summanden ist:

n!). Praktisch bestimmt man daher Lösungen und Determinanten durch das Umformen auf Dreiecksgestalt mit dem Verfahren von Gauß. Aus theoretischer Sicht sind diese Formel jedoch sehr interessant, denn an der Formel von Leibniz sieht man, dass (für den Fall K=R oderC) die Determinante ein Polynom in den Einträgen der Matrix ist und somit nach diesen differenzierbar und damit stetig ist. Ebenso zeigt die Cramersche Regel, dass die Lösung xeines Gleichungssystem Ax=b stetig von A und b abhängt.

Bemerkung 9.22

Unter einem n-dimensionalen Parallelotop (Parallelogramm in 2D, Spat in 3D) versteht man zu den Vektoren a1, . . . ,an die Menge

P(a1, . . . ,an) = {λ1a1+. . .+λnan | 0≤λi ≤1für alle 1≤i≤n}.

Das n-dimensionale Volumen, das von P beschreiben wird, kann man mit Hilfe der Determinanten berechnen, indem man die Vektoren als Spalten einer Matrix verwendet:

Vol(P(a1, . . . ,an)) =|det(a1, . . . ,an)|.

9.3 Determinante eines Endomorphismus

Die Determinante ist zunächst nur für eine Matrix definiert. Man kann jedoch auch einem Endomorphismus (einer linearen Abbildung eines Vektorraums auf sich selbst) eine Determinante zuordnen.

Definition 9.23 (Determinante eines Endomorphismus)

Sei V ein K-Vektorraum und f : V → V eine lineare Abbildung. Sei die lineare Abbil-dung bzgl. einer (beliebig gewählten) Basis B als Matrix MB,B(f) dargestellt. Dann ist die Determinante von f definiert durch

detf := det (MB,B(f)).

Es lässt sich fragen, ob diese Definition sinnvoll ist, da die Matrixdarstellung von der Basiswahl abhängt und damit auch die Determinante des Endomorphismus bei verschie-dener Wahl der Basis verschieden sein könnte. Dies ist zum Glück nicht der Fall.

Satz 9.24 (Ähnlich Matrizen haben dieselbe Determinante) Ähnliche Matrizen haben dieselbe Determinante.

Beweis. Sind zwei MatrizenA,Ae ähnlich, dann gibt es eine invertierbare MatrixS, so dass Ae =SAS−1 gilt. Damit folgt auch

det(A) = det(SASe 1) = det(S) det(A) det(S1) = det(S) det(S)1det(A) = det(A).

Satz 9.25 (Eindeutigkeit der Determinante eines Endomorphismus)

Die Determinante eines Endomorphismus ist von der Basiswahl unabhängig.

Beweis. SeienB und Bezwei Basen. Dann gilt

MB,eBe(f) =TB,Be ·MB,B(f)·T−1

B,Be

und die Darstellungsmatrizen sind ähnlich, haben also dieselbe Determinante.

10 Eigenwerte

Zu einer linearen Abbildung f :V → W kann man ein Paar von Basen BV und BW so finden, dass die Matrixdarstellung der Abbildung bzgl. dieser Basen eine Diagonalgestalt hat. In der Sprache der Matrizen bedeutet dies, dass man zu einer Darstellungsmatrix A stets zwei inververtierbar Matrizen S und T finden kann, so dass durch

S·A·T1 =

1r 0 0 0

die Matrix A mit r = Rang(A) auf eine Matrix in Diagonalgestalt transformiert wird und die nötigen Transformationsmatrizen können algorithmisch ermittelt werden.

Bedeutend schwieriger wird die Fragestellung, wenn man zu einer linearen Abbildung eines Vektorraums auf sich selbst (d.h. zu einem Endomorphismus)

f :V →V

übergeht und eine einzige Basis BV sowohl für Urbildraum und Bildraum wählen möchte - erneut derart, dass die Darstellungsmatrix einfache Gestalt besitzt. Da man nun nur noch die Freiheit hat, eine anstatt zwei Basen zu wählen, ist dieses Problem aufwändiger zu lösen und im Allgemeinen wird man keine Transformation auf Diagonalgestalt finden.

In der Sprache der Matrizen ausgedrückt stellt sich also die Frage, ob und wann eine invertierbare Matrix S existiert, so dass man zu einer quadratischen Matrix A eine möglichst einfache Darstellung

Ae =S·A·S1 erhalten kann.

10.1 Eigenwert, Eigenvektor und Eigenräume

Definition 10.1 (Eigenwert und Eigenvektor)

Sei V ein K-Vektorraum und f :V →V ein Endomorphismus. Ein λ∈K heißt Eigen-wert von f, falls es einen Vektor v∈V mit v6=0 gibt, so dass gilt

f(v) =λ·v.

Zu einem Eigenwert λ ∈ K heißt jeder vom Nullvektor verschiedene Vektor v ∈ V Eigenvektor, sofern f(v) = λ·v gilt.

Eigenvektoren eines Endomorphismus sind also diejenigen Vektoren, die auf ein Vielfa-ches von sich selbst abgebildet werden und der Faktor, um den bei dieser Abbildung der Eigenvektor gestreckt wird, ist der zugehörige Eigenwert.

Bemerkung 10.2

Der Nullvektor 0 ∈ V ist per Definition niemals Eigenvektor von f. Es kann aber durchaus 0∈K ein Eigenwert von f zu Eigenvektoren v6=0 sein.

Beispiel 10.3 (i) Sei V = R und f(x) := 5·x. Dann ist λ = 5 ein Eigenwert von f Dann findet man durch

1 −1

(iii) Sei V = C((a, b);R) der Raum der beliebig oft differenzierbaren reellwertigen Funktionen auf dem Intervall (a, b). Betrachtet man als Endomorphismus

D:V →V, f 7→f0

die Ableitung der Funktionen, dann findet man zu jedemλ ∈Rdie Eigenvektoren v(x) = eλx, denn D(v) = eλx0

Dann sind die kanonischen Basisvektoren e1,e2,e3 Eigenvektoren und es gilt f(ei) =λiei, für i= 1, . . . ,3.

10.1 Eigenwert, Eigenvektor und Eigenräume Stellt man also einen beliebigen Vektorx=x1e1+x2e2+x3e3 durch diese Basis dar, so ist die Anwendung der linearen Abbildung nur eine Skalierung in den jeweiligen Basisrichtungen

f(x) = f(x1e1 +x2e2 +x3e3) (Darstellung durch Basis)

=x1f(e1) +x2f(e2) +x3f(e3) (Linearität)

=x1λ1e1+x2λ2e2+x3λ3e3. (Eigenwertgleichung) Am letzten Beispiel hat sich folgendes gezeigt: Kann man eine Basis von V finden, die nur aus Eigenvektoren von f :V →V besteht, so lässt sich jeder Vektor in dieser Basis notieren und die Anwendung vonf ist einfach nur noch eine Skalierung der Koeffizienten mit den Eigenwerten. Dies motiviert die folgende Definition.

Definition 10.4 (Diagonalisierbar)

Ein Endomorphismus f :V → V heißt diagonalisierbar, wenn es eine Basis aus Eigen-vektoren gibt.

Eine Basis aus Eigenvektoren möchte man sehr gerne finden, denn mit ihr wird die Matrixdarstellung eines Endomorphismus besonders einfach. Die Matrixdarstellung von f hat nämlich bzgl. dieser Basis dann eine Diagonalgestalt und auf der Diagonalen stehen die Eigenwerte zu den Eigenvektoren.

Satz 10.5 (Diagonalgestalt eines Endomorphismus)

Sei f : V → V ein Endomorphismus eines n-dimensionalen Vektorraums V. Dann ist f genau dann diagonalisierbar, wenn es eine Basis B = {v1, . . . ,vn} gibt, so dass die Darstellungsmatrix die Diagonalgestalt der Form

MB,B(f) =



λ1 . . . 0 ... ... ...

0 . . . λn



mit den zugehörigen Eigenwerten λ1, . . . , λn besitzt.

Beweis. Gibt es eine Basis aus Eigenvektoren B = {v1, . . . ,vn} mit den zugehörigen Eigenwerten λ1, . . . , λn, dann gilt für die Darstellungsmatrix

f(vj) = λjvj = Xn

i=1

λiδijvi, j = 1, . . . , n

und die Darstellungsmatrix hat die gesuchte Gestalt. Gibt es umgekehrt eine Basis bzgl.

der die Darstellung die Diagonalgestalt besitzt, dann sind alle Vektoren der Basis

Ei-genvektoren.

Leider ist es nicht immer möglich, eine solche Basis aus Eigenvektoren zu finden. Dies macht man sich anschaulich schon an Beispielen in zwei Dimensionen direkt klar.

Beispiele 10.6 (i) Die Drehung mit einen festen Winkel α um den Ursprung

f :R2 →R2,

x1

x2

7→

cos(α) −sin(α) sin(α) cos(α)

· x1

x2

bildet – außer für α = 0 oder π – keinen Vektor auf ein Vielfaches von sich selbst ab.

α x

f(x)

0

Daher besitzt die Drehung keine Eigenvektoren und Eigenwerte (außer für die Fälle α = 0, d.h. f(x) =x, und α=π, d.h. f(x) = −x).

(ii) Für dieScherung mit Faktorm∈R in Richtung der Abszisse

f :R2 →R2,

x1

x2

7→

1 m 0 1

· x1

x2

ist jeder Vektor v=c·e1 (c∈R) ein Eigenvektor und der Eigenwert ist1.

x f(x)

0

Alle anderen Vektoren x mit x2 6= 0 werden nicht auf ein Vielfaches abgebildet.

Daher besitzt die Scherung nur diesen einen Eigenwert.

(iii) Die Spieglung an einer Ursprungsgerade mit Winkel α zwischen Abszisse und Ge-rade

f :R2 →R2,

x1

x2

7→

cos(2α) sin(2α) sin(2α) −cos(2α)

· x1

x2

besitzt eine Basis aus Eigenvektoren.

Im Dokument 1.1 Mathematische Sprache (Seite 195-200)