• Keine Ergebnisse gefunden

6Determinanten

Im Dokument Mathematik f¨ur Informatiker (Seite 122-126)

Man sieht einer quadratischen Matrix nicht sofort an, ob sie regul¨ar ist. Eine effektive M¨oglichkeit dies festzustellen besteht darin, ihre Determinante zu be-rechnen, da sich herausstellen wird, daß eine quadratische Matrix A genau dann regul¨ar ist, wenn ihre Determinante detA6= 0.

F¨ur eine 2×2 Matrix A =

a11 a12 a21 a22

ist ihre Determinante definiert als

detA=

Man sieht leicht, daß detA= 0, falls die Spaltenvektoren von A linear anh¨angig sind. Durch einfache Fallunterscheidung ( ¨Ubung!) sieht man, daß aus detA = 0 auch folgt, daß ein Spaltenvektor aus dem anderen durch Multiplikation mit einem Skalar entsteht.

 ist detA definiert als das Spatprodukt ihrer Spaltenvektoren, d.h.

Aufgrund der geometrischen Interpretation des Spatprodukts ist klar, daß detA = 0 genau dann, wenn die Spaltenvektoren linear abh¨angig sind.

F¨ur den Fall allgemeinern×nMatrizen ist die Definition etwas komplizierter und Bedarf eines gewissen Vorbaus.

20Sei Ae=T−1AS undy =Aee i, d.h.T y =ASei =Aui. Also giltAui =T y=

yjvj. Somit sind die Komponenten von y die Koeffizienten der Darstellung von Aui bzgl.

der Basisv1, . . . , vm.

Definition VII.6.1 (Permutationen, Signatur)

F¨ur eine nat¨urliche Zahln bezeichne Sn die Menge der Permutationen der Men-ge {1, . . . , n}, d.h. der Menge der bijektiven Abbildungen von {1, . . . , n} nach {1, . . . , n}. Die Signatur von π∈Sn ist definiert als σ(π) = Q

1≤i<j≤n

π(i)−π(j) i−j . Offenbar ist |σ(π)| immer gleich 1. Ein Fehlstand von π ist ein Paar (i, j) mit 1≤i < j ≤n, sodaß π(j)< π(i). Man sieht leicht, daß σ(π) genau dann gerade ist, wenn die Anzahl der Fehlst¨ande von π gerade ist. Eine einfache Rechnung

¨uberzeugt einen davon, daß σ(π2 ◦ π1) = σ(π2)σ(π1) und σ(id) = 1. Also ist σ(π−1) =σ(π).

Mit (ij) bezeichne man diejenige Permutation, die i und j vertauscht und alle anderen Elemente von {1, . . . , n} unver¨andert l¨aßt. Permutationen dieser einfa-chen Gestalt nennt man Transpositionen. F¨ur 1 ≤ i < j ≤n ist die Anzahl der Fehlst¨ande der Transposition (ij) gleich (j−i) + (j−i−1), also ungerade. Wenn π=τm◦ · · · ◦τ1, wobei die τj Transpositionen sind, dann istσ(π) = (−1)m. Definition VII.6.2 (Determinante)

F¨ur A = aij

i= 1, . . . , n j = 1, . . . , n

ist ihre Determinante definiert als detA = |A| = P

π∈Sn

σ(π)

n

Q

i=1

aiπ(i).

Durch (geduldiges) Nachrechnen sieht man, daß die allgemeine Definition f¨ur die Spezialf¨alle n = 2,3 mit den obigen ad hoc Definitionen ¨ubereinstimmt.

Ohne Beweis sei hier folgender Satz angef¨uhrt, der das oben im Falle n = 3 beobachtete Schema verallgemeinert.

Satz VII.6.3 (Laplacescher Entwicklungssatz) F¨ur A∈Knn gilt

a) detA=

n

P

j=1

(−1)i+j ·aij ·detAeij (Entwicklung nach i-ter Zeile) b) detA=

n

P

i=1

(−1)i+j·aij·detAeij (Entwicklung nach j-ter Spalte)

wobei Aeij diejenige (n−1)×(n−1) Matrix ist, die aus A durch Streichung der i-ten Zeile undj-ten Spalte hervorgeht.

Weitere n¨utzliche Eigenschaften von Determinanten sind in folgendem Satz zu-sammengefaßt.

Satz VII.6.4

a) detI = det(e1|. . .|en) = 1

b) det ist in jeder Spalte linear, d.h det(a1|. . .|aj−1|

m

X

i=1

λibi|aj+1|. . .|an)

=

m

X

i=1

λidet(a1|. . .|aj−1|bi|aj+1|. . .|an)

c) det(a1|. . .|ai|. . .|aj|. . .|an) = −det(a1|. . .|aj|. . .|ai|. . .|an)

d) detAT = detA (daraus folgen analoge Aussagen f¨ur Zeilen (z.B. ist det auch in jeder Zeile linear).

e) det(A·B) = det(A)·det(B)

Beweis: Die ersten vier Behauptungen folgen relativ unmittelbar aus der Defini-tion und Satz VII.6.3. Wir beweisen nun Behauptung e) unter Verwendung der Aussagen b)-d). Seien a1, . . . , an bzw. b1, . . . , bn die Spaltenvektoren von A bzw.

B. Dann sindAb1, . . . , Abn die Spaltenvektoren von AB. Also gilt det(AB) = det(Ab1 | · · · |Abn) = det (Pn

k=1bk1ak| · · · |Pn

k=1bknak)=b)

=Pn

k1=1· · ·Pn

kn=1bk11. . . bknndet(ak1 | · · · |akn)(1)=

= P

π∈Sn

bπ(1)1. . . bπ(n)ndet(aπ(1) | · · · |aπ(n))(2)=

= P

π∈Sn

σ(π)bπ(1)1. . . bπ(n)ndet(a1 | · · · |an) = det(A) det(BT)=d)

= det(A) det(B)

Aus c) folgt, daß die Determinante gleich 0 ist, wenn zwei verschieden Spalten gleich sind. Dies rechtfertigt Schritt (1). Durch mehrfache Anwendung von c) folgt, daß det(aπ(1) | · · · |aπ(n)) =σ(π) det(a1 | · · · |an). Dies rechtfertigt Schritt

(2).

Zuerst sei bemerkt, daß die Anforderungen a), b) und c) die Abbildung det : Knn→K eindeutig festlegen. Bedingung b) besagt, daß det in jeder Spalte linear ist. Deshalb ist die Funktion det festgelegt durch ihr Verhalten auf Matrizen, deren Spaltenvektoren alle Koordinateneinheitsvektoren sind. Aus c) folgt, daß eine solche Matrix Determinante 0 hat, wenn ein Koordinateneinheitsvektor in mehreren Spalten vorkommt. Sofern aber in den Spalten alle Koordinatenein-heitsvektoren vorkommen, l¨aßt sich mithilfe von a) und c) bestimmen, ob die Determinante 1 oder−1 ist, denn es gilt det(eπ(1) | · · · |eπ(n)) =σ(π).

Aus Satz VII.6.3 folgt, daß detA = 0, wenn einer der Zeilenvektoren oder einer der Spaltenvektoren gleich 0 ist. Daraus folgt mit b), daß die Determinante einer Matrix sich nicht ¨andert, wenn man zur i-ten Spalte ein Vielfaches der j-ten

Spalte addiert, sofern i 6= j. Somit ist die Determinante einer Matrix, deren Spaltenvektoren linear abh¨angig sind, gleich 0. Wenn aber die Spaltenvektoren von A linear unabh¨angig sind, dann ist A invertierbar und somit gilt wegen e), daß 1 = det(In) = det(AA−1) = det(A) det(A−1), und somit detA 6= 0. Also haben wir soeben folgenden Satz bewiesen.

Satz VII.6.5

Eine quadratische Matrix ist genau dann invertierbar, wenn detA 6= 0.

Eine konkrete Formel zur Berechnung inverser Matrizen stellt folgender Satz be-reit.

Satz VII.6.6 Sei A= (aij) eine invertierbare n×n Matrix, dann berechnet sich die dazu inverse Matrix nach der Formel

A−1 = (−1)i+jdetAeji detA

!

i= 1, . . . , n j = 1, . . . , n

Beweis: Die Formel ist sinnvoll, da nach Satz VII.6.5 die Matrix A genau dann invertierbar ist, wenn detA6= 0.

Das Element in deri-ten Zeile undj-ten Spalte der MatrixAA−1ist

n

P

k=1

aik(−1)k+jdetdetA Aejk. Im Fallei =j ist dies wegen Satz VII.6.3 a) gleich detAdetA = 1. Wenn i6= j, dann ist wegen Satz VII.6.3 a) die Summe

n

P

k=1

aik(−1)k+jdetAejk = detB, wobei B diejenige Matrix ist, die aus A hervorgeht, indem man die j-te Zeile durch die i-te Zeile ersetzt. Da dann detB = 0, gilt

n

P

k=1

aik(−1)k+jdetdetA Aejk = detBdetA = det0A = 0.

F¨ur eine invertierbare 2×2 Matrix A =

a11 a12

a21 a22

berechnet sich also ihre in-verse Matrix nach der Formel

A−1 = 1 detA

a22 −a12

−a21 a11

Die Formel f¨ur inverse Matrizen ist auch die Grundlage der als Cramersche Regel bekannten Methode zur L¨osung eines linearen Gleichungssystems Ax = b im Falle, daß A invertierbar ist. Es gilt dann n¨amlich, daß x = A−1b die eindeutig bestimmte L¨osung von Ax=b ist, d.h.

xi =

n

X

j=1

(−1)i+jbjdetAeji

detA = det(a1 | · · · |ai−1 |b|ai+1 | · · ·an) detA

wobei aj der j-te Spaltenvektor von A ist. Da die Berechnung von Determinan-ten jedoch sehr aufwendig ist (n·n! Multiplikationen und (n−1)n! Additionen) und außerdem numerisch instabil ist, verwendet man in der Praxis eher das im

¨ubern¨achsten Abschnitt vorgestellte Gaußsche Eliminationverfahren, das schon aus der Schule bekannt ist.

Im Dokument Mathematik f¨ur Informatiker (Seite 122-126)