• Keine Ergebnisse gefunden

6.1. Erinnerung. SeiV einn-dimensionaler pr¨a-Hilbertraum, also einn-dimensionaler Vektorraum

¨

uberK(=RoderC) versehen auch mit einemSkalarprodukt h·,·i →K.

Dieeuklidische Normist definiert durchkxk=p

hx, xi. Zwei Vektorenx, y∈V heißenorthogonal, falls hx, yi= 0 (x⊥y). Man sagt, dass die Vektorene1, . . . , en eineOrthonormalbasisinV bilden falls

hei, eji=

(1 falls i=j

0 sonst , also falls keik= 1, ei⊥ej f¨uri6=j.

DasStandardskalarproduktinCn (oder Rn) ist definiert durch:

hx, yi=

n

X

i=1

xiyi.

Eine Orthonormalbasis ist tats¨achlich eine Basis. Die Koordinaten bzgl. einer Orthonormalbasis sind leicht zu bestimmen! Den folgenden Satz haben wir auch schon gesehen, jetzt aber nochmal als Wie-derholung:

Satz 6.1.1. Seie1, . . . , en eine Orthonormalbasis inV. a) Istx∈V mitx=Pn

j=1xjej, dann gilt

xi=hx, eii also x=

n

X

j=1

hx, ejiej.

b) Zwei Vektoren x, y∈V sind genau dann gleich, wenn f¨ur allez∈V die Gleichheit hx, zi=hy, zi gilt.

Dies ist weiter ¨aquivalent zu

hx, eii=hy, eii f¨ur allei= 1, . . . , n.

c) IstL:V →Keine Linearform, dann existiert genau einz∈V mit L(x) =hx, zi f¨ur allez∈V. Beweis. a) Es gilt:

hx, eii=

n

X

j=1

hxjej, eii=xi.

b) Seien x, y∈V. Es reicht x=y zu zeigen: fallshx, eii=hy, eiigilt f¨ur allei= 1, . . . , n. Dies folgt aber aus a): Schreibe

x=

n

X

j=1

xjej und y=

n

X

j=1

yjej.

Wegen a) giltxj=hx, ejiundyj =hy, eji, also nach der Voraussetzung folgtx=y auch.

c) Setze yi:=L(ei). Dann gilt L(x) =

n

X

i=1

xiL(ei) =

n

X

i=1

xiyi=DXn

i=1

xiei,

n

X

j=1

yjej

E

=hx, yi.

Satz 6.1.2. SeiT :U →V eine lineare Abbildung und L={e1, . . . , en}, L0 ={f1, . . . , fm} Ortho-normalbasen inU bzw. inV.

a) IstA=MTL,L0,A= (αij), dann gilt

αij =hT ej, fii.

76

b) F¨urS:U →V linear giltS=T genau dann, wenn

hSx, yi=hT x, yi f¨ur allex, y∈V .

Beweis. a) Folgt einfach aus den Definitionen: in derj-ten Spalte vonMTL,L0 steht der Koordinaten-vektor vonT ej. Diese Koordinaten sind eben

αij =hT ei, fji.

b) Folgt aus dem obigen Satz 6.1.1.b).

6.2. Adjungierte einer linearen Abbildung. Der Vektorraum aller linearen Abbildungen vonU nachV wird mitL(U, V) bezeichnet.

Satz 6.2.1. Sei T ∈ L(U, V). Es gibt dann genau ein T ∈ L(V, U) (also eine lineare Abbildung T:V →U) mit

hT x, yi=hx, Tyi f¨ur allex∈U,y∈V . IstA=MTL,L0 mitLbzw.L0 Orthonormalbasen inU bzw.V, so gilt

MTL0,L=A>=:A.

Die AbbildungTheißt dieadjungierte AbbildungvonT, und die MatrixAist dieAdjungierte der MatrixA.

Beweis. F¨ur beliebiges y ∈ V definiere die Linearform Ly : U → K, Ly(x) := hT x, yi. Wegen Satz 6.1.1c) existiert ein eindeutiger Vektorz∈U mit

Ly(x) =hx, zi.

SetzeTy=z. Aus der Eindeutigkeit bekommt man, dassTlinear sein muss. N¨amlich: sindy1, y2∈V undλ∈K, so ist

Ly1+λy2(x) =hT x, y1+λy2i=hT x, y1i+λhT x, y2i=Ly1(x) +λLy2(x) =hx, Ty1i+hx, λTy2i.

Beispiel. 1. Sei

A= 0 1

1 0

. So gilt A= 0 1

1 0

=A.

2. Sei

A= 0 i

0 0

. So gilt A=

0 0

−i 0

. 3. Sei

A=

cosϕ −sinϕ sinϕ cosϕ

. So gilt A=

cos(−ϕ) −sin(−ϕ) sin(−ϕ) cos(−ϕ)

=A−1. 4. SeiT gegeben durch der Diagonalmatrix

A=

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

 (bzgl. einer Orthonormalbasis). Dann ist die Matrix vonT

A=

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

 .

6.3. Eigenschaften der adjungierten Abbildung und der adjungierten Matrix. Im Folgenden werden wir Satz 6.1.2b) oft benutzen.

78 ADJUNGIERTE ABBILDUNG

0. F¨ur die Identit¨atI:U →U gilt

I=I.

F¨ur die Nullabbildung 0 :U →V gilt

0:V →U die Nullabbildung.

Beweis. Es gelten:

hx, Iyi=hIx, yi=hx, yi,hx, Oyi=hOx, yi= 0 =hx, Oyi.

und

Daraus folgt die Behauptung.

1. F¨urT :V →V giltT∗∗=T. Beweis. Seienu, v∈V. Dann gilt:

hT u, vi=hu, Tvi=hTv, ui=hv, T∗∗ui=hT∗∗u, vi.

2. F¨urS, T ∈L(U, V),λ∈Kgilt

(S+λT)=S+λT. Beweis. Seienu, v∈V. Dann gilt:

h(S+λT)u, vi=hSu+λT u, vi=hu, Svi+λhu, Tvi=hu,(S+λT)vi.

3. F¨urS∈L(U, V),T ∈L(V, W) gilt

(T S)=ST. Beweis. Seienu∈U,w∈W. Dann gilt:

hT Su, wi=hSu, Twi=hu, STwi.

4. F¨urT ∈L(U, V) gilt

KernT = (BildT). Beweis. Seiu∈KernT, und seiv∈V. Dann gilt

hT u, vi=hu, Tvi= 0, alsou∈(BildT). Ist umgekehrtu∈(BildT), so gilt

0 =hu, Tvi und somithT u, vi= 0 f¨ur allev∈V . Daraus folgtT u= 0, d.h. u∈KernT.

5. Es gilt

Rang(T) = Rang(T).

Beweis. Sei A eine Matrix von T bzgl. einer Orthonormalbasis. So ist A eine Matrix von T. Daraus folgt die Behauptung, denn:

Rang(T) = Rang(A) = Rang(A>) = Rang(A>) = Rang(T).

6. F¨urT :V →V gilt

Det(T) = Det(T)

Beweis. Bemerke zun¨achst, dass f¨ur eine beliebige quadratische Matrix gilt Det(B) = Det(B).

Diese folgt aus der Definition der Determinante (siehe 4.13). Sei alsoAeine Matrix vonTbzgl. einer Orthonormalbasis. Dann gilt

Det(T) = Det(A) = Det(A>) = Det(A>) = Det(A) = Det(T).

7. F¨urT :V →V undλ∈Kgilt die ¨Aquivalenz:

λ∈σ(T) ⇐⇒ λ∈σ(T).

Beweis. Die Behauptung folgt aus den folgenden ¨Aquivalenzen:

λ∈σ(T) ⇐⇒ Det(T−λI) = 0 ⇐⇒ Det(T−λI) = 0 ⇐⇒ λ∈σ(T).

6.4. Normale Abbildungen.

Definition. Eine AbbildungT :V →V heißtnormal, falls TT =T T gilt.

Beispiel. 1. Die AbbildungT gegeben durch die Matrix A=

0 1 0 0

istnicht normal.

2. Die AbbildungT gegeben durch die Matrix A=

0 1

−1 0

istnormal.

3. IstT=T, oderT=−T, oderT=T−1 so istT normal.

Bemerkung. Sei A=MTL,L die Matrix von T bzgl. einer Orthonormalbasis. Dann istMTL,L =A, und somit istT genau dann normal, falls

AA=AA gilt. Matrizen mit dieser Eigenschaft heißen auchnormal.

Satz 6.4.1. SeiT :V →V eine lineare Abbildung, so dass eine Orthonormalbasis aus Eigenvektoren vonT inV existiert. Dann istT normal.

Beweis. SeiLeine Orthonormalbasis inV aus Eigenvektoren vonT, dann

A:=MTL,L=

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

, und MTL,L =

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

=A.

Daraus folgt

AA=AA und somit TT =T T. Satz 6.4.2. IstT normal undx∈V, so gilt

kT xk=kTxk.

Beweis. Es gilt

kT xk2=hT x, T xi=hx, TT xi=hx, T Txi=hTx, Txi=kTxk2. Satz 6.4.3. SeiT normal. Iste∈V undλ∈Kmit

T e=λe so gilt

Te=λe, d.h.

Kern(T−λI) = Kern(T−λI).

80 UNIT ¨ARE ABBILDUNGEN

Beweis. Bemerke zun¨achst das Folgende: Ist T normal, so ist f¨ur jedes λ ∈ K auch die Abbildung T−λI normal. Denn es gilt

(T−λI)(T−λI) = (T−λI)(T−λI) =TT−λT−λT+λλI= (T−λI)(T−λI) = (T−λI)(T−λI). F¨ureundλwie in der Behauptung gilt nun wegen Satz 6.4.2:

0 =k(T−λI)ek=k(T−λI)ek, alsoTe=λe.

Satz 6.4.4. SeiT normal, und seiene∈V,λ∈Kmit T e=λe.

Setze

W :={e}=

x∈V :hx, ei= 0 . Dann ist W invariant unterT undT, d.h. es gelten:

T(W)⊆W und T(W)⊆W.

Beweis. Seiw∈W, alsohw, ei= 0. Es gilt

he, T wi=hTe, wi=λhe, wi= 0, d.h.T w∈W.

he, Twi=hT e, wi=λhe, wi= 0, d.h.Tw∈W, wir haben hier Satz 6.4.3 benutzt.

Hauptsatz 6.4.5. Sei V ein komplexer, endlichdimensionaler (pr¨a-)Hilbertraum. F¨ur T : V → V linear sind die folgenden Aussagen ¨aquivalent:

(i) Es gibt eine Orthormalbasis inV die aus Eigenvektoren von T besteht.

(ii) Die AbbildungT ist normal, d.h.TT =TT.

Beweis. Die Implikation “(i)⇒(ii)” haben wir im Satz 6.4.1 gesehen.

Nun zur Implikation “(ii)⇒ (i)”: Wir beweisen mit vollst¨andiger Induktion nachn= Dim(V). Der Fall n = 1 ist klar: jede Abbildung ist normal und (i) ist auch trivialerweise erf¨ullt. Sei also die Aussage f¨ur n≥1 f¨ur jede normale Abbildung auf W mit Dimension Dim(W)≤n richtig. Seien+1

ein Eigenvektor f¨ur T : V → V, welcher wegenK =C existiert (siehe Korollar 5.4.2). Wir k¨onnen nat¨urlichen+1 umnormieren und somit ken+1k= 1 erreichen. SeiW ={en+1} und setzeS :=T|W

(T eingeschr¨ankt aufW). So ist, wegen Satz 6.4.4, auch die Abbildung S:W →W

normal. Da Dim(W) = n existiert nach Induktionsvoraussetzung eine Orthonormalbasis e1, . . . , en in W aus Eigenvektoren von S (also von T). Diese zusammen mit en+1 haben die gew¨unschten Eigenschaften.

6.5. Unit¨are und orthogonale lineare Abbildungen.

Definition. SeiT :V →V linear, das das Skalarprodukt erh¨alt, also mit hT u, T vi=hu, vi f¨ur alleu, v∈V . So heißtT

a) (im FalleK=C)unit¨ar;

b) (im FalleK=R)orthogonal.

Beispiel. Rotationen und Spiegelungen sind orthogonal, Diagonalmatrizen mit unimodularen Ein-tr¨agen sind unit¨ar:

cosϕ −sinϕ sinϕ cosϕ

0 1 1 0

exp(iµ1) 0 . . . 0

0 . .. ...

... . .. 0

0 . . . 0 exp(iµn)

, µ1, . . . , µn∈R

Entscheidend wird der folgende Trick, genanntPolarisierung, der das Skalarprodukt mithilfe der Norm (zum Quadrat) ausdr¨uckt:

hx, yi=1

4 kx+yk2− kx−yk2 F¨urK=Rgilt:

hx, yi=1

4 kx+yk2− kx−yk2−ikx−iyk2+ikx+iyk2 F¨urK=Cgilt:

(Dies haben wir schon gesehen, siehe 2.10).

Hauptsatz. SeiV komplexer,n-dimensionaler (pr¨a)-Hilbertraum. F¨urT ∈L(V, V) sind die folgen-den Aussagen ¨aquivalent:

(i) T ist unit¨ar.

(ii) T istisometrisch, d.h. erh¨alt die L¨angen von Vektoren, genauer:kT vk=kvkgilt f¨ur allev∈V. (iii) T ist invertierbar mitT−1=T.

(iv) T ist normal mit

σ(T)⊆

λ:|λ|= 1 . (v) T transformiert Orthonormalbasen in Orthonormalbasen.

(vi) F¨urjede Orthonormalbasis LinV, bilden die Spalten der MatrixMTL,L eine Orthonormalbasis inCn.

(vii) Es gibtein OrthonormalbasisLinV, so dass die Spalten der MatrixMTL,Leine Orthonormalbasis inCn bilden.

Beweis. (i)⇒(ii): FallsT das Skalarprodukt erh¨alt, ist es auch isometrisch:

kT xk2=hT x, T x,i=hx, xi=kxk2.

(ii)⇒(iii): IstT isometrisch, so istT injektiv, denn T x= 0 impliziert kxk=kT xk= 0, also x= 0.

Wegen der Dimensionsformel istT auch surjektiv, alsoT ist invertierbar. Wegen Polarisierung gilt hx, yi=hT x, T yi=hx, TT yi.

Aus Satz 6.1.2b) folgtx=TT xf¨ur jedes x∈V, also T=T−1.

(iii) ⇒ (iv): Es giltT T =T T−1 =I = T−1T = TT, also T ist normal. Nach Satz 6.4.5 gibt es eine OrthonormalbasisL, so dass MTL,L=A diagonal wird; auf der Diagonale stehen die Eigenwerte λ1, . . . , λn. Die AbbildungThat einerseits die Matrix

MTL,L =A=A> =A, anderseits

MTL,L =MTL,L−1 =A−1. Daraus folgtλi−1i , also|λi|2= 1 und somit die Behauptung.

(iv)⇒(i): Sei L={e1, . . . , en}eine Orthonormalbasis aus Eigenvektoren von T. So ist, wegen Satz 6.4.3,

hT x, T yi=

n

X

i=1

hT x, eiihT y, eii=

n

X

i=1

hx, Teiihy, Teii

=

n

X

i=1

λihx, eii ·λihy, eii=

n

X

i=1

hx, eiihy, eii=hx, yi.

(i)⇒(v): SeiL={e1, . . . , en}eine Orthonormalbasis inV. Dann gilt hT ei, T eji=hei, eji=

(1 fallsi=j 0 fallsi6=j, alsoT e1, . . . , T en ist eine Orthonormalbasis in V.

(v)⇒(vi): SeiL={e1, . . . , en}eine Orthonormalbasis inV. Nach Voraussetzung bildenT e1, . . . , T en

eine Orthonormalbasis inV, deren Koordinatenvektoren in den Spalten vonMTL,L stehen.

82 SELBSTADJUNGIERTE ABBILDUNGEN

(vi)⇒(vii) ist klar.

(vii)⇒(iii): SeiL eine Orthonormalbasis inV, so dass die Spalten vonMTL,Leine Orthonormalbasis f1, . . . , fn inCn bilden. In Spaltenvektornotation ist also

MTL,L= (f1, f2, . . . , fn).

Somit gilt in Zeilenvektornotation:

MTL,L =

Bemerkung. Im FalleK=Rbetrachte die DrehungTϕ um WinkelϕinR2 mit Matrix Aϕ=

cosϕ −sinϕ sinϕ cosϕ

. Betrachte die folgende Aussage:

(iv0) Es gibt eine Orthonormalbasis LinV, so dass die Matrix vonT die folgende Block-Form hat:

MTL,L=

Definition. Eine lineare AbbildungT :V →V heißt a) selbstadjungiert, fallsT =T.

b) schiefadjungiert, fallsT =−T.

Bemerkung. Nach 6.2.1 ist T genau selbstadjungiert, wenn bzgl. einer Orthonormalbasis L die MatrixA:=MTL,L selbstadjungiertist, d.h. sie erf¨ullt

A=A.

IstA=−A, so heißtAschiefadjungiert.

Beispiel. 1. IstT ∈L(V, V) beliebig, so istT +T selbstadjungiert.

2. IstT ∈L(V, V) beliebig, so ist T−T schiefadjungiert.

3. IstT ∈L(V, V) selbstadjungiert, so istiT schiefadjungiert.

4. IstT ∈L(V, V) beliebig, dann gilt

T = T+T

2 +T −T 2 wobei

T+T

2 ist selbstadjungiert und T−T

2 ist schiefadjungiert.

5. IstT ∈L(V, V) beliebig, so sindTT undT Tselbstadjungiert.

Hilfssatz 6.6.1(Polarisierung). a) Sei K = C und seien S, T ∈ L(V, V) lineare Abbildungen.

Dann gilt:

S=T ⇐⇒ hSx, xi=hT x, xi f¨ur allex∈V.

b) IstK=Rund sindS, T ∈L(V, V) selbstadjungierte lineare Abbildungen, so gilt S=T ⇐⇒ hSx, xi=hT x, xi f¨ur allex∈V.

Beweis. a) Die Implikation “⇒” ist trivial. Um “⇐” zu beweisen, reicht es wegen Satz 6.1.2.b) zu zeigen, dass f¨ur allex, y∈V

hSx, yi=hT x, yi gilt.

Seienx, y∈V beliebig. Wie bei der Polarisierung k¨onnen wir schreiben:

1 4

hS(x+y), x+yi − hS(x−y), x−yi+ihS(x+iy), x+iyi −ihS(x−iy), x−iyi

= 1 4

hSx, xi+hSy, xi+hSx, yi+hSy, yi

−hSx, xi+hSy, xi+hSx, yi − hSy, yi +ihSx, xi − hSy, xi+hSx, yi+ihSy, yi

−ihSx, xi − hSy, xi+hSx, yi −ihSy, yi

=hSx, yi.

Dies ist nat¨urlich auch richtig, wennS durchT ersetzt wird. Daraus folgt, dasshT x, yi=hSx, yigilt, falls f¨ur allex∈V die GleichheithT x, xi=hSx, xigilt.

b) geht analog wie a), nur muss man die folgende Identit¨at verwenden:

1 4

hS(x+y), x+yi − hS(x−y), x−yi

= 1 4

hSx, xi+hSx, yi+hSy, xi+hSy, yi − hSx, xi+hSx, yi+hSy, xi − hSy, yi und, daS selbstadjungiert ist:

= 1 4

hSx, yi+hSx, yi+hSx, yi+hSx, yi

=hSx, yi.

Bemerkung. Der obige Satz bleibt nicht richtig f¨ur K =R, wenn S oderT nicht selbstadjungiert ist. Betrachte die lineare AbbildungenTA, TB, TC:R2→R2gegeben durch die Matrizen

A:=

1 1 0 1

, B:=

1 0 1 1

C:=

1 12

1 2 1

. Dann gelten

TA x y

, xy

= x+y y

, xy

=x2+xy+y2, TB x

y

, xy

= x x+y

, xy

=x2+xy+y2, TC x

y

, xy

= x+12y y+12x

, xy

=x2+xy+y2.

Die AbbildungenTA, TB, TC sind aber alle unterschiedlich, undTC ist sogar selbstadjungiert.

Hauptsatz 6.6.2. SeiV ein komplexer Vektorraum. F¨urT ∈L(V, V) sind ¨aquivalent:

(i) T ist selbstadjungiert.

84 POSITIV DEFINITE ABBILDUNGEN

(ii) T ist normal und

σ(T)⊆R. (iii) hT x, xi ∈Rgilt f¨ur allex∈V.

Beweis. (i)⇒(ii): IstT selbstadjungiert, so ist es nat¨urlich auch normal:TT =T T =T T. Wegen Satz 6.4.5 gibt es eine Orthonormalbasis inV aus Eigenvektoren vonT. Somit gilt

A:=MTL,L=

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

, und A=MTL,L =

λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn

 .

DaA=A, es gilt λii, d.h.λi∈R.

(ii) ⇒ (i): Falls T normal ist, finden wir eine Orthonormalbasis aus Eigenvektoren von T, so dass A=MTL,L diagonal wird. Daσ(T)⊆R, giltA=A, und somitT =T.

(i)⇒(iii): F¨urx∈V gilt

hT x, xi=hx, Txi=hx, T xi=hT x, xi, und somithT x, xi ∈R.

(iii)⇒(i): Nach Voraussetzung gilt

hx, T xi=hx, T xi=hT x, xi=hx, Txi, und somit wegen Polarisierung (Lemma 6.6.1a)T =T.

Bemerkung. Der Fall K= R.Sei L irgendeine Orthonormalbasis und sei A =MTL,L eine reelle Matrix. Die AbbildungT ist genau dann selbstadjungiert, wenn

A=A> =A also wennAsymmetrisch ist.

Nach 6.4.5 existiert eine Orthonormalbasis aus Eigenvektoren von T. Diese Eigenvektoren sind aber nur inCngarantiert! Wir wissen bereits, dass die Eigenwerte vonT alle reell sind. Daraus bekommen wir f¨urλ∈σ(T), dass f¨urx∈Cn mit

Ax=λx, gilt auch Ax=Ax=λx=λx,

wobei man benutzt dassAundλbeide reell sind. Daher k¨onnen wir Eigenvektoren inRn finden:

Ax+x 2

=λx+x

2 und Ax−x 2i

=λx−x 2i .

Also falls x∈Cn ein Eigenvektor zum Eigenwertλ ist, so ist Rex∈Rn oder=x∈Rn auch Eigen-vektor zum λ (einer der beiden ist nicht 0). Daraus kann man induktiv eine Orthonormalbasis aus Eigenvektoren vonT inRn finden.

Wir haben also den folgenden Satz bewiesen.

Satz. IstV ein endlichdimensionalerR-Vektorraum undT ∈L(V, V) selbstadjungiert, so istT auch

¨

uberRdiagonalisierbar.

Beispiel. SeiU ⊆V ein Unterraum, und seie1, . . . , em Or-thonormalbasis inU, erg¨anze sie zu einer Orthonormalbasis e1, . . . , en inV. Die orthogonale ProjektionP vonV auf U ist definiert durch

P:V →V, P x= Die AbbildungP ist selbstadjungiert. Denn:

hP x, xi=DXm

6.7. Positiv semidefinite Abbildungen. Bei reellen Zahlen unterschiedet man positive, nicht-negative, negative etc. Im Komplexen gelingt dies nicht immer: Sollen wir 1−i als positiv oder als negativ ansehen? Eine (reelle) Zahlt ist nicht-negativ genau dann, wennt= ¯s·sgilt f¨ur eins∈C. Eine ¨ahnliche Eigenschaft gilt auch f¨ur lineare Abbildungen.

Beispiel. Welche der folgenden linearen Abbildungen (auf R2 bez¨uglich der Standardbasis) w¨urde man sinnvollerweisepositiv nennen?

A =

Satz. SeiV komplexer Vektorraum. F¨urT :V →V sind ¨aquivalent.

(i) hT x, xi ≥0 [oder>0] f¨ur allex∈V,x6= 0.

(ii) T ist selbstadjungiert und

σ(T)⊆R+ [oderR+\ {0}]. kannλ= 0 kein Eigenwert sein.

(ii)⇒(iii): Sei Leine Orthonormalbasis inV aus Eigenvektoren vonT. Dann gilt

A=MTL,L= List selbstadjungiert und erf¨ullt

SS=SS =T.

Der Zusatz: Istσ(T)⊆R\ {0}, so giltλi >0, alsoS und somitB ist invertierbar.

86 POSITIV DEFINITE ABBILDUNGEN

(iii)⇒(i): F¨urx∈V gilt

hT x, xi=hSSx, xi=hSx, Sxi ≥0.

Dies beweist “(iii)⇒(i)”. Ist zus¨atzlichS invertierbar, so kann hierkSxk2=hSx, Sxi= 0 nur dann stehen, wenn x= 0.

Definition. Eine lineare AbbildungT :V →V heißt a) positiv semidefinit, falls hT x, xi ≥0 f¨ur allex∈V. b) positiv definit, falls hT x, xi>0 f¨ur allex∈V,x6= 0.

c) negativ (semi)definit, falls−T positiv (semi)definit ist.

d) indefinit, falls keiner der obigen gilt.

Wir sagen, dass eine Matrix A ∈ Mn,n eine dieser Eigenschaften hat, falls die lineare Abbildung TA:Cn→Cn,TAx=Axdie jeweilige Eigenschaft besitzt.

Satz 6.7.1 (Sylvester). SeiA einen×n-Matrix. Bezeichne durch Ak die k×k-Matrix, welche die Elemente der ersten k-Zeilen und derk-Spalten enth¨alt, d.h.

Ak =

α11 α12 . . . α1k

... ... ... ... ... ... αk1 α12 . . . αkk

(die so genannteHauptminoren). Genau dann istApositiv definit, wenn Det(Ak)>0 f¨ur allek= 1, . . . , ngilt.

Beweis. Ohne Beweis.

Index