6. Normale Abbildungen
6.1. Erinnerung. SeiV einn-dimensionaler pr¨a-Hilbertraum, also einn-dimensionaler Vektorraum
¨
uberK(=RoderC) versehen auch mit einerSkalarprodukt h·,·ra→K. Dieeuklidische Normist definiert durchkxk=p
hx, xi. Zwei Vektorenx, y∈V heißenorthogonal, falls hx, yi= 0 (x⊥y). Man sagt, dass die Vektorene1, . . . , en eineOrthonormalbasisinV bilden falls
hei, eji=
(1 fallsi=j
0 sonst , also falls keik= 1, ei⊥ej f¨uri6=j.
DasStandardskalarprodukt in Cn (oderRn) ist definiert durch:
hx, yi=
n
X
i=1
xiyi.
Eine Orthonormalbasis ist tats¨achlich eine Basis. Die Koordinaten bzgl. einer Orthonormalbasis sind leicht zu bestimmen! Den folgenden Satz haben wir auch schon mal gesehen, jetzt aber nochmal als Wiederholung:
Satz 6.1.1. Seie1, . . . , en eine Orthonormalbasis vonV. a) Istx∈V mitx=Pn
j=1xjej, dann gilt
xi=hx, eii also x=
n
X
j=1
hx, ejiej.
b) Zwei Vektoren x, y∈V sind genau dann gleich, wenn f¨ur allez ∈V die Gleichheit hx, zi=hy, zi gilt. Dies ist weiter ¨aquivalent zuhx, eii=hy, eiif¨uri= 1, . . . , n.
c) IstL:V →Keine Linearform, dann existiert genau einz∈V mit L(x) =hx, zi f¨ur allez∈V. Beweis. a) Es gilt:
hx, eii=
n
X
j=1
hxjej, eii=xi.
b) Seien x, y∈V. Es reicht x=y zu zeigen, fallshx, eii=hy, eiigilt f¨ur allei= 1, . . . , n. Dies folgt aber aus a): Schreibe
x=
n
X
j=1
xjej und y=
n
X
j=1
yjej.
Wegen a) giltxj=hx, ejiundyj =hy, eji, also nach der Voraussetzung folgtx=y auch.
c) Setze yi:=L(ei). Dann gilt
L(x) =
n
X
i=1
xiL(ei) =
n
X
i=1
xiyi=DXn
i=1
xiei,
n
X
j=1
yjejE
=hx, yi.
Satz 6.1.2. SeiT :U →V eine lineare Abbildung und L={e1, . . . , en}, L′ ={f1, . . . , fm} Ortho- normalbasen inU bzw. inV.
a) IstA=MTL,L′,A= (αij), dann gilt
αij =hT ej, fii.
b) F¨urS:U →V linear giltS=T genau dann, wenn
hSx, yi=hT x, yi f¨ur allex, y∈V .
Beweis. a) Folgt einfach aus den Definitionen: in der j-te Spalte vonMTL,L′ steht der Koordinaten- vektor von T ej. Diese Koordinaten sind eben
αij =hT ei, fji.
b) Folgt aus dem obigen Satz b).
6.2. Adjungierte einer linearen Abbildung. Der Vektorraum aller linearen Abbildungen von U nach V wird mitL(U, V) bezeichnet.
Satz 6.2.1. SeiT ∈L(U, V). Es gibt dann genau eine lineare AbbildungT∗:V →U mit hT x, yi=hx, T∗yi f¨ur allex∈U,y∈V .
IstA=MTL,L′, so gilt
MTL∗′,L=A⊤=:A∗.
Die AbbildungT∗heißt dieadjungierte AbbildungvonT, und die MatrixA∗ist dieadjungierte der MatrixA.
Beweis. Definiere die Linearform Ly :V →K,Ly(x) :=hT x, yi. Wegen Satz 6.1.1 c) existiert einen eindeutigen Vektor z∈V mit
Ly(x) =hx, zi.
SetzeT∗y=z. Aus der Eindeutigkeit bekommt man, dassT∗linear sein muss. N¨amlich: sindy1, y2∈V undλ∈K, so ist
Ly1+λy2(x) =hT x, y1+λy2i=hT x, y1i+λhT x, y2i=Ly1(x) +λLy2(x) =hx, T∗y1i+hx, λ∗Ty2i.
Beispiel. 1. Sei
A= 0 1
1 0
. So gilt A∗= 0 1
1 0
=A.
2. Sei
A= 0 1
0 0
. So gilt A∗= 0 0
1 0
. 3. Sei
A=
cosϕ −sinϕ sinϕ cosϕ
. So gilt A∗=
cosϕ −sin(−ϕ) sin(−ϕ) cosϕ
=A−1. 4. SeiT gegeben durch der Diagonalmatrix
A=
λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn
(bzgl. einer Orthonormalbasis). Dann die Matrix vonT∗ ist
A∗=
λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn
.
6.3. Eigenschaften der adjungierten Abbildung und der adjungierten Matrix. Im Folgenden werden wir Satz 6.1.2 b) ganz oft benutzen.
0. F¨ur die Identit¨atI:U →U gilt
I∗=I.
F¨ur die Nullabbildung 0 :U →V gilt
0∗:V →U die Nullabbildung.
Beweis. Es gelten:
hx, I∗yi=hIx, yi=hx, yi,hx, o∗yi=h0x, yi= 0 =hx,0yi.
und
Daraus folgt die Behauptung.
1. F¨urT :V →V giltT∗∗=T.
Beweis. Seienu, v∈V. Dann gilt:
hT u, vi=hu, T∗vi=hT∗v, ui=hv, T∗∗ui=hT∗∗u, vi.
2. F¨urS, T ∈L(U, V),λ∈Kgilt
(S+λT)∗=S∗+λT∗. Beweis. Seienu, v∈V. Dann gilt:
h(S+λT)u, vi=hSu+λT u, vi=hu, S∗vi+λhu, T∗vi=hu,(S∗+λT∗)vi.
3. F¨urS∈L(U, V),T ∈L(V, W) gilt
(T S)∗=S∗T∗. Beweis. Seienu∈U,w∈W. Dann gilt:
hT Su, wi=hSu, T∗wi=hu, S∗T∗wi.
4. F¨urT ∈L(U, V) gilt
KernT = (BildT∗)⊥. Beweis. Seiu∈KernT, und seiv∈BildT∗. Dann gilt
hT u, vi=hu, T∗vi= 0, alsou∈(BildT∗)⊥. Ist umgekehrtu∈(BildT∗)⊥, so gilt
0 =hu, T∗vi und somithT u, vi= 0 f¨ur allev∈V . Daraus folgtT u= 0, d.h. u∈KernT.
5. Es gilt
Rang(T∗) = Rang(T).
Beweis. Sei A eine Matrix von T. So ist A∗ eine Matrix von T∗. Daraus folgt die Behauptung, denn:
Rang(T) = Rang(A) = Rang(A⊤) = Rang(A⊤) = Rang(T∗).
6. F¨urT :V →V gilt
det(T) = det(T∗)
Beweis. Bemerke zun¨achst, dass f¨ur eine beliebige quadratische Matrix gilt det(B) = det(B).
Diese folgt aus der Definition der Determinante (siehe 4.13). Sei alsoAeine Matrix vonTbzgl. einer Orthonormalbasis. Dann gilt
det(T) = det(A) = det(A⊤) = det(A⊤) = det(A∗) = det(T∗).
7. F¨urT :V →V undλ∈Kgilt de ¨Aquivalenz:
λ∈σ(T) ⇐⇒ λ∈σ(T∗).
Beweis. Die Behauptung folgt aus den folgenden ¨Aquivalenzen:
λ∈σ(T) ⇐⇒ det(T−λI) = 0 ⇐⇒ det(T∗−λI) = 0 ⇐⇒ λ∈σ(T∗).
6.4. Normale Abbildungen.
Definition. Eine AbbildungT :V →V heißt normal, falls T∗T =T∗T gilt.
Beispiel. 1. Die AbbildungT gegeben durch die Matrix A=
0 1 0 0
istnicht normal.
2. Die AbbildungT gegeben durch die Matrix A=
0 1
−1 0
istnormal.
3. IstT∗=T, oderT∗=−T, oderT∗=T−1 so istT normal.
Bemerkung. SeiA=MTL,L die Matrix von T bzgl. einer Orthonormalbasis. Dann istMTL∗,L =A∗, und somit istT genau dann normal, falls
A∗A=AA∗ gilt. Matrizen mit dieser Eigenschaft heißen auch normal.
Satz 6.4.1. SeiT :V →V eine lineare Abbildung, so dass eine Orthonormalbasis aus Eigenvektoren von T in V existiert. Dann istT normal.
Beweis. SeiL eine Orthonormalbasis inV aus Eigenvektoren von T, dann
A:=MTL,L =
λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn
, und MTL∗,L=
λ1 0 . . . 0 0 . .. ... ... . .. 0 0 . . . 0 λn
=A∗.
Daraus folgt
AA∗=A∗A und somit T∗T =T T∗. Satz 6.4.2. IstT normal undx∈V, so gilt
kT xk=kT∗xk.
Beweis. Es gilt
kT xk2=hT x, T xi=hx, T∗T xi=hx, T T∗xi=hT∗x, T∗xi=kT∗xk2. Satz 6.4.3. SeiT normal. Iste∈V undλ∈Kmit
T e=λe so gilt
T∗e=λe, d.h.
Kern(T−λI) = Kern(T∗−λI).
Beweis. Bemerke zun¨achts das Folgende. Ist T normal, so ist f¨ur jedes λ ∈ K auch die Abbildung T−λI normal. Denn es gilt
(T−λI)∗(T−λI) = (T∗−λI)(T−λI) =T∗T−(λ+λ)T+λ·λI = (T−λI)(T∗−λI) = (T−λI)(T−λI)∗. Nun f¨ureundλwie in der Behauptung gilt wegen Satz 6.4.2:
0 =k(T−λI)ek=k(T∗−λI)ek, alsoT∗e=λe.
Satz 6.4.4. SeiT normal, und seiene∈V,λ∈Kmit T e=λe.
Setze
W :={e}⊥=
x∈V :hx, ei= 0 . Dann ist W invariant unterT undT∗, d.h. es gelten:
T(W)⊆W und T∗(W)⊆W.
Beweis. Seiw∈W, alsohw, ei= 0. Es gilt
he, T wi=hT∗e, wi=λhe, wi= 0, d.h.T w∈W.
he, T∗wi=hT∗e, wi=λhe, wi= 0, d.h.T∗w∈W, wir haben hier Satz 6.4.3 benutzt.
Hauptsatz 6.4.5. Sei V ein komplexer, endlichdimensionaler (pr¨a-)Hilbertraum. F¨ur T : V → V linear sind die folgenden Aussagen ¨aquivalent:
(i) Es gibt eine Basis inV die aus Eigenvektoren von T besteht.
(ii) Die AbbildungT ist normal, d.h.T∗T =T∗T.
Beweis. Die Implikation (i)⇒(ii) haben wir im Satz 6.4.1 gesehen.
Nun zur Implikation (ii) ⇒ (i): Wir beweisen mit vollst¨andiger Induktion nach n = dim(V). Der Fall n = 1 is klar: jede Abbildung ist normal und (i) ist auch trivialerweise erf¨ullt. Sei also die Aussage f¨ur n≥1 richtig f¨ur jede normale Abbildung aufW mit Dimension dim(W)≤n. Seien+1 ein Eigenvektor f¨ur T : V → V, welcher wegenK =C existiert (siehe Korollar 5.4.2). Wir k¨onnen nat¨urlichen+1 umnormieren und somit ken+1k= 1 erreichen. SeiW ={en+1}⊥ und setzeS :=T|W (T eingeschr¨ank aufW). So ist, wegen Satz 6.4.4, auch die Abbildung
S:W →W
normal. Da dim(W)≤existiert also nach Induktionsvoraussetzung eine Orthonormalbasise1, . . . , en
in W aus Eigenvektoren von S (also von T). Diese zusammen mit en+1 haben die gew¨unschten Eigenschaften.
6.5. Unit¨are und orthogonale lineare Abbildungen.
Definition. SeiT :V →V linear, das das Skalarprodukt erh¨alt, also mit hT v, T ui=hu, vi f¨ur alleu, v∈V . So heißtT
a) im Falle K=Cunit¨ar;
b) im Falle K=Rorthogonal.
Entscheidend wird das folgende Trick, genanntPolarisierung, das das Skalarprodukt mithilfe der Norm(-Quadrat) bestimmt:
hx, yi= 1
4 kx+yk2− kx−yk2 F¨urK=Rgilt:
hx, yi= 1
4 kx+yk2− kx−yk2−ikx−iyk2+ikx+iyk2 F¨urK=Cgilt:
(Dies haben wir schon gesehen, siehe 2.10).
Hauptsatz. Sei V komplexer (n-dimensionaler) Hilbertraum. F¨ur T : V → V sind die folgenden Aussagen ¨aquivalent:
(i) T ist unit¨ar.
(ii) Tistisometrisch, d.h. erh¨alt die L¨angen von Vektoren, genauer :kT vk=kvkgilt f¨ur allev∈V. (iii) T is invertierbar mitT−1=T∗.
(iv) T ist normal mit
σ(T)⊆
λ:|λ|= 1 . (v) T transformiert Orthonormalbasen in Orthonormalbasen.
(vi) F¨ur jede OrthonormalbasisL inV, bilden die Spalten der MatrixMTL,L eine Orthonormalbasis inCn.
(vii) Es gibtein OrthonormalbasisLinV, so dass die Spalten der MatrixMTL,Leine Orthonormalbasis inCn bilden.
Beweis. (i)⇒(ii): FallsT das Skalarprodukt erh¨alt, ist es auch isometrisch:
kT xk=hT x, T x,i=hx, xi=kxk2.
(ii)⇒ (iii): IstT isometrisch, so istT injektiv, dennT x= 0 impliziert kxk=kT xk= 0, alsox= 0.
Wegen der Dimensionsformel istT auch surjektiv, alsoT ist invertierbar. Wegen Polarisierung gilt hx, yi=hT x, T yi=hx, T∗T yi.
Aus Satz 6.1.2 b) folgtx=T∗T x f¨ur jedesx∈V, alsoT∗=T−1.
(iii) ⇒ (iv): Es gilt T T∗ = T T−1 =I =T−1T =T∗T, also T ist normal. Nach Satz 6.4.5 gibt es eine Orthonormalbasis L, so dass MTL,L=Adiagonal wird; auf der Diagonale stehen die Eigenwerte λ1, . . . , λn. Die AbbildungT∗ hat einerseits die Matrix
MTL∗,L=A∗=A⊤=A, anderseits
MTL∗,L=MTL−1,L =A−1. Daraus folgtλi=λ−1i , also die Behauptung.
(iv)⇒ (i): SeiL={e1, . . . , en} eine Orthonormalbasis aus Eigenvektoren vonT. So ist, wegen Satz 6.4.3,
hT x, T yi=
n
X
i=1
hT x, eiihT y, eii=
n
X
i=1
hx, T∗eiihy, T∗eii=
n
X
i=1
λihx, eii·λihy, eii=
n
X
i=1
hx, eiihy, eii=hx, yi.
(i)⇒(v): SeiL={e1, . . . , en} eine Orthonormalbasis inV. Dann gilt
hT ei, T eji=hei, eji=
(1 fallsi=j 0 fallsi6=j, alsoT e1, . . . , T en ist eine Orthonormalbasis inV.
(v)⇒(vi): SeiL={e1, . . . , en}eine Orthonormalbasis inV. Nach Voraussetzung bildenT e1, . . . , T en eine Orthonormalbasis inV, deren Koordinatenvektoren in den Spalten vonMTL,L stehen.
(vi)⇒(vii) ist klar.
(vii)⇒(iii): SeiL eine Orthonormalbasis inV, so dass die Spalten vonMTL,Leine Orthonormalbasis f1, . . . , fn inCn bilden. In Spaltenvektornotation ist also
MTL,L= (f1, f2, . . . , fn).
Somit gilt in Zeilenvektornotation:
MTL∗,L=
f1
⊤
... fn⊤
.
Daraus bekommen wir
MTL∗,LMTL,L=
f1
⊤
... fn
⊤
(f1, f2, . . . , fn) =
hf1, f1i hf1, f2i . . . hf1, fni
... ...
hfn, f1i hfn, f2i . . . hfn, fni
=In×n.
D.h.T∗T =I, also (iii) folgt.
Bemerkung. Im FalleK=Rbetrachte die DrehungTϕ um WinkelϕinR2 mit matrix Aϕ=
cosϕ −sinϕ sinϕ cosϕ
. Betrachte die folgende Aussage:
(iv′) Es gibt eine Orthonormalbasis Lin inV, so dass die Matrix vonT hat die Block-Form:
MTL,L=
1 . . . 0 0
... . .. ...
0 . . . 1
−1 . . . 0 ... . .. ... 0 . . . −1
Tϕ1 . . . 0 ... . .. ...
0 0 . . . Tϕk
,
Dann gilt:
T orthogonal ⇔ (i) ⇔ (ii) ⇔ (iii) ⇔ (iv′) ⇔ (v) ⇔ (vi) ⇔ (vii), wobei ϕi 6=mπf¨urm∈Z, und wobei in (vi) und in (vii)Cn durchRn ersetzt werden muss.