Lineare Algebra II 8. Übungsblatt
Fachbereich Mathematik SS 2011
Prof. Dr. Kollross 01./09. Juni 2011
Susanne Kürsten Tristan Alex
Gruppenübung
Aufgabe G1 (Minitest)
SeiV ein euklidischer oder unitärer Vektorraum. Sei weiterhinπ:V →V die orthogonale Projektion auf den endlichdi- mensionalen UnterraumU(V. Welche der folgenden Aussagen gelten für alleu∈Uundv,v1,v2∈V?
πist injektiv.
πist ein Isomorphismus.
Wennv1senkrecht aufv2steht, dann stehen auchπ(v1)undπ(v2)senkrecht aufeinander.
kπ(v)k=kvk.
π2(v) =v.
Es existiert einn∈N, so dassπn=idgilt.
πist nilpotent.
πist invertierbar.
πkann negative Eigenwerte haben.
π(v)steht senkrecht aufv.
π(u)steht senkrecht aufu.
π(v)steht senkrecht aufu.
π(u)steht senkrecht aufv.
kerπ∪imπ=V.
kerπ∩imπ=;.
dim kerπ≤dimimπ.
dim kerπ≥dimimπ.
dim kerπ=dimimπ.
Lösung: Alle Aussagen sind falsch.
Aufgabe G2 (Isometrien)
Eine Abbildungϕ:V →Wzwischen euklidischen oder unitären Vektorräumen heißtIsometrie, falls für allex,y∈V die Gleichung
ϕ(x),ϕ(y)= x,y
erfüllt ist.
Zeigen Sie, dass für eine lineare Abbildungϕ:V →Wäquivalent sind:
(a) ϕist eine Isometrie.
(b) kϕ(x)k=kxkfür allex∈V.
(c) kϕ(x)−ϕ(y)k=kx−ykfür alle x,y∈V. Tipp:Polarisierungsgleichung.
Lösung:
(a)=⇒(b) Folgt sofort fürx=y.
(b)=⇒(c) Wir setzen inkϕ(z)k=kzkeinfachz:=x−yein und benutzen die Linearität vonϕ.
(c)=⇒(a) Wir setzen die Polarisierungsgleichung ein und erhalten
4ϕ(x),ϕ(y)Pol.= kϕ(x)−ϕ(−y)k2− kϕ(x)−ϕ(y)k2+ikϕ(x)−ϕ(−i y)k2−ikϕ(x)−ϕ(i y)k2
(c)=kx+yk2− kx−yk2+ikx+i yk2−ikx−i yk2
Pol.= 4 x,y
.
Aufgabe G3 (Diagonalisierung von orthogonalen Projektionen)
SeiV ein endlichdimensionaler euklidischer oder unitärer Vektorraum und seiπ:V →V die orthogonale Projektion auf U⊆V.
(a) Zeigen Sie, dassπnur die Eigenwerte0und1hat.
(b) Beweisen oder widerlegen Sie:
• Es gibt orthogonale Projektionen, die nur1als Eigenwert haben.
• Es gibt orthogonale Projektionen, die nur0als Eigenwert haben.
(c) Zeigen Sie, dass es eine BasisBvonV gibt, bezüglich derπdie Matrixdarstellung [π]B=
Ek 0
0 0
hat. Dabei seik=dimimπundEkdiek×k-Einheitsmatrix.
(d) Zeigen Sie, dass jede orthogonale Projektion diagonalisierbar ist.
Lösung:
(a) Seiλein Eigenwert vonπmit zugehörigem Eigenvektorx. Dann giltπ(x) =λx. Auf diese Gleichung wenden wir wiederumπan und erhaltenλ2x=π2(x) =π(x) =λx. Da x6=0ist, mussλ2=λgelten. Die einzigen Lösungen dieser Gleichung sind0und1.
(b) Beide Aussagen sind wahr. Sind alle Eigenwerte1, erhält man die orthogonale ProjektionidV. Sind alle Eigenwerte 0, erhält man die Nullabbildung, die natürlich auch eine orthogonale Projektion ist.
(c) Es istV=kerπ⊕imπund imπ=Usteht senkrecht aufU⊥=kerπ. Wir wählen uns eine Basis(v1, . . . ,vk)vonU. Diese ergänzen wir mit Vektorenvk+1, . . . ,vn∈U⊥. Dann giltπ(vi) =vifür1≤i≤kundπ(vj) =0fürk< j≤n.
Daher hatπbezüglich dieser Basis genau die geforderte Matrixdarstellung.
(d) Das folgt trivialerweise aus (c).
Aufgabe G4 (Skalarprodukte)
(a) Seiena1, . . . ,an∈Rpositive Zahlen. Zeigen Sie, dass
n
X
i=1
a2i
!
n
X
j=1
a−2j
≥n2
gilt.
(b) SeiV ein Vektorraum,B= (b1, . . . ,bn)eine Basis vonV und f:V×V →Reine Bilinearform. Weiter sei
A:=
a11 · · · a1n ... ... an1 · · · ann
:=
f(b1,b1) · · · f(b1,bn)
... ...
f(bn,b1) · · · f(bn,bn)
.
Zeigen Sie, dassAdie Strukturmatrix der Bilinearform f ist, das heißt, für beliebige Vektoren x,y∈V bezüglich der BasisBgilt
f(x,y) =xTAy.
Bestimmen Sie die Strukturmatrix des Standardskalarproduktes bezüglich der Standardbasis.
(c) SeiKder Körper der reellen oder der komplexen Zahlen. SeiV ein endlichdimensionaler euklidischer oder unitärer Vektorraum überK. Zeigen Sie, dass zu jeder linearen Abbildung f:V →Kein Vektora∈V existiert mitf(x) =
〈x,a〉für alle x∈V. Lösung:
(a) Setzen wirx= (a1, . . . ,an)T∈Rnundy= (a−11 , . . . ,a−1n )T∈Rn, dann folgt die Behauptung sofort aus der Cauchy- Schwarz-Ungleichung.
(b) Seix,y∈V beliebig. Es gelte x=Pn
i=1xibiund y=Pn
j=1yjbj. Daraus folgt mit Hilfe der Bilinearität
f(x,y) =f
n
X
i=1
xibi,
n
X
j=1
yjbj
=
n
X
i=1
xi
n
X
j=1
yjf(bi,bj) =
n
X
i=1
xi
n
X
j=1
ai jyj=xTAy.
Für das Standardskalarprodukt gilt¬ ei,ej¶
=δi j und folglich ist die Einheitsmatrix die Strukturmatrix des Stan- dardskalarproduktes bezüglich der Standardbasis.
(c) Der RaumV besitzt eine Orthonormalbasis B:= (b1, . . . ,bn). Für einen Vektor x ∈V gilt x=Pn
j=1〈x,bj〉bj. Wir erhalten
f(x) = f
n
X
j=1
〈x,bj〉bj
=
n
X
j=1
〈x,bj〉f(bj) =
n
X
j=1
f(bj)〈x,bj〉=
* x,
n
X
j=1
f(bj)bj +
,
woraus zu ersehen ist, dassa:=Pn
j=1f(bj)bjder gesuchte Vektor ist.
Hausübung
Aufgabe H1 (Orthogonale Zerlegung)
Betrachte den euklidischen VektorraumMn(R)allern×n-Matrizen mit Spur-Skalarprodukt〈A,B〉:=tr(BTA). Bezeichne mit
U+:={A∈Mn(R)|AT=A} ⊂Mn(R) und U−:={B∈Mn(R)|BT=−B} die Teilmengen der symmetrischen beziehungsweise schiefsymmetrischen Matrizen.
(a) Zeigen Sie, dassU+undU−lineare Teilräume sind und(U+)⊥=U−erfüllen.
(b) Welche Dimension haben die RäumeU+undU−?
(c) Zeigen Sie, dass sich jede MatrixA∈Mn(R)eindeutig als Summe einer symmetrischen und einer schiefsymmetri- schen Matrix schreiben lässt.
(d) Bestimmen Sie die orthogonalen Projektionenπ+aufU+undπ−aufU−. Tipp:Induktiv lässt sich leichtPn
k=1k=12n(n+1)zeigen.
Lösung: Es gilt
〈A,B〉=tr(BTA) =tr((BTA)T) =tr(ATB) =tr(BAT) =¬ AT,BT¶
.
(a) Die Nullmatrix ist sowohl symmetrisch als auch schiefsymmetrisch. Es ist einfach zu zeigen, dass Summen und Vielfache von symmetrischen (schiefsymmetrischen) Matrizen wieder symmetrisch (schiefsymmetrisch) sind.
Für die Orthogonalitätsbedingung seiA∈U+undB∈U−. Dann ist
〈A,B〉=¬ AT,BT¶
=− 〈A,B〉,
also〈A,B〉=0und es istB∈(U+)⊥. Wir folgernU−⊆(U+)⊥. Für die andere Inklusion seiA∈(U+)⊥, also〈A,B〉=0 für alleB∈U+. Dann folgt für alle MatrizenX∈Mn(R)
¬A+AT,X¶
=〈A,X〉+¬ AT,X¶
=〈A,X〉+¬ A,XT¶
=¬
A,X+XT¶
=0,
denn die Matrix X +XT ist symmetrisch. Da das Skalarprodukt positiv definit ist, muss A+AT =0gelten, also A∈U−. Wir folgern(U+)⊥⊆U−, insgesamt gilt damit(U+)⊥=U−.
(b) SeiA∈U+. AusAT =Aerkennen wirai j =aji für alle1≤i,j≤n. Alle Einträge der Matrix sind also durch die Wahl der Einträge im oberen rechten Dreieck der Matrix einschließlich der Diagonalen bestimmt:
A=
a11 a12 · · · a1n a12 a22 · · · a2n ... ... ... ... a1n a2n · · · ann
Wir können also in der ersten ZeilenEinträge wählen, in der zweiten Zeilen−1Einträge und so weiter. Daher ist dimU+=n+ (n−1) +. . .+1= 1
2n(n+1).
FürU−gehen wir genauso vor. Hier ist allerdingsaii =−aii, alsoaii=0für alle1≤i≤n. Wir können also in der ersten Zeilen−1Einträge wählen, in der zweiten Zeilen−2Einträge und so weiter. Es folgt
dimU−= (n−1) + (n−2) +. . .+1=1
2n(n+1)−n.
Insbesondere giltdimMn(R) =n2=12n(n+1) +12n(n+1)−n=dimU++dimU−.
(c) Da die beiden Räume orthogonal zueinander sind, gilt Mn(R) = U+⊕U−. Es existiert also zu jeder Matrix die geforderte Zerlegung.
(d) Um die ZerlegungA=A++A−mitA±∈U±zu erhalten, lösen wir die Gleichungen A=A++A− und AT= (A++A−)T=A+−A−
nachA±auf und erhaltenA=12(A+AT) +12(A−AT). Daraus lesen wirπ+(A) =12(A+AT)undπ−(A) =12(A−AT) ab.
Aufgabe H2 (Numerische Approximation)
SeiV :=C([0, 1])der Raum der stetigen Funktionen f:[0, 1]→RundU :=span{1,x}der Unterraum der Polynome vom Grad höchstens1. Wir stattenV mit dem Skalarprodukt
f(x),g(x) :=
Z1
0
f(x)g(x)dx
aus. In dieser Aufgabe finden wir eine gute Näherung für die Funktionx7→ex. (a) Welche Dimension haben die RäumeUundV?
(b) Berechnen Sie eine Orthonormalbasis vonU.
(c) Benutzen Sie die Approximationseigenschaft der Orthogonalprojektion, um die optimale Näherungg(x)fürexzu berechnen.
(d) Skizzieren oder plotten Sie die Funktionenexundg(x)in einem Koordinatensystem.
Beachten Sie, dass wir für die Bestimmung vong(x)keine Differentialrechnung verwendet haben.
Tipp:Es istR1
0 x exdx=1.
Lösung: Wir werden in dieser Aufgabe oft Skalarprodukte berechnen. Wegen der Linearität reicht uns die Berechnung von
〈1, 1〉= Z1
0
1 dx=1 〈1,x〉=
Z1
0
xdx=1 2
〈x,x〉= Z1
0
x2dx=1
3 〈1,ex〉=
Z1
0
ex dx=e−1
〈ex,ex〉= Z1
0
e2xdx=1 2e2−1
2 〈x,ex〉=
Z1
0
x exdx=1
aus, um alle auftretenden Produkte zu bestimmen.
(a) U hat natürlich Dimension2, da1undx linear unabhängig sind. Die Dimension vonV ist unendlich, denn es ist insbesonderexk∈V für allek∈N, und diese Vektoren sind auch alle linear unabhängig.
(b) Das Gram-Schmidt-Verfahren liefert uns v1=1
v2= x− 〈x, 1〉1 kx− 〈x, 1〉1k=
x−1
2
·
〈x,x〉 − 〈x, 1〉+1 4〈1, 1〉
−12
=p
3(2x−1).
(c) Wir bestimmen die Darstellungg(x) =λ11+λ2(p
3(2x−1)), wobeiλi= ex,vi
. Es ist
λ1=〈ex, 1〉=e−1 und λ2=¬p
3(2x−1),ex¶
=2p
3〈x,ex〉 −p
3〈ex, 1〉=2p
3−(e−1)p 3=p
3(3−e).
Die beste Näherung ist also
g(x) = (e−1) +3(3−e)(2x−1) = (18−6e)x+4e−10.
(d) Die Skizze der beiden Funktionen sieht so aus:
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8
ex g(x)
Aufgabe H3 (Spiegelung an einer Hyperebene)
SeiV ein endlich-dimensionaler, euklidischer Vektorraum undv∈V ein Einheitsvektor. Betrachten Sie die lineare Abbil- dung
σv:V →V, x7→x−2〈x,v〉v. Zeigen Sie:
(a) Die Abbildungσv ist eine bijektive Isometrie.
(b) Der vonv aufgespannte TeilraumRv ist der Eigenraum vonσv zum Eigenwert−1und sein Orthogonalraum der Eigenraum zum Eigenwert1.
Seien nunv,w∈V zwei Einheitsvektoren. BezeichneUden vonvundwaufgespannten linearen Teilraum. Betrachten Sie die linearen Abbildungenσv undσw. Zeigen Sie:
(c) Der TeilraumU istσv-invariant undσw-invariant, d.h. es giltσv(U)⊆Uundσw(U)⊆U. (d) Für allex∈U⊥giltσv(x) =x=σw(x).
(e) Die folgenden Aussagen sind äquivalent:
i. Die Vektorenv undwsind linear abhängig oder orthogonal zueinander.
ii. Die Abbildungenσv undσwkommutieren, d.h.σv◦σw=σw◦σv. Lösung:
(a) Die Abbildung ist bijektiv, denn es ist
(σv◦σv)(x) =σv(x−2〈x,v〉v) =x−2〈x,v〉v−2〈x,v〉(v−2〈v,v〉v) =x.
Sie ist isometrisch, denn für allex1,x2∈V gilt σv(x1),σv(x2)=x1−2x1,vv
,x2−2x2,vv
= x1,x2
−2
x1,v x2,v
−2
x1,v v,x2+4
x1,v x2,v
〈v,v〉
= x1,x2
.
(b) Es giltσv(v) =v−2〈v,v〉v =−v, d.h.U=Rv ist enthalten im Eigenraum zum Eigenwert−1. Für jeden Vektor x∈U⊥giltσv(x) =x−2〈x,v〉v =x, d.h.U⊥ist enthalten im Eigenraum zum Eigenwert1. WegenV =U⊕U⊥ müssenUundU⊥mit dem entspr. Eigenräumen übereinstimmen.
(c) Es genügt die Behauptung fürσv zu zeigen. Fürσwergibt sich die Behauptung durch Vertauschen der Rollen von v undw. Weiter genügt esσv(v)∈U undσv(w)∈U zu zeigen, dennσv ist linear und jeder andere Vektor inU ist eine Linearkombination vonv undw.
Für den Vektorv giltσv(v) =−v∈U (s.o.), für den Vektorwgiltσv(w) =w−2〈w,v〉v ∈U.
(d) Auch hier genügt es die Aussage fürσv zu zeigen: Sei x ∈U⊥, also insbesondere 〈x,v〉=0=〈x,w〉. Dann gilt σv(x) =x− 〈x,v〉v=x.
(e) Seien zuerstv,wlinear abhängig oder orthogonal zueinander. Zum einen lässt sich direkt zeigen, dass die Abbil- dungen vertauschen. Man kann die Behauptung jedoch auch aus bereits Gezeigtem herleiten: WegenV =U⊕U⊥ genügt es die Gleichungσv◦σw =σw◦σv aufU und aufU⊥einzeln zu zeigen. AufU⊥haben wir direkt zuvor gezeigt, dassσv undσw beide die Identität sind, insbesondere also vertauschen. AufU müssen wir die Gleichheit auf den zwei Vektorenv,wnachweisen.
Sindv und wlinear abhängig, so haben wir zuvor gezeigt, dassU fürσv,σw der Eigenraum zum Eigenwert−1 ist. Die Abbildungen sind beide also ein Vielfaches der Identität auf diesem Teilraum. Insbesondere vertauschen sie.
Stehenv undw orthogonal zueinander, so gilt nach (b) die Identitätσv(w) =w(und umgekehrt fürv undσw), d.h. es gilt
σv σw(w)=σv(−w) =−w=σv(−w) =σw σv(w)
und analog für den Vektorv. Zusammengefasst haben wir damit die erste Implikation gezeigt.
Wir nehmen nun an, die Abbildungenσv,σwkommutieren. Für allex∈V gilt
(σv◦σw)(x) =x−2〈x,w〉w−2〈x,v〉v+4〈x,w〉 〈w,v〉v, (σw◦σv)(x) =x−2〈x,v〉v−2〈x,w〉w+4〈x,v〉 〈v,w〉w.
Speziell fürx=vfolgt dann〈v,w〉w=〈v,w〉2v. Die Vektorenv,wsind also entweder orthogonal, d.h.〈v,w〉=0, oder linear abhängig.