Aufgabe 26
Es seien U
1, U
2Unterr¨ aume eines endlich dimensionalen K-Vektorraums V . Zei- gen Sie
(a) (U
1+ U
2)
◦= U
1◦∩ U
2◦(b) (U
1∩ U
2)
◦= U
1◦+ U
2◦.
Vorbemerkung: In der Aufgabenstellung m¨ ussen wir f¨ ur eine Inklusion bei Aussa- ge (b) voraussetzen, dass V endlich-dimensional ist. Die Aussage (a) gilt f¨ ur einen beliebigen Vektorraum V . Die Aussage (b) gilt nur f¨ ur endlich-dimensionale Vek- torr¨ aume. Die Inklusion
(U
1∩ U
2)
◦⊃ U
1◦+ U
2◦gilt f¨ ur allgemeine Vektorr¨ aume. Die andere Inklusion
(U
1∩ U
2)
◦⊂ U
1◦+ U
2◦nur f¨ ur endlich-dimensionale Vektorr¨ aume.
Beweis: Definitionsgem¨ aß ist der Annullator von U, bezeichnet mit U
◦, diejenige Menge der linearen Funktionale, die auf U verschwinden.
(a) ” ⊂“: Es gelte f ∈ (U
1+U
2)
◦, d.h. f verschwindet f¨ ur alle Vektoren aus U
1+U
2. Wegen U
1⊂ U
1+ U
2folgt: f verschwindet auf U
1, also gilt f ∈ U
1◦. Analog gilt f ∈ U
2◦. Also verschwindet f in U
1und U
2, d.h. f ∈ U
1◦∩ U
2◦.
” ⊃“: Es gelte f ∈ U
1◦∩ U
2◦. Dann verschwindet f auf U
1und U
2. Es sei nun u ∈ U
1+U
2. Zu zeigen ist f(u) = 0. Aber dies klar: Es gibt u
1∈ U
1und u
2∈ U
2mit u = u
1+u
2. Wir haben also f (u) = f (u
1+u
2) = f (u
1) + f(u
2) = 0 + 0 = 0.
(b) ” ⊃“: Es gelte f ∈ U
1◦+ U
2◦, d.h. es gibt h
1∈ U
1◦und h
2∈ U
2◦mit f = h
1+ h
2.
Zu zeigen ist f ∈ (U
1⊂ U
2)
◦, d.h. f (α) = 0 f¨ ur alle α ∈ U
1∩ U
2. Wir haben f¨ ur j = 1, 2
h
j∈ U
j◦⇔ ∀α ∈ U
j: h
j(α) = 0.
Es sei daher α ∈ U
1∩ U
2. Dann gilt
f(α) = h
1(α) + h
2(α) = 0 + 0 = 0, dies war zu zeigen.
” ⊂“: Da U
1, U
2endlich-dimensional sind, ist U
1∩ U
2endlich-dimensional mit Basis
{γ
1, . . . , γ
r}, die wir jeweils zu einer Basis
{α
1, . . . , α
m, γ
1, . . . , γ
r} von U
1und einer Basis
{β
1, . . . , β
n, γ
1, . . . , γ
r} von U
2und schließlich zu einer Basis
{α
1, . . . , α
m, β
1, . . . , β
n, γ
1, . . . , γ
r, δ
1. . . , δ
s}
f¨ ur ganz V erg¨ anzen k¨ onnen. Jedes v ∈ V l¨ asst sich daher schreiben als v =
m
X
j=1
a
jα
j+
n
X
j=1
b
jβ
j+
r
X
j=1
c
jγ
j+
s
X
j=1
d
jδ
jmit entsprechenden K¨ orperelementen a
j, b
j, c
j, d
j. F¨ ur f ∈ V
∗gilt aufgrund der Linearit¨ at
f(v) =
m
X
j=1
a
jf (α
j) +
n
X
j=1
b
jf(β
j) +
r
X
j=1
c
jf (γ
j) +
s
X
j=1
d
jf (δ
j). (1) Es gelte nun f ∈ (U
1∩ U
2)
◦, d.h. f verschwindet auf U
1∩ U
2, d.h. f (γ
j) = 0 f¨ ur jedes j in (1) und wir erhalten
f (v) =
m
X
j=1
a
jf (α
j) +
n
X
j=1
b
jf (β
j) +
s
X
j=1
d
jf (δ
j)
= h
1(v) + h
2(v) mit
h
1(v) :=
m
X
j=1
a
jf (α
j) +
s
X
j=1
d
jf(δ
j) und
h
2(v) :=
n
X
j=1
b
jf (β
j).
Wir zeigen nun h
j∈ U
j◦. Daraus folgt dann f ∈ U
1◦+ U
2◦. Es sei α ∈ U
1. Dann gilt
α =
m
X
j=1
a
jα
j+
r
X
j=1
c
jγ
j(2)
denn {α
1, . . . , α
m, γ
1, . . . , γ
r} ist eine Basis von U
1und wir erhalten h
1(α) =
m
X
j=1
a
jf (α
j)
| {z }
= 0,(N)
+
s
X
j=1
d
jf (δ
j)
| {z }
= 0,(4)
= 0 + 0 = 0.
( N ) : nach Voraussetzung ist f ∈ (U
1∩ U
2)
◦(4) : denn in (2) treten δ
jnicht auf
Also ist h
1∈ U
1◦.
Sei nun β ∈ U
2. Dann gilt mit der Voraussetzung h
2(β) =
n
X
j=1