LINEARE ALGEBRA
5. Der R
nals Vektorraum
Beispiel 5.1. Die Unternehmen U
1und U
2produzieren die gleichen G¨uter G
1, G
2, G
3und G
4.
Das Unternehmen U
1produziert pro Tag 10 Einheiten G
1, 15 Einheiten G
2, 7 Einheiten G
3und 2 Einheiten G
4,
das Unternehmen U
2produziert pro Tag 3 Einheiten G
1, 5 Einheiten G
2, 8 Einheiten G
3und 7 Einheiten G
4.
Die Tagesproduktion der beiden Unternehmen kann durch ihren Produktionsvektoren P
U1und P
U2beschrieben werden, wobei i-te Komponente eines Produktionsvektors die Produk- tion des Gutes G
ipro Tag angeben soll:
P
U1=
10 15 7 2
und P
U2=
3 5 8 7
.
Die Tagesproduktion der beiden Unternehmen zusammen kann durch den Vektor
P
U1+U2=
10 + 3 15 + 5 7 + 8 2 + 7
=
13 20 15 9
beschrieben werden.
Weiter werden die Produktionsmengen von U
1bzw. U
2pro Woche durch die folgenden Vektoren dargestellt:
P
UW1=
7 · 10 7 · 15 7 · 7 7 · 2
=
70 105
49 14
bzw.
P
UW2=
7 · 3 7 · 5 7 · 8 7 · 7
=
21 35 56 49
.
Motiviert durch dieses Beispiel f¨u hren wir jetzt folgende Definition ein, die die Addition zweier Vektoren des R
nund die Multiplikation eines Vektors mit einer Zahl (Skalar) betrifft.
Definition 5.2. Es seien a =
a
1a
2...
a
n
und b =
b
1b
2...
b
n
zwei Vektoren des R
n, und es sei λ eine reelle Zahl.
a) Die Vektoraddition ist erkl¨art durch:
a + b =
a
1a
2...
a
n
+
b
1b
2...
b
n
:=
a
1+ b
1a
2+ b
2...
a
n+ b
n
.
b) Die Skalarmultiplikation ist erkl¨art durch:
λ · a = λ ·
a
1a
2...
a
n
:=
λ · a
1λ · a
2...
λ · a
n
.
Bemerkung. Vektoraddition und Skalarmultiplikation wirken komponentenweise. Man kann also nur Vektoren mit der gleichen Anzahl von Eintr¨agen addieren, und das Ergebnis ist ein Vektor mit genauso vielen Komponenten.
Das Ergebnis der Multiplikation eines Vektors des R
nmit einer reellen Zahl ist auch ein Vektor des R
n.
Da Vektoraddition und Skalarmultiplikation komponentenweise auf das Rechnen mit re- ellen Zahlen zur¨uckgef¨uhrt werden k¨onnen, ¨ubertragen sich die Rechengesetze 3.2 auf R
n. Satz 5.3. Seien λ, µ ∈ R und a, b, c ∈ R
n, dann gelten die folgende Gesetze:
• Assoziativit¨at der Addition:
(a + b) + c = a + (b + c)
• Existenz des neutralen Elements der Addition (der Nullvektor):
0 + a = a = a + 0
• Existenz des inversen Elements zu a bzgl. der Addition:
a + (−1) · a = 0 = (−1) · a + a
• Kommutativit¨at der Addition:
a + b = b + a
• Assoziativit¨at der Skalarmultiplikation:
(λ · µ) · a = λ · (µ · a)
• Distributivit¨at:
(λ + µ) · a = λ · a + µ · a λ · (a + b) = λ · a + λ · b
• Existenz des neutralen Elements der Skalarmultiplikation (die Zahl 1):
1 · a = a.
Wir benutzen hier die folgende Notation:
0 :=
0 0 ...
0
f¨ur den Nullvektor.
Geometrische Interpretation f¨ur n = 2 (und n = 3):
Vektoren a werden durch Pfeile − →
0a im kartesischen Koordinatensystem dargestellt. Die Vek- toraddition kann dann mit Hilfe einer ” Paralellogrammregel” durchgef¨uhrt werden, und die Skalarmultiplikation entspricht einer ” Streckung” des Vektors a um den Faktor λ.
Beispiel 5.4. Es seien a, b ∈ R
2und λ, µ ∈ R mit a = (1, 2)
t, b = (−2, 1)
t, λ = 2, µ = −1.
a + b = (−1, 3)
t:
1 2
−1
−2
1 2 3
x
1x
2a b
a + b
λ · a = (2, 4)
t, µ · a = −a = (−1, −2)
t:
1 2
−1 1 2 3 4
−1
−2
x
1x
2λ · a
−a
a
Auch wenn wir es meist mit Vektoren des R
nzu tun haben, ist es sinnvoll, allgemeinere
” Vektorr¨aume” ¨uber R zu betrachten:
Definition 5.5. Eine Menge V heißt Vektorraum ¨ uber R , wenn in V a) eine Addition
” +” erkl¨art ist, die je zwei Elementen v ∈ V und w ∈ V ein Element v + w ∈ V zuordnet:
+ :
V × V −→ V (v, w) 7−→ v + w und
b) eine Skalarmultiplikation
” ·” erkl¨art ist, die je zwei Elementen λ ∈ R und v ∈ V ein Element λ · v ∈ V zuordnet:
· :
R × V −→ V (λ, v) 7−→ λ · v so dass gilt:
• Assoziativgesetz f¨ur die Addition:
∀
v,w,u∈V: (v + w) + u = v + (w + u)
• Existenz des neutralen Elements der Addition (das Nullelement des Vektorraumes):
∃
0∈V∀
v∈V: v + 0 = v = 0 + v
• Existenz des inversen Elements zu v bzgl. der Addition:
∀
v∈V∃
˜v∈V: v + ˜ v = 0 = ˜ v + v
• Kommutativgesetz der Addition:
∀
v,w∈V: v + w = w + v ∈ V
• Assoziativgesetz der Skalarmultiplikation:
∀
v∈V∀
λ,µ∈R: (λ · µ) · v = λ · (µ · v)
• Distributivgesetze:
∀
v,w∈V∀
λ,µ∈R:
( (λ + µ) · v = λ · v + µ · v λ · (v + w) = λ · v + λ · w
• Existenz des neutralen Elements der Skalarmultiplikation (die Zahl 1):
∀
v∈V: 1 · v = v
Die Elemente von V bezeichnet man als Vektoren und die Elemente von R als Skalare.
Beispiele 5.6. f¨ur Vektorr¨aume.
a) Man kann nun leicht nachpr¨ufen (s. Satz 5.3), dass der R
nf¨ur alle n ∈ N mit der oben definierten Addition und Multiplikation (Def. 5.2) ein Vektorraum ist, den man auch Euklidischen Vektorraum nennt.
b) Der ” kleinste” Vektorraum V ist der, der nur ein Element (die Null) enth¨alt. Man
schreibt V = {0} und nennt V den Nullraum.
c) Sei X eine nichtleere Menge und sei A(X, R ) die Menge aller Abbildungen von X nach R :
A(X, R ) := {f : X → R | f ist eine Abbildung} . F¨ur alle f, g ∈ A(X, R ) (d. h. f, g : X → R ) und λ ∈ R definieren wir die Vektoraddition:
f + g ∈ A(X, R ) mit (f + g)(x) := f (x) + g(x) und die Skalarmultiplikation:
λ · f ∈ A(X, R ) mit (λ · f )(x) := λ · f (x).
A(X, R ) ist der sogenannte Funktionenraum uber ¨ X.
5.1. Unterr¨ aume.
Definition 5.7. Sei V ein Vektorraum. Eine Teilmenge Ø 6= U ⊆ V heißt Unterraum (Teil- raum) von V genau dann, wenn sie bez¨uglich der Vektoraddition und der Skalarmultiplikation abgeschlossen ist, d. h.
a) aus u
1∈ U und u
2∈ U folgt u
1+ u
2∈ U :
(u
1∈ U ∧ u
2∈ U ) ⇒ u
1+ u
2∈ U b) aus u ∈ U und λ ∈ R folgt λ · u ∈ U:
(u ∈ U ∧ λ ∈ R ) ⇒ λ · u ∈ U
Der Unterraum U ist selbst ein Vektorraum, wobei die Addition und Multiplikation dieselben sind wie die in V .
Aus b) folgt, dass jeder Unterraum den Nullvektor enth¨alt (0 · u = 0).
Beispiel 5.8. F¨ur jeden Vektorraum V sind U = V und U = {0} die trivialen Unterr¨aume.
Beispiel 5.9. Sei V = R
3. Dann sind die folgenden Mengen Unterr¨aume von V : a) U =
(0, x
2, 0)
t: x
2∈ R , b) U =
(x
1, x
2, 0)
t: x
1, x
2∈ R ,
c) U = {x ∈ R
3: x = λ
1· v
1+ λ
2· v
2, λ
1, λ
2∈ R }, wobei die Vektoren v
1, v
2∈ R
3vorgegeben sind.
5.2. Linear unabh¨ angige Vektoren.
Definition 5.10. Es seien V ein Vektorraum und v
1, v
2, . . . , v
n∈ V , n ∈ N , feste Vektoren.
Eine Summe
n
X
i=1
λ
i· v
i:= λ
1· v
1+ λ
2· v
2+ · · · + λ
n· v
n∈ V,
mit λ
i∈ R , i = 1, . . . , n, nennt man eine Linearkombination der Vektoren v
i, i = 1, . . . , n.
Die Skalare λ
i∈ R , i = 1, . . . , n, heißen Koeffizienten der Linearkombination.
Beispiel 5.11. Es sei V = R
3gesetzt, und es seien v
1= (3, 1, 2)
tund v
2= (2, 2, 4)
t. Aus
2 · v
1+ 1 · v
2= 2 ·
3 1 2
+ 1 ·
2 2 4
=
6 2 4
+
2 2 4
=
8 4 8
folgt, dass der Vektor v := (8, 4, 8)
teine Linearkombination der Vektoren v
1, v
2mit Koeffi- zienten 2, 1 ist.
Analog folgt aus
v
1− v
2=
3 1 2
−
2 2 4
=
1
−1
−2
,
dass der Vektor v := (1, −1, −2)
teine Linearkombination der Vektoren v
1, v
2mit Koeffizi- enten 1, −1 ist.
Definition 5.12. Es seien V ein Vektorraum und v
1, v
2, . . . , v
n∈ V , n ∈ N , feste Vektoren.
Die Menge aller Vektoren v ∈ V , die als Linearkombination der Vektoren v
1, v
2, . . . , v
ndargestellt werden k¨onnen, heißt lineare H¨ulle von {v
1, v
2, . . . , v
n} und wird mit Span{v
1, v
2, . . . , v
n} bezeichnet, d. h.
Span{v
1, v
2, . . . , v
n} :=
(
v ∈ V : v =
n
X
i=1
λ
i· v
i, λ
i∈ R , i = 1, . . . , n )
.
Man sagt: Span{v
1, v
2, . . . , v
n} wird von Vektoren {v
1, v
2, . . . , v
n} aufgespannt oder erzeugt.
Satz 5.13. Es seien V ein Vektorraum und v
1, v
2, . . . , v
n∈ V , n ∈ N , feste Vektoren.
a) Span{v
1, v
2, . . . , v
n} ist ein Unterraum von V . b) Span{v
1, v
2, . . . , v
n} ist der
” kleinste” Unterraum von V , der alle Vektoren v
1, v
2, . . . , v
nenth¨alt, d. h. es gibt keinen nichttrivialen Unterraum von Span{v
1, v
2, . . . , v
n}, in dem die Vektoren v
1, v
2, . . . , v
nenthalten sind.
Beispiel 5.14. Es sei V = R
3.
a) Wir setzen v
1= e
1:= (1, 0, 0)
tund v
2= e
2:= (0, 1, 0)
t. Dann erzeugen die Einheits- vektoren e
1, e
2die lineare H¨ulle
Span{e
1, e
2} = {v ∈ R
3: v = λ
1· e
1+ λ
2· e
2, λ
1, λ
2∈ R } =
=
v ∈ R
3: v = λ
1·
1 0 0
+ λ
2·
0 1 0
, λ
1, λ
2∈ R
=
=
v ∈ R
3: v =
λ
1λ
20
, λ
1, λ
2∈ R
.
b) Jetzt setzen wir v
1:= (1, 2, 0)
tund v
2:= (2, 4, 0)
t. Dann ist Span{v
1, v
2} = {v ∈ R
3: v = λ
1· v
1+ λ
2· v
2, λ
1, λ
2∈ R } =
=
v ∈ R
3: v = λ
1·
1 2 0
+ λ
2·
2 4 0
, λ
1, λ
2∈ R
.
Aber v
2= 2v
1, also kann man v als v = (λ
1+ 2λ
2) · v
1schreiben, d. h.
Span{v
1, v
2} =
v ∈ R
3: v = λ ·
1 2 0
, λ ∈ R
= Span{v
1}.
Analog v
1=
12v
2, und weiter v =
12· λ
1+ λ
2· v
2, d. h.
Span{v
1, v
2} =
v ∈ R
3: v = λ ·
2 4 0
, λ ∈ R
= Span{v
2}.
In diesem Beispiel wird nur einer der beiden Vektoren v
1, v
2ben¨otigt, um denselben Unterraum von R
2zu erzeugen.
Bemerkung 5.15. Es sei 0 6= v ∈ R
3ein fester Vektor. Dann ist Span{v} eine Gerade in R
3durch 0.
Ferner sei ein Vektor w ∈ V \ Span{v} fixiert. Dann ist Span{v, w} eine Ebene in R
3durch 0 (betrachten Sie auch die Bilder im Beispiel 5.4).
Definition und Satz 5.16. Sei V ein Vektorraum.
a) Die Vektoren {v
1, v
2, . . . , v
n} ⊆ V heißen linear unabh¨angig genau dann, wenn
n
X
i=1
λ
i· v
i= 0 = ⇒ λ
i= 0 f¨ur alle i = 1, . . . , n.
Das heißt, es existiert nur die triviale Darstellung des Nullvektors. Damit sind die Vektoren {v
1, v
2, . . . , v
n} linear unabh¨angig, falls
• keiner der Vektoren aus {v
1, v
2, . . . , v
n} als Linearkombination der anderen Vek- toren aus {v
1, v
2, . . . , v
n} geschrieben werden kann;
• jeder Vektor v ∈ Span{v
1, v
2, . . . , v
n} genau eine Linearkombination aus den Vektoren {v
1, v
2, . . . , v
n} besitzt.
b) Ist hingegen
n
P
i=1
λ
i· v
i= 0 f¨ur Zahlen λ
1, . . . , λ
nmit mindestens einem λ
j6= 0, j ∈ {1, . . . , n}, so heißen die Vektoren {v
1, v
2, . . . , v
n} linear abh¨angig. Das heißt, es existiert eine nichttriviale Darstellung des Nullvektors.
In diesem Fall sagt man auch: v
jist linear abh¨angig von {v
1, . . . , v
j−1, v
j+1, . . . , v
n}.
Damit sind die Vektoren {v
1, v
2, . . . , v
n} linear abh¨angig, falls
• mindestens einer der Vektoren aus {v
1, v
2, . . . , v
n} als Linearkombination der anderen Vektoren aus {v
1, v
2, . . . , v
n} geschrieben werden kann;
• es einen Vektor v ∈ Span{v
1, v
2, . . . , v
n} gibt, der mindestens zwei verschiedene Linearkombinationen aus den Vektoren {v
1, v
2, . . . , v
n} besitzt.
Beispiel 5.17. In Beispiel 5.14 b) ist der Vektor v
1:= (1, 2, 0)
tlinear abh¨angig vom Vektor v
2:= (2, 4, 0)
t, denn es gilt
v
1= 1
2 · v
2.
Umgekehrt ist auch v
2linear abh¨angig von v
1, denn v
2= 2 · v
1. Eine nichttriviale Darstellung des Nullvektors ist z. B.
0 = −2 · v
1+ v
2.
Beispiel 5.18. Im Vektorraum V = R
4sind die Vektoren v
1= (6, 2, 3, 4)
t, v
2= (0, 5, −3, 1)
t, v
3= (0, 0, 7, −2)
tlinear unabh¨angig.
Um diese Behauptung zu zeigen, ¨uberpr¨ufen wir, dass die Gleichung λ
1· v
1+ λ
2· v
2+ λ
3· v
3= 0 mit λ
1, λ
2, λ
3∈ R , genau f¨ur λ
1= λ
2= λ
3= 0 erf¨ullt ist.
Wir setzen in die obige Gleichung die Vektoren v
1, v
2, v
3ein:
λ
1·
6 2 3 4
+ λ
2·
0 5
−3 1
+ λ
3·
0 0 7
−2
=
0 0 0 0
und benutzen die Definition 5.2 f¨ur die Vektoraddition und Skalarmultiplikation:
6 · λ
12 · λ
1+ 5 · λ
23 · λ
1− 3 · λ
2+ 7 · λ
34 · λ
1+ λ
2− 2 · λ
3
=
0 0 0 0
.
Zwei Vektoren sind gleich, wenn entsprechende Komponenten gleich sind, also folgt
6 · λ
1= 0 = ⇒ λ
1= 0
2 · λ
1+ 5 · λ
2= 0 = ⇒ λ
2= 0 3 · λ
1− 3 · λ
2+ 7 · λ
3= 0 = ⇒ λ
3= 0 4 · λ
1+ λ
2− 2 · λ
3= 0
und die Behauptung ist gezeigt.
Bemerkung 5.19. In V = R
nreduziert sich Nachpr¨ufen der linearen Unabh¨angigkeit eines Vektorsystems v
1, v
2, . . . , v
m∈ R
nauf das L¨osen eines homogenen linearen Gleichungs- systems mit n Gleichungen und m Unbekannten.
Die L¨osungsmethoden von solchen Gleichungssystemen werden in den n¨achsten Abschnitten erl¨autert (s. Abschnitte 7.7 und 8.2).
5.3. Basis und Dimension endlich-dimensionaler Vektorr¨ aume.
Definition 5.20. Es sei V ein Vektorraum.
a) Der Vektorraum V heißt endlich-dimensional, falls es ein Vektorsystem {v
1, v
2, . . . , v
n} ⊆ V gibt, das V erzeugt, d. h.
V = Span{v
1, v
2, . . . , v
n}.
Andernfalls heißt V unendlich-dimensional.
b) Sind zus¨atzlich die Vektoren v
1, v
2, . . . , v
nlinear unabh¨angig, so nennt man das
System {v
1, v
2, . . . , v
n} Basis von V .
c) Die Anzahl von Vektoren in einer Basis {v
1, v
2, . . . , v
n} von V heißt Dimension von V und wird mit
dim V := n bezeichnet.
Insbesondere definiert man f¨ur den Nullraum: dim{0} := 0.
Bemerkung 5.21.
a) Eine Basis eines Vektorraumes V ist nicht eindeutig bestimmt. Man kann jedoch zeigen, dass alle Basen eines endlich-dimensionalen Vektorraumes V dieselbe Anzahl von Vektoren haben, d. h. die Dimension ist eindeutig festgelegt.
Jedes Vektorsystem mit mehr als n := dim V Vektoren ist linear abh¨angig.
b) Ist {v
1, v
2, . . . , v
n} eine Basis von V , so l¨aßt sich also jeder Vektor v ∈ V auf genau eine Weise als Linearkombination der Elemente aus {v
1, v
2, . . . , v
n} darstellen, d. h.
∃!
(λ1,...,λn)∈Rn: v =
n
X
i=1
λ
i· v
i.
Die eindeutig bestimmte Skalare λ
1, . . . , λ
n∈ R heißen Koordinaten von v bez¨uglich der Basis {v
1, v
2, . . . , v
n}.
c) Es sei U ⊆ V ein Unterraum von V . Dann ist
• dim(U ) ≤ dim(V )
• dim(U ) = dim(V ) = ⇒ U = V .
Beispiel 5.22. Es sei V = R
2. Die Einheitsvektoren e
1= 1
0
und e
2= 0
1
bilden eine Basis des R
2, d. h. dim R
2= 2. Denn
a) R
2ist von den Vektoren e
1, e
2erzeugt, da jeder Vektor (a
1, a
2)
t∈ R
2sich als Linearkombination von {e
1, e
2} darstellen l¨aßt, und zwar als
a
1a
2= a
1· 1
0
+ a
2· 0
1
.
b) Die Vektoren e
1, e
2sind linear unabh¨angig, da 0 = λ
1· e
1+ λ
2· e
2=
λ
10
+
0 λ
2= λ
1λ
2genau dann, wenn λ
1= λ
2= 0.
Ebenso rechnet man nach, dass dim R
n= n f¨ur n ∈ N . Dazu betrachtet man wieder die Standardbasis (die kanonische Basis):
Beispiel 5.23. Die Standardbasis des R
nist:
e
1=
1 0 ...
0
, e
2=
0 1 ...
0
, . . . , e
n=
0 0 ...
1
.
Man nennt e
jauch den j -ten Einheitsvektor des R
n. Mit dieser Schreibweise ist
λ
1...
λ
n
=
n
X
i=1
λ
i· e
i,
und die Skalare λ
1, . . . , λ
n∈ R sind eindeutig bestimmt.
Die Koordinaten eines Vektors des R
nbez¨uglich der kanonischen Basis stimmen also mit den Komponenten des Vektors ¨uberein.
5.4. Lineare Abbildungen.
Definition 5.24. Seien V und W zwei Vektorr¨aume. Eine Abbildung ϕ : V → W heißt linear, wenn f¨ur alle v, v
1, v
2∈ V und λ ∈ R gilt:
a)
ϕ (v
1+ v
2) = ϕ (v
1) + ϕ (v
2), b)
ϕ(λ · v) = λ · ϕ(v).
Beispiel 5.25. Es sei V ein Vektorraum, und es sei α ∈ R eine feste Zahl. Dann ist ϕ :
V −→ V v 7−→ α · v eine lineare Abbildung.
Speziallf¨alle: f¨ur α = 0 die Nullabbildung, d.h. ϕ(v) = 0 f¨ur alle v ∈ V ,
f¨ur α = 1 die identische Abbildung oder Identit¨at, d.h. ϕ(v) = v f¨ur alle v ∈ V . Bemerkungen 5.26.
a) Setzt man in der Definition 5.24 b) λ = 0, so ergibt sich sofort, dass ϕ(0) = 0,
d. h. bei einer linearen Abbildung wird der Nullvektor des Definitionsvektorraumes auf den Nullvektor des Bildvektorraumes abgebildet.
b) Die beiden Gleichungen in der Definition 5.24 lassen sich zusammenfassen zu ϕ (λ
1· v
1+ λ
2· v
2) = λ
1· ϕ (v
1) + λ
2· ϕ (v
2)
f¨ur alle v
1, v
2∈ V und λ
1, λ
2∈ R c) Weiter gilt f¨ur alle n ∈ N :
ϕ
n
X
i=1
λ
i· v
i!
=
n
X
i=1
λ
i· ϕ (v
i) , wobei v
1, . . . , v
n∈ V und λ
1, . . . , λ
n∈ R .
Insbesondere bedeutet das, dass eine lineare Abbildung ϕ durch die Angabe von ϕ (v
1) , . . . , ϕ (v
n) eindeutig bestimmt ist, falls {v
1, . . . , v
n} eine Basis von V ist.
Satz 5.27. Seien V , W und U Vektorr¨aume, und ϕ, ϕ
1, ϕ
2: V → W und ψ : W → U lineare Abbildungen, sowie λ
1, λ
2∈ R . Dann sind die folgenden Abbildungen
a) λ
1· ϕ
1+ λ
2· ϕ
2: V → W mit
(λ
1ϕ
1+ λ
2ϕ
2) (v) := λ
1ϕ
1(v) + λ
2ϕ
2(v) f¨ur alle v ∈ V (siehe Bsp. 5.6)
b) ψ ◦ ϕ : V → U (siehe Def. 4.1)
c) ϕ
−1: W → V , falls ϕ bijektiv ist (siehe Def. 4.1) auch linear.
Definition 5.28. Es seien V und W Vektorr¨aume, und es sei ϕ : V → W eine lineare Abbildung.
a) Die Menge aller Vektoren v ∈ V , die auf den Nullvektor (von W ) abgebildet werden Kern ϕ := {v ∈ V : ϕ(v) = 0 },
wird der Kern von ϕ genannt.
b) Die Menge
Bild ϕ := ϕ(V ) = {w ∈ W : ∃
v∈Vw = ϕ(v)}
nennt man das Bild von ϕ.
Beispiel 5.29. Es sei V = W = R
3und eine Abbildung ϕ : R
3→ R
3mit ϕ
x
1x
2x
3
:=
x
1x
20
, die Projektion von R
3auf R
2.
• Die Abbildung ϕ ist linear, denn f¨ur x:= (x
1, x
2, x
3)
tund y:= (y
1, y
2, y
3)
tgilt:
ϕ (λ · x + µ · y) = ϕ
λ ·
x
1x
2x
3
+ µ ·
y
1y
2y
3
Def.5.2
=
= ϕ
λ · x
1+ µ · y
1λ · x
2+ µ · y
2λ · x
3+ µ · y
3
Def. vonϕ
=
λ · x
1+ µ · y
1λ · x
2+ µ · y
20
Def.5.2
=
= λ ·
x
1x
20
+ µ ·
y
1y
20
Def. vonϕ
=
= λ · ϕ
x
1x
2x
3
+ µ · ϕ
y
1y
2y
3
= λ · ϕ ( x ) + µ · ϕ ( y ) .
• Der Kern von ϕ ist Kern ϕ =
x = (x
1, x
2, x
3)
t∈ R
3: ϕ (x) = 0 =
=
x = (x
1, x
2, x
3)
t∈ R
3:
x
1x
20
=
0 0 0
=
=
x = (x
1, x
2, x
3)
t∈ R
3: x
1= x
2= 0 =
=
(0, 0, x
3)
t: x
3∈ R .
• Das Bild von ϕ ist Bild ϕ =
x = (x
1, x
2, x
3)
t∈ R
3: x
3= 0 =
(x
1, x
2, 0)
t: x
1, x
2∈ R
Satz 5.30. Es seien V und W Vektorr¨aume, und es sei ϕ : V → W eine lineare Abbildung.
Es gilt:
a) Kern ϕ ist ein Unterraum von V . b) Bild ϕ ist ein Unterraum von W .
c) dim V = dim (Bild ϕ) + dim (Kern ϕ).
d) ϕ ist injektiv (siehe Def. 4.1) genau dann, wenn Kern ϕ = {0} ist.
e) ϕ ist bijektiv (siehe Def. 4.1) genau dann, wenn ϕ injektiv ist und dim V = dim W . f) ϕ ist bijektiv genau dann, wenn ϕ surjektiv ist und dim V = dim W .
6. Matrizen und Operationen zwischen Matrizen
Beispiel 6.1. Ein Betrieb montiert aus Einzelteilen T
1, . . . , T
5Baugruppen B
1, . . . , B
4und fertigt aus den Baugruppen Enderzeugnisse E
1, E
2, E
3. Die beiden folgenden Tabellen (sogenannte Verbrauchs- oder Input-Output-Tabellen) zeigen, wieviel Einzelteile f¨ur die Mon- tage einer Baugruppe und wieviel Baugruppen f¨ur die Fertigung eines Endprodukts ben¨otigt werden:
B
1B
2B
3B
4T
12 1 3 4
T
22 0 5 3
T
36 3 4 2
T
43 4 0 1
T
51 1 1 9
E
1E
2E
3B
13 6 2
B
24 1 6
B
30 4 5
B
48 0 0
Der Betrieb soll 400 St¨uck von Endprodukt E
1, 500 St¨uck von Endprodukt E
2und 300 St¨uck von Endprodukt E
3liefern. Man kann diese Menge im Produktionsvektor p = (400, 500, 300)
tzusammenfassen.
Der Gesamtbedarf an einzelnen Baugruppen kann man mit dem folgenden Bedarfsvektor beschreiben:
b =
b
1b
2b
3b
4
=
3 · 400 + 6 · 500 + 2 · 300 4 · 400 + 1 · 500 + 6 · 300 0 · 400 + 4 · 500 + 5 · 300 8 · 400 + 0 · 500 + 0 · 300
=
4 800 3 900 3 500 3 200
.
Die Zahl b
j, j = 1, 2, 3, 4, bedeutet hier die Anzahl der Einheiten der Baugruppe B
j, die f¨ur den vorgegebenen Produktionsvektor ben¨otigt werden.
Der Gesamtbedarf an Einzelteilen wird dann durch den Bedarfsvektor x = (x
1, x
2, x
3, x
4, x
5)
tangegeben:
x =
x
1x
2x
3x
4x
5
=
2 · 4 800 + 1 · 3 900 + 3 · 3 500 + 4 · 3 200 2 · 4 800 + 0 · 3 900 + 5 · 3 500 + 3 · 3 200 6 · 4 800 + 3 · 3 900 + 4 · 3 500 + 2 · 3 200 3 · 4 800 + 4 · 3 900 + 0 · 3 500 + 1 · 3 200 1 · 4 800 + 1 · 3 900 + 1 · 3 500 + 9 · 3 200
=
36 800 36 700 60 900 33 200 41 000
.
Die Zahl x
i, i = 1, 2, 3, 4, 5, bedeutet hier die Anzahl der Einheiten des Einzelteils T
i, die f¨ur den vorgegebenen Produktionsvektor ben¨otigt werden.
Eine Tabelle, die direkt angibt, wieviel Einzelteile der Art T
i, i = 1, 2, 3, 4, 5, in eine
Einheit des Enderzeugnisses E
j, j = 1, 2, 3, eingehen, ist durch folgende Operationen zu
bekommen:
E
1E
2E
3T
12 · 3 + 1 · 4 + 3 · 0 + 4 · 8 2 · 6 + 1 · 1 + 3 · 4 + 4 · 0 2 · 2 + 1 · 6 + 3 · 5 + 4 · 0 T
22 · 3 + 0 · 4 + 5 · 0 + 3 · 8 2 · 6 + 0 · 1 + 5 · 4 + 3 · 0 2 · 2 + 0 · 6 + 5 · 5 + 3 · 0 T
36 · 3 + 3 · 4 + 4 · 0 + 2 · 8 6 · 6 + 3 · 1 + 4 · 4 + 2 · 0 6 · 2 + 3 · 6 + 4 · 5 + 2 · 0 T
43 · 3 + 4 · 4 + 0 · 0 + 1 · 8 3 · 6 + 4 · 1 + 0 · 4 + 1 · 0 3 · 2 + 4 · 6 + 0 · 5 + 1 · 0 T
51 · 3 + 1 · 4 + 1 · 0 + 9 · 8 1 · 6 + 1 · 1 + 1 · 4 + 9 · 0 1 · 2 + 1 · 6 + 1 · 5 + 9 · 0 Nach Rechnungen:
E
1E
2E
3T
142 25 25 T
230 32 29 T
346 55 50 T
433 22 30 T
579 11 13
Am Ende dieses Abschnitts kehren wir zu diesem Beispiel zur¨uck.
Definition 6.2. Seien m, n ∈ N . Ein geordnetes rechteckiges Zahlenschema
A :=
a
1,1a
1,2· · · a
1,j· · · a
1,na
2,1a
2,2· · · a
2,j· · · a
2,n... ... ... ...
a
i,1a
i,2· · · a
i,j· · · a
i,n... ... ... ...
a
m,1a
m,2· · · a
m,j· · · a
m,n
bestehend aus m Zeilen und n Spalten und m · n Zahlen a
i,j∈ R , wobei i = 1, . . . , m und j = 1, . . . , n, wird eine (m × n)–Matrix (lies: ” m Kreuz n Matrix”) genannt.
Die Zahlen a
i,jwerden als Elemente oder Glieder der Matrix A bezeichnet.
Matrix A schreibt man oft in der Form A = (a
i,j)
i=1,...,mj=1,...,n
oder kurz A = (a
i,j) .
Die Position der Elemente a
i,jin der Matrix ergibt sich dabei durch die Vereinbarung, dass der erste Index (hier: i) der Zeilenindex und der zweite Index (hier: j) der Spaltenindex ist, d. h. das Element a
i,jgeh¨ort zur i-ten Zeile und zur j-ten Spalte, man sagt auch: a
i,jsteht an der Position (i, j).
Definition 6.3. Zwei (m × n)–Matrizen A = (a
i,j) und B = (b
i,j) heißen gleich, wenn ihre Elemente auf allen Positionen ¨ubereinstimmen:
A = B ⇐⇒ a
i,j= b
i,jf¨ur alle i = 1, . . . , m und alle j = 1, . . . , n.
Bemerkung. Notwendigerweise ist Gleichheit nur f¨ur gleichdimensionierte Matrizen (die gleich viele Zeilen und Spalten haben) definiert!
Definition 6.4. Spezielle Matrizen:
Sei n, m, i, j ∈ N .
(1) Eine (m × 1)–Matrix (mit nur einer Spalte) ist ein Spaltenvektor:
a
1,1a
2,1...
a
m,1
=
a
1a
2...
a
m
.
Speziell kann man dann eine (m × n)–Matrix als Zusammenfassung von n Spalten- vektoren auffassen.
(2) Eine (1 × n)–Matrix (mit nur einer Zeile) ist ein Zeilenvektor:
(a
1,1a
1,2. . . a
1,n) = (a
1, a
2, . . . , a
n) .
Speziell kann man dann eine (m × n)–Matrix als Zusammenfassung von m Zeilen- vektoren auffassen.
(3) Eine (n × n)–Matrix heißt quadratisch. Die ¨ubereinstimmende Anzahl von Zeilen und Spalten wird Ordnung der (quadratischen) Matrix genannt.
Ist A = (a
i,j) eine quadratische (n × n)–Matrix, so bilden die Positionen der Elemente a
i,jmit i = j (d. h. mit gleichen Spalten- und Zeilenindex) die Hauptdiagonale:
a
1,1a
1,2. . . a
1,na
2,1a
2,2. .. a
2,n... ... . .. ...
a
n,1. . . . . . a
n,n
.
Entsprechend bilden die Positionen der Elemente a
i,jmit i + j = n + 1, d. h.
a
n,1, a
(n−1),2, . . . , a
1,n, die Nebendiagonale.
(a) Eine quadratische Matrix, in der nur die Elemente auf der Hauptdiagonale un- gleich Null sind, heißt Diagonalmatrix:
a
1,10 . . . 0 0 a
2,2. .. 0 ... ... ... 0 0 . . . 0 a
n,n
.
(i) Die Diagonalmatrix, in der die Hauptdiagonalelemente gleich Eins sind, heißt (n × n)–Einheitsmatrix und wird mit E
nbezeichnet:
E
n:=
1 0 . . . 0 0 1 . .. 0 ... ... ... 0 0 . . . 0 1
.
(b) Eine quadratische Matrix, die auf einer Seite der Hauptdiagonalen nur Nullen enth¨alt, heißt Dreiecksmatrix.
(i) Befinden sich die Nullen unterhalb der Hauptdiagonalen, so spricht man von einer oberen Dreiecksmatrix:
a
1,1a
1,2. . . a
1,n0 a
2,2. . . a
2,n... ... ... ...
0 . . . 0 a
n,n
,
(ii) Befinden sich dagegen die Nullen oberhalb der Hauptdiagonalen, so spricht man von einer unteren Dreiecksmatrix:
a
1,10 . . . 0 a
2,1a
2,2. .. 0 ... ... ... 0 a
n,1. . . . . . a
n,n
.
(4) Die (m × n)–Matrix, die nur Nullen enth¨alt, heißt (m × n)–Nullmatrix.
Beispiele 6.5. In der Vorlesung.
Definition 6.6.
a) Sei A = (a
i,j)
i=1,...,mj=1,...,n
eine (m × n)-Matrix. Die (n × m)-Matrix A
t:= (a
j,i)
j=1,...,ni=1,...,m
,
die man erh¨alt, indem man die Zeilen und Spalten von A miteinander vertauscht, wird als die zu A transponierte Matrix bezeichnet, d. h.:
A
t=
a
1,1a
2,1· · · a
m,1a
1,2a
2,2· · · a
m,2... ... ...
a
1,na
2,n· · · a
m,n
.
b) Eine Matrix A heißt symmetrisch, wenn A = A
tgilt. Insbesondere k¨onnen nur quadratische Matrizen symmetrisch sein.
Beispiele 6.7. In der Vorlesung.
Man kann zeigen, dass die maximale Anzahl linear unabh¨angiger Zeilenvektoren einer Matrix mit der maximalen Anzahl linear unabh¨angiger Spaltenvektoren dieser Matrix ¨uber- einstimmt.
Diese Tatsache erlaubt uns, die folgende Definition vorzunehmen:
Definition 6.8. Es sei A eine (m × n)–Matrix. Als Rang der Matrix A bezeichnet man die maximale Anzahl linear unabh¨angiger Zeilenvektoren (bzw. Spaltenvektoren) von A und notiert ihn mit rang (A).
Insbesondere ist
rang (A) ≤ min{m, n}.
Beispiele 6.9.
a) Betrachten wir die (2 × 3)–Matrix A mit A =
1 2 0 2 4 0
. Aus der Definition 6.8 folgt, dass
rang (A) ≤ min{2, 3} = 2.
Aber nach Beispiel 5.17 sind die Zeilenvektoren (1, 2, 0) und (2, 4, 0) linear abh¨angig, und es gilt daher
rang (A) = 1.
b) Betrachten wir jetzt die (4 × 3)–Matrix B mit
B =
6 0 0
2 5 0
3 −3 7 4 1 −2
Aus der Definition 6.8 folgt wieder, dass
rang (B ) ≤ min{4, 3} = 3
Aber nach Beispiel 5.18 sind die Spaltenvektoren (6, 2, 3, 4)
t, (0, 5, −3, 1)
t, (0, 0, 7, −2)
tlinear unabh¨angig, und es gilt daher
rang (B) = 3.
Definition 6.10. Eine quadratische (n × n)–Matrix A heißt regul¨ar (oder nichtsingul¨ar), wenn
rang (A) = n.
Quadratische Matrizen, die nicht regul¨ar sind, heißen singul¨ar.
Singul¨are Matrizen besitzen linear abh¨angige Spalten- und Zeilenvektoren, und ihr Rang ist echt kleiner als ihre Ordnung.
Beispiel 6.11. In der Vorlesung.
6.1. Matrizenaddition und Skalarmultiplikation. Die nachfolgenden Matrizenopera- tionen sind direkte Verallgemeinerungen der Rechenoperationen, die f¨ur Vektoren des R
neingef¨uhrt wurden (siehe Def. 5.2).
Definition 6.12. Es seien
A = (a
i,j)
i=1,...,mj=1,...,n
und B = (b
i,j)
i=1,...,m j=1,...,nzwei (m × n)–Matrizen, m, n ∈ N , und es sei λ eine reelle Zahl.
a) Addition von Matrizen:
Die Summe von A und B ist die (m × n)–Matrix A + B := (a
i,j+ b
i,j)
i=1,...,mj=1,...,n
,
d. h. die Elemente, die an derselben Stelle stehen, werden addiert.
b) Multiplikation einer Matrix mit einem Skalar:
Das Produkt von A mit λ ist die (m × n)-Matrix λ · A := (λ · a
i,j)
i=1,...,mj=1,...,n
,
d. h. jedes Element a
i,jder Matrix A wird mit dem Skalar λ multipliziert.
Bemerkung 6.13.
• Wie bei Vektoren werden hier Addition und Skalarmultiplikation komponentenweise
durchgef¨uhrt. Man kann also nur gleichdimensionierte Matrizen addieren.
• Die beiden algebraische Operationen haben wieder die Eigenschaften aus der Defini- tion 5.5 eines Vektorraums, d. h. die Menge aller (m × n)–Matrizen (f¨ur festgelegte nat¨urliche Zahlen m und n) bildet mit der Matrixaddition und der Skalarmultiplika- tion einen Vektorraum ¨uber R .
Insbesondere gelten die folgende Rechenregeln:
Assoziativgesetz f¨ur die Addition:
A + (B + C) = (A + B ) + C Kommutativgesetz f¨ur die Addition:
A + B = B + A Assoziativgesetz f¨ur die Skalarmultiplikation:
λ · (µ · A) = (λ · µ) · A Distributivgesetze:
λ · (A + B ) = λ · A + λ · B (λ + µ) · A = λ · A + µ · A
Beispiele 6.14. Es seien A und B zwei (3 × 4)–Matrizen mit A =
1 0 −2 3
−4 1 5 −2
0 −1 2 3
und B =
−1 0 1 1
2 −1 1 3
2 1 1 −1
, und es sei λ = 2. Dann ist
a) die Summe von A und B A + B =
1 + (−1) 0 + 0 −2 + 1 3 + 1
−4 + 2 1 + (−1) 5 + 1 −2 + 3 0 + 2 −1 + 1 2 + 1 3 + (−1)
=
=
0 0 −1 4
−2 0 6 1
2 0 3 2
.
b) das Produkt von A mit λ λ · A =
2 · 1 2 · 0 2 · (−2) 2 · 3 2 · (−4) 2 · 1 2 · 5 2 · (−2) 2 · 0 2 · (−1) 2 · 2 2 · 3
=
=
2 0 −4 6
−8 2 10 −4
0 −2 4 6
.
6.2. Multiplikation von Matrizen. Schwieriger als Addition und Skalarmultiplikation ist die n¨achste Operation: Matrizenmultiplikation:
Definition 6.15. Multiplikation von Matrizen Sei A = (a
i,j)
i=1,...,mj=1,...,n
eine (m × n)-Matrix und B = (b
j,k)
j=1,...,n k=1,...,reine n × r-Matrix.
Das Produkt der Matrix A mit der Matrix B ist die (m × r)-Matrix C A · B = C = (c
i,k)
i=1,...,mk=1,...,r
,
mit den Koeffizienten c
i,k, i = 1, . . . , m, k = 1, . . . , r, die nach folgender Vorschrift zu bilden sind:
c
i,k:= a
i,1· b
1,k+ a
i,2· b
2,k+ · · · + a
i,n· b
n,k=
n
X
j=1
a
i,j· b
j,k,
d. h. der Koeffizient c
i,kentsteht, wenn man die Elemente der i-ten Zeile der Matrix A mit den entsprechenden Elementen der k-ten Spalte der Matrix B multipliziert und zusammen addiert.
Bemerkung. Zwei Matrizen k¨onnen gem¨aß dieser Definition nur dann miteinander multipli- ziert werden, wenn die erste Matrix genauso viele Spalten hat wie die zweite Matrix Zeilen.
Die Berechnung der Produktmatrix l¨asst sich ¨ubersichtlich mit der sogennanten FALKschen Anordnung durchf¨uhren:
b
1,1. . . b
1,k. . . b
1,rb
2,1. . . b
2,k. . . b
2,rB = ... .. . ...
b
n,1. . . b
n,k. . . b
n,ra
1,1a
1,2. . . a
1,n|
... ... ... ↓
A = a
i,1a
i,2. . . a
i,n− → c
i,k= A · B
... ... ...
a
m,1a
m,2. . . a
m,nBeispiel 6.16. Es seien A eine (3 × 2)–Matrix und B eine (2 × 4)–Matrix mit
A =
2 −1
0 1
1 −4
und B =
1 1 2 0 4 3 −1 −2
.
Dann ist das Produkt A · B eine (3 × 4)–Matrix C = (c
i,k)
i=1,2,3 k=1,2,3,4mit c
1,1= 2 · 1 + (−1) · 4 = −2 c
1,2= 2 · 1 + (−1) · 3 = −1 c
1,3= 2 · 2 + (−1) · (−1) = 5 c
1,4= 2 · 0 + (−1) · (−2) = 2 c
2,1= 0 · 1 + 1 · 4 = 4 c
2,2= 0 · 1 + 1 · 3 = 3 c
2,3= 0 · 2 + 1 · (−1) = −1 c
2,4= 0 · 0 + 1 · (−2) = −2 c
3,1= 1 · 1 + (−4) · 4 = −15 c
3,2= 1 · 1 + (−4) · 3 = −11 c
3,3= 1 · 2 + (−4) · (−1) = 6 c
3,4= 1 · 0 + (−4) · (−2) = 8.
FALKsche Anordnung:
1 1 2 0
B = 4 3 −1 −2
2 −1 −2 −1 5 2
A = 0 1 4 3 −1 −2 = A · B
1 −4 −15 −11 6 8
Das Produkt B ·A ist dagegen nicht definiert, da die Anzahl der Spalten der (2×4)–Matrix B von der Anzahl der Zeilen der (3 × 2)–Matrix A verschieden ist.
Doch selbst wenn f¨ur zwei Matrizen A und B sowohl das Produkt A · B als auch das Produkt B · A definiert ist, gilt im allgemeinen B · A 6= A · B, d. h. die Matrizenmultiplikation ist nicht kommutativ.
Beispiel 6.17. Es seien A eine (2 × 3)–Matrix und B eine (3 × 2)–Matrix mit A =
1 2 3 2 4 6
und B =
1 4
1 1
−1 −2
. Das Produkt der Matrix A mit der Matrix B ist eine (2 × 2)–Matrix A · B:
1 4
B = 1 1
−1 −2
A = 1 2 3 0 0 = A · B
2 4 6 0 0
wogegen das Produkt B · A eine (3 × 3)-Matrix ergibt
A = 1 2 3
2 4 6
1 4 9 18 27
B = 1 1 3 6 9 = B · A
−1 −2 −5 −10 −15
Selbst wenn die beide Produkte definiert sind und die gleiche Matrixform haben (f¨ur quadratische Matrizen A und B ), stimmen sie im allgemeinen nicht ¨uberein, wie im n¨achsten Beispiel zu sehen ist.
Beispiel 6.18. Das Produkt 1 −1
0 2
·
1 1 2 −2
=
−1 3 4 −4
ist nicht identisch mit dem Produkt 1 1
2 −2
·
1 −1
0 2
=
1 1 2 −6
.
Im Beispiel 6.17 ist das Produkt A · B gleich der Nullmatrix, obwohl alle Elemente der Matrizen A und B von Null verschieden sind. Also l¨aßt sich die Aussage (s. Seite 7)
a · b = 0 ⇐⇒ a = 0 oder b = 0,
die f¨ur das Produkt reeller Zahlen allgemein g¨ultig ist, nicht auf das Matrizenprodukt ¨ubert- ragen.
Auch die K¨urzungsregel ist nicht ohne weiteres auf das Matrizenprodukt ¨ubertragbar, wie das n¨achste Beispiel zeigt.
Beispiel 6.19. Es seien A, B und C (3 × 3)–Matrizen mit A =
1 −2 2
3 1 −2
5 −3 2
, B =
1 4 2
−6 5 −9
−3 6 −5
und C =
3 2 6
2 −3 7 4 −1 9
. Dann gilt es
A · B =
7 6 10
3 5 7
17 17 27
= A · C obwohl B 6= C ist.
F¨ur die Matrizenmultiplikation gelten die folgenden Rechenregeln, sofern die Multi- plikationen definiert sind:
Satz 6.20.
a) Assoziativgesetz f¨ur die Multiplikation:
(A · B ) · C = A · (B · C) b) Distributivgesetze:
A · (B + C) = A · B + A · C
(A + B ) · C = A · C + B · C
Ein Kommutativgesetz A · B = B · A gilt im allgemeinen nicht, wie obige Beispiele lehren.
Ist A eine (m × n)–Matrix, dann
A · E
n= A und E
m· A = A, wobei E
ndie (n × n)– und E
mdie (m × m)–Einheitsmatrizen sind.
Satz 6.21. In der Menge aller quadratischen (n × n)–Matrizen gibt es ein neutrales Element bez¨uglich der Multiplikation. Dieses neutrale Element ist
E
n:=
1 0 . . . 0 0 1 . .. 0 ... ... ... 0 0 . . . 0 1
die (n × n)–Einheitsmatrix, d. h. es gilt:
A · E
n= A = E
n· A f¨ur alle (n × n)–Matrizen A.
Definition 6.22. Sei A eine quadratische (n × n)–Matrix. Eine (n × n)–Matrix, die mit A
−1bezeichnet wird, mit der Eigenschaft
A · A
−1= E
n= A
−1· A heißt die zu A Inverse (Matrix).
Bemerkung 6.23.
a) Nicht zu allen (n × n)–Matrizen gibt es Inverse. Man kann z. B. zeigen, dass es zur (2 × 2)–Matrix
A :=
1 0 0 0
keine (2 × 2)–Matrix A
−1gibt mit
A · A
−1= E
2=
1 0 0 1
. In der Vorlesung!
b) Andererseits gibt es (n × n)–Matrizen, die eine Inverse haben, z. B. die (2 ×2)–Matrix A :=
2 1 0 −1
. F¨ur die (2 × 2)–Matrix A
−1mit
A
−1:=
1 2
1 2
0 −1
!
gilt:
A · A
−1= E
2= A
−1· A.
Satz 6.24. Jede regul¨are Matrix (s. Def. 6.10) besitzt eine eindeutig bestimmte Inverse.
Es stellt sich also die Frage nach einem einfachen Algorithmus zur Berechnung von A
−1. Diese Frage werden wir sp¨ater beantworten (s. Abschnitt 7.6).
Wir kehren jetzt zum Beispiel 6.1 zur¨uck:
Beispiel 6.25. Die beiden Verbrauchs–Tabellen kann man als Matrizen betrachten:
M
T→B:=
2 1 3 4 2 0 5 3 6 3 4 2 3 4 0 1 1 1 1 9
und M
B→E:=
3 6 2 4 1 6 0 4 5 8 0 0
Der Bedarfsvektor der einzelnen Baugruppen kann dann als Produkt der Matrix M
B→Emit dem Produktionsvektor p berechnet werden:
b =
b
1b
2b
3b
4
= M
B→E· p =
3 6 2 4 1 6 0 4 5 8 0 0
·
400 500 300
=
4 800 3 900 3 500 3 200
.
Der Bedarfsvektor der Einzelteilen kann weiter als Produkt der Matrix M
T→Bmit dem Bedarfsvektor der Baugruppen b berechnet werden:
x =
x
1x
2x
3x
4x
5
= M
T→B· b =
2 1 3 4 2 0 5 3 6 3 4 2 3 4 0 1 1 1 1 9
·
4 800 3 900 3 500 3 200
=
36 800 36 700 60 900 33 200 41 000
.
Weil x = M
T→B· b und b = M
B→E· p, ist x = (M
T→B· M
B→E) · p. Folglich kann man eine Tabelle, die direkt angibt, wieviele Einzelteile der Art T
i, i = 1, 2, 3, 4, 5, in eine Einheit des Enderzeugnisses E
j, j = 1, 2, 3, eingehen, auch als eine Matrix M
T→Ebetrachten, die gleich dem Produkt der Matrizen M
T→Bund M
B→Eist:
M
T→E= M
T→B· M
B→E=
2 1 3 4 2 0 5 3 6 3 4 2 3 4 0 1 1 1 1 9
·
3 6 2 4 1 6 0 4 5 8 0 0
=
42 25 25 30 32 29 46 55 50 33 22 30 79 11 13
.
6.3. Zusammenhang von linearen Abbildungen und Matrizen. Die Addition und Multiplikation von Matrizen kann man auch mit Hilfe von linearen Abbildungen interpretie- ren.
Jeder (m × n)–Matrix A wird eine lineare Abbildung ϕ
A: R
n→ R
mmit
ϕ
A(v) := A · v =
a
1,1a
1,2· · · a
1,na
2,1a
2,2· · · a
2,n... ... ...
a
m,1a
m,2· · · a
m,n
·
v
1v
2...
v
n
=
n
P
j=1
a
1,j· v
j...
n
P
j=1