• Keine Ergebnisse gefunden

Einf¨ uhrung in die Faktorenanalyse

N/A
N/A
Protected

Academic year: 2021

Aktie "Einf¨ uhrung in die Faktorenanalyse"

Copied!
140
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

· ·

Einf¨ uhrung in die Faktorenanalyse

mit einer Einf¨ uhrung in die Matrixrechnung

Skriptum zu den Vorlesungen

Evaluation und Forschungsmethoden (Statistik III + IV)

U. Mortensen

·

Fachbereich Psychologie und Sportwissenschaften, Institut III Westf¨ alische Wilhelms-Universit¨ at

Fliednerstr. 21

Letzte ¨ Anderung: 14. 06. 2013

Ich danke Herrn Dr. Hans Stocker f¨ ur seine Hinweise auf (Tipp-

)Fehler und unverst¨ andliche S¨ atze; die vorgenommenen Verbesse-

rungen sind Resultate seiner Sorgfalt.

(2)

Inhaltsverzeichnis

1 Grundgedanken der Faktorenanalyse 4

1.1 Kurze Geschichte der Faktorenanalyse . . . . 4

1.2 Der allgemeine Ansatz . . . . 5

1.3 Messwerte als Funktion latenter Variablen . . . . 7

2 Vektoren, Matrizen, und latente Variablen 16 2.1 Vektoren . . . . 16

2.1.1 Latente Variablen, Vektoren, und Linearkombinationen 16 2.1.2 Skalarprodukte . . . . 20

2.1.3 Vektorl¨ ange und Normierung . . . . 21

2.1.4 Das Skalarprodukt und der Winkel zwischen Vektoren . 22 2.1.5 Korrelation und Skalarprodukt . . . . 25

2.1.6 Vektorr¨ aume, Basisvektoren und latente Variablen . . . 26

2.2 Matrizen, Eigenvektoren und Ellipsoide . . . . 36

2.2.1 Definition einer Matrix . . . . 36

2.2.2 Multiplikation mit einem Skalar und Addition von Matrizen 37 2.2.3 Das Produkt von Matrizen . . . . 37

2.2.4 Zentrierung und Standardisierung . . . . 40

2.2.5 Der Rang einer Matrix . . . . 43

2.2.6 Symmetrische Matrizen . . . . 44

2.2.7 Die Einheitsmatrix und die inverse Matrix . . . . 46

2.2.8 Die Transformation von Vektoren . . . . 47

2.2.9 Die Rotation als Transformation . . . . 48

2.2.10 Eigenvektoren . . . . 49

2.2.11 Quadratische Formen und Ellipsoide . . . . 53

3 Hauptachsentransformation und Faktorenanalyse 56 3.1 Die Hauptachsentransformation . . . . 56

3.1.1 Die Singularwertzerlegung . . . . 61

3.1.2 Faktorladungen und Faktorwerte . . . . 64

3.1.3 Formale Aspekte der Interpretation . . . . 69

3.1.4 Faktorladungen als Korrelationen . . . . 71

3.1.5 Die Approximation von Z . . . . 72

(3)

3.1.6 Die Beziehung zur Hauptachsentransformation . . . . . 73

3.1.7 Eine Anwendung auf die Regressionsrechnung . . . . 73

3.2 Faktorenanalyse . . . . 75

3.2.1 Vorbemerkung: zuf¨ allige Vektoren . . . . 75

3.2.2 Das Modell der Faktorenanalyse . . . . 75

3.2.3 Die Hauptkomponentenanalyse . . . . 78

3.2.4 Hauptkomponenten versus Faktoren . . . . 78

3.2.5 Der Biplot . . . . 81

3.2.6 Die Mahalanobis-Distanz . . . . 83

3.2.7 Die Mahalanobis-Distanz und die Distanz zwischen Personen 88 3.2.8 Die multivariate Normalverteilung . . . . 90

3.2.9 Beispiele . . . . 91

3.3 Die Hauptfaktorenanalyse . . . 101

3.4 Die Sch¨ atzung der Kommunalit¨ aten . . . 103

3.5 Image-Analyse . . . 104

3.6 Faktorentransformationen . . . 105

4 Typen von Analysen 109 5 Dichotome Variable und nichlineare Faktorenanalyse 111 5.1 Dichtome Variable I . . . 111

5.2 Dichotome Variable II . . . 116

5.3 Nichtlineare Modelle . . . 118

5.4 Latent-Class-Modelle . . . 121

6 Anhang 123 6.1 Eine alternative Herleitung . . . 123

6.2 Lineare und statistische Unabh¨ angigkeit . . . 125

6.3 Koordinatenrotation . . . 127

6.3.1 Ansatz I . . . 127

6.3.2 Ansatz II . . . 128

6.4 Extrema von Funktionen mit Nebenbedingungen . . . 130

6.5 Herleitung der 2-dimensionalen Normalverteilung . . . 133

Hinweis: Am Ende des Skripts findet man einen Index.

(4)

1 Grundgedanken der Faktorenanalyse

1.1 Kurze Geschichte der Faktorenanalyse

Die Urspr¨ unge der Faktorenanalyse liegen in Versuchen, die Intelligenz zu mes- sen, und scheinen auf Karl Pearson (1901) zur¨ uckzugehen, wenn auch Charles Spearman oft als Begr¨ under dieser Methode genannt wird; den ebenso in- teressanten wie beklemmenden Hintergrund dieser Vermessungsbem¨ uhungen findet man in Stephen Jay Gould’s Buch Der falsch vermessene Mensch, wo man auch eine ebenso nicht-mathematische wie informative Einf¨ uhrung in die Faktorenanalyse findet (p. 265). Es ging zun¨ achst darum, die Existenz oder Nichtexistenz eines allgemeinen F¨ ahigkeitsfaktors g nachzuweisen und Metho- den zu seiner Berechnung zu finden. Hotelling (1933) schlug die Hauptachsen- transformation, wie sie in diesem Skript im Zentrum der Betrachtungen steht, vor, auch wenn sie hier anders hergeleitet wird (vergl. aber den Ansatz, die Summe der Quadrate der Koordinaten auf der neuen Achse, wie sie in Glei- chung (234) auf Seite 79) definiert wird, zu maximieren. Thurstone (1931) trug dann wesentlich zur Verbreitung der Theorie der Multiplen Faktoren bei, in der die Spearmansche g-Theorie kritisiert wird; weiter schuf er mit der Centroid- Methode als einer Ann¨ aherung an die Hauptachsenmethode eine M¨ oglichkeit zur numerischen Approximation eben der Hauptachsenmethode, und mit dem Begriff der Einfachstruktur schlug er einen plausiblen Ansatz zur Interpretati- on vor. Ob man allerdings die Faktorenanalyse als K¨ onigsweg zu einer Theorie des menschlichen Intellekts und der Pers¨ onlichkeit ansehen kann, muß wohl eher bezweifelt werden. Kelly (1940) hat den Zweck der Faktorenanlyse mit der Bemerkung

”There is no search for timeless, spaceless, populationless truth in factor analysis; rather, it represents a simple, straightforward problem of description in several dimensions of a definite group functioning in definite manners, and he who assumes to read more remote verities into the factorial outcome is certainly doomed to disappointment.”

charakterisiert (vergl. auch Harman (1967)). Die Einstellung zur Faktorenana-

lyse und verwandten Verfahren sollte eher pragmatisch sein. Idealerweise soll-

te man eine Theorie ¨ uber den betrachteten Gegenstandsbereich (Intelligenz,

Pers¨ onlichkeitsst¨ orungen, etc) haben; man kann dann diskutieren, in welchem

Sinne faktorenanalytische Ans¨ atze diese Theorie approximieren. In der psycho-

logischen Forschungspraxis geht man allerdings oft umgekehrt vor, d.h. man

versucht, ¨ uber die Faktorenanalyse induktiv zu einer Theorie zu gelangen. Sol-

che Versuchen liegt implizit die Annahme zugrunde, dass Theorien durch eine

Art kanonischer Struktur gekennzeichnet werden k¨ onnen, die durch das Postu-

lat der Existenz latenter, additiv wirkender ”Faktoren” definiert werden k¨ onnen

(es gibt auch Ans¨ atze f¨ ur nichtlinear wirkende Faktoren, die aber in der Praxis

(5)

nur eine geringe Rolle zu spielen scheinen). Warum eine solche Struktur psy- chologischen Prozessen unterliegen soll, wird kaum jemals explizit diskutiert.

Vielfach repr¨ asentieren die mit den g¨ angigen Standardverfahren gemessenen psychologischen Variablen nur Aspekte eines komplexen, nichtlinearen dyna- mischen Systems, und die Charakterisierung der Interaktion dieser Variablen anhand der der Faktorenanalyse zugrunde liegenden linearen Regression kann im Prinzip nur eine erste N¨ aherung darstellen.

1.2 Der allgemeine Ansatz

Vielfach erh¨ alt man bei empirischen Untersuchungen große Datenmengen, die interpretiert werden m¨ ussen. So werden bei z.B. Meinungsumfragen 1000 oder 2000 Personen befragt, wobei der Fragebogen 20 oder 30 Fragen umfassen kann. Bei EEG-Untersuchungen, bei denen etwa an 15 Positionen am Kopf in Abst¨ anden von Millisenkungen Potenziale gemessen werden, fallen eben- falls sehr viele Messungen an. Selbst wenn nur 100 Personen einen Fragebogen mit 20 Fragen vorgelegt bekommen, liegt die Anzahl der zu interpretieren- den Antworten bei 2000. So wichtig jede einzene Antwort ist, so sehr ginge man in dieser Datenflut unter, wollte man jede einzelne Antwort hermeneu- tisch bewerten. Das Ziel wird also sein, Hypothesen ¨ uber m¨ ogliche Strukturen in diesen Daten zu bilden und zu ¨ uberpr¨ ufen. Zun¨ achst geht es darum, die Korrelationen zwischen den gemessenen Variablen (Fragen in einem Fragebo- gen, Potenziale an verschiedenen Skalenpositionen, etc) in einer systematischen Weise zu erkl¨ aren. Die Faktorenanalyse kann unter Umst¨ anden eine solche Kl¨ a- rung liefern. Es werden zuerst das Modell der Faktorenanalyse und die diesem Modell zugrundeliegenden Annahmen vorgestellt. Die Parameter des Modells - die Faktorladungen der Variablen und die Faktorwerte der Personen - sind unbekannt und m¨ ussen aus den Daten gesch¨ atzt werden. Die Sch¨ atzung der Parameter wird in Abschnitt 2 vorgestellt.

Man mißt also die Variablen V

1

, . . . , V

n

; dies sind, wie schon angedeutet, Fragen eines Tests oder Fragebogens, physiologische Messungen, Potenziale an Positionen des Kopfes, etc. Es wird im Allgemeinen angenommen, dass die Messungen X

j

dieser Variablen Intervallskalenniveau haben, so dass Produkt- Moment-Korrelationen zwischen den V

j

berechnet werden k¨ onnen; Verallge- meinerungen f¨ ur dichotome und nominale Daten k¨ onnen allerdings ebenfalls behandelt werden. Hier liegt allerdings der Fokus zuerst auf Daten mit In- tervallskalenniveau. Bei n Variablen k¨ onnen

(n

2

)

= n(n

1)/2 Korrelationen berechnet werden. Der ¨ Ubersichtlichkeit halber fasst man sie in einer Matrix R zusammen:

R =







r

11

r

21

r

22

r

31

r

32

r

33

.. . .. . .. .

r

n1

r

n2

r

n3 · · ·

r

nn







. (1)

(6)

Da r

12

= r

21

, r

13

= r

31

, etc, ist nur die untere H¨ alfte der Matrix angeschrie- ben worden, da diese H¨ alfte bereits alle Informationen ¨ uber die Korrelationen enth¨ alt. Allgemein gilt r

jk

= r

kj

; man sagt, die Matrix R sei symmetrisch.

Korreliert man eine Messwertreihe mit sich selbst, d.h. bestimmt man r

jj

, so wird man r

jj

= 1 finden, so dass man in R auch r

11

= r

22

= . . . = r

nn

= 1 setzen kann. In den tats¨ achlichen Berechnungen wird man i.a. auch von diesen Werten ausgehen, es sei aber darauf hingewiesen, dass die Korrelation auch Werte kleiner als eins sein kann. Denn wie aus der Konstruktion von Tests bekannt ist kann die Korrelation zwischen ein und derselben Variablen, die aber zu verschiedenen Zeitpunkten (an den selben Personen) gemessen wird, wegen des jeweilig auftretenden Meßfehlers kleiner als eins sein.

Die Anordung der Korrelationen in einer Matrix ist zwar ¨ ubersichtlich, aber wenn es um die Interpretation der Korrelationen geht, hilft auch eine ¨ uber- sichtliche Anordnung oft nur wenig. Bei n = 3 Variablen hat man 3

·

2/2 = 3 Korrelationen zu analysieren, bei n = 4 sind es bereits 4

·

3/2 = 6, bei n = 10 sind es schon 10

·9/2 = 45. Der Wunsch nach einer systematischen ”Erkl¨

arung”

der beobachteten Korrelationen wird dann verst¨ andlich. Die Korrelation zwi- schen zwei Variablen V

j

und V

k

l¨ aßt sich u. U. durch die Annahme erkl¨ aren, dass beide Variablen mindestens eine gemeinsame Variable erfassen. Die be- r¨ uhmte Korrelation zwischen der Anzahl der Alkoholiker und der Anzahl der Priester in den USA l¨ aßt sich durch die gesamtwirtschaftliche Lage erkl¨ aren:

ist sie schlecht, erh¨ oht sich die Zahl der Arbeitslosen, von denen sich ein Teil in den Alkohol fl¨ uchtet und ein anderer Teil in die Priesterschaft. Partiali- siert man diese ”latente” Variable aus, so geht die Korrelation auf Null zur¨ uck.

Die Korrelation zwischen den L¨ osungen verschiedener Denksportaufgaben l¨ aßt sich durch die Annahme erkl¨ aren, dass die Aufgaben nur gel¨ ost werden k¨ onnen, wenn bestimmte F¨ ahigkeiten vorhanden sind: ein wenig Umgang mit Zahlen, die F¨ ahigkeit, Informationen im Ged¨ achtnis halten zu k¨ onnen, die F¨ ahigkeit, Sachverhalte sprachlich formulieren zu k¨ onnen. Diese F¨ ahigkeiten repr¨ asentie- ren gewissermassen ”latente” Variablen, die von den tats¨ achlich gemessenen Variablen erfasst werden und die den Korrelationen zugrunde liegen. Partia- lisiert man sie der Reihe nach aus den gemessenen Variablen heraus, werden die Korrelationen gegen Null gehen.

Man kann sagen, dass dies der Grundgedanke der Faktorenanalyse ist. Die Frage ist nun, wie die m¨ oglichen latenten Variablen bestimmt werden k¨ onnen.

Die M¨ oglichkeit, nach Maßgabe von Hypothesen Variable explizit zu messen und dann aus den V

j

heraus zu partialisieren ist denkbar, aber nat¨ urlich v¨ ollig unpraktikabel. Die Idee ist also, die latenten Variablen aus den Korrelationen zwischen den V

j

herauszurechnen, oder, wie auch gesagt wird, zu extrahieren.

Dazu muß ein formales Modell aufgestellt werden. In einem solchen Modell

werden die Annahmen ¨ uber den Zusammenhang von gemessenen Variablen -

den V

j

- und den latenten Variablen spezifiziert. Aus diesen Annahmen ergeben

sich dann die M¨ oglichkeiten, die latenten Variablen explizit zu bestimmen.

(7)

1.3 Messwerte als Funktion latenter Variablen

Dazu werde die Korrelation r(V

j

, V

k

) = r

jk

betrachtet. Es werde angenommen, dass sie auf nur eine latente Variable zur¨ uckzuf¨ uhren sei. Dann kann man f¨ ur die Messwerte X

j

und X

k

die Gleichungen

x

ij

= α

j1

F

i1

+ e

ij

(2)

x

ik

= α

k1

F

i1

+ e

ik

(3)

anschreiben. Der erste Index i steht dabei f¨ ur die i-te Person, an der sowohl der Wert von V

j

als auch der Wert von V

k

gemessen wird. α

j1

ist als Regressions- koeffizient aufzufassen, der den Anteil bestimmt, mit dem die latente Variable F

1

in die Variable V

j

eingeht, und α

k1

ist der entsprechende Anteil, mit dem F

1

in V

k

eingeht. Man bemerke, dass diese Regressionsgewichte, also α

j1

und α

k1

, spezifisch f¨ ur die Variablen V

j

und V

k

sind, nicht aber f¨ ur die i-te Person.

Die Messwerte x

ij

und x

ik

f¨ ur die i-te Person ergeben sich aus dem Wert F

i1

, d.h. aus dem Wert f¨ ur F

1

, den die i-te Person hat. Repr¨ asentiert also F

1

die F¨ ahigkeit zu logischem Denken, so ist F

i1

der Messwert, den die i-te Person auf einer Skala hat, die die F¨ ahigkeit zu logischem Denken erfasst. e

ij

und e

ik

sind die ¨ ublichen Messfehler.

Korrelationen und Standardisierung: Man kann nun die Korrelation r

jk

aus den Gleichungen (2) und (3) voraussagen. Dazu wird man die X

j

- und X

k

-Werte standardisieren, d.h. man wird zu den z-Werten

z

ij

= x

ij

x ¯

j

s

j

(4)

z

ik

= x

ik

x ¯

k

s

k

(5)

¨

ubergehen. ¯ x

j

ist das arithmetische Mittel der X

j

-Werte und s

j

ist die zuge- h¨ orige Standardabweichung, und ¯ x

k

und s

k

sind die analogen Werte f¨ ur X

k

. Sicherlich ist

1

¯

x

j

= α

j1

F ¯

1

+ ¯ e

j

(6)

¯

x

k

= α

k1

F ¯

1

+ ¯ e

k

(7)

F ¯

1

ist der Mittelwert der F

i1

-Werte. Dann ist z.B.

x

ij

x ¯

j

= α

j1

(F

ij

F ¯

1

) + (e

ij

e ¯

j

). (8) Dividiert man durch s

j

, so erh¨ alt man einen Ausdruck f¨ ur z

ij

:

z

ij

= x

ij

x ¯

j

s

j

= α

j1

s

j

(F

ij

F ¯

1

) + e

ij

¯ e

j

s

j

.

1x¯j=∑

ixij/m=∑

ij1Fi1+eij)/m=αj1

iFi1/m+∑

ieij/m=αj1F¯1+ ¯ej.

(8)

Es wird sich als vorteilhaft erweisen, wenn man statt der Differenzen F

i1

F ¯

1

ebenfalls standardisierte Werte in den Gleichungen hat. Ist s

11

die Standard- abweichung der F

i1

-Werte, so kann man den folgenden ”Trick” anwenden: man dividiert F

i1

F ¯

1

durch s

11

, so dass man einen standardisierten F

i1

-Wert erh¨ alt, und multipliziert gleichzeitig mit s

11

, damit die Gleichung korrekt bleibt:

z

ij

= α

j1

s

11

s

j

(F

i1

F ¯

1

)

s

11

+ e

ij

¯ e

j

s

j

. Setzt man nun zur Abk¨ urzung

a

j1

= α

j1

s

11

s

j

, q

i1

= F

i1

F ¯

1

s

11

, ε

ij

= e

ij

¯ e

j

s

j

, (9)

so erh¨ alt man f¨ ur z

ij

die wesentlich ¨ ubersichtlichere Gleichung

z

ij

= a

j1

q

i1

+ ε

ij

. (10) In der gleichen Weise verf¨ ahrt man bei der Standardisierung der X

k

-Werte und erh¨ alt

z

ik

= a

k1

q

i1

+ ε

ik

. (11) Man beachte, dass die q

i1

-Werte ebenfalls standardisierte Werte sind, d.h. sie haben einen Mittelwert gleich Null und eine Varianz gleich 1. Die Korrelation zwischen den X

j

- und den X

k

-Werten l¨ aßt sich nun wie folgt anschreiben:

r

jk

= 1 m

m i=1

z

ij

z

ik

= 1 m

m i=1

(a

j1

q

i1

+ ε

ij

)(a

k1

q

i1

+ ε

ik

)

= 1

m

m i=1

a

j1

a

k1

q

2i1

+ 1 m

m i=1

a

j1

q

i1

εik + 1 m

m i=1

a

k1

q

i1

ε

ij

= a

j1

a

k1

1 m

m i=1

q

2i1

+ a

j1

1 m

m i=1

q

i1

ε

ik

+ a

k1

1 m

m i=1

q

i1

ε

ij

(12) Da die q

i1

-Werte standardisierte Werte sind, folgt sofort

1 m

m i=1

q

2i1

= 1. (13)

Aber auch die ε

ij

- und ε

ik

-Werte sind standardisierte Werte, so dass die beiden

¨

ubrigen Summen in (12) als Korrelationen zwischen den q

i1

-Werten und den standardisierten Fehlern aufgefasst werden k¨ onnen. Fasst man ie q

i1

-Werte als

”wahre” Werte im Sinne der Klassischen Testtheorie auf, so sind sie nur in dem Sinne zuf¨ allige Variable, als sie von Person zu Person variieren und also zuf¨ allig nur deswegen sind, weil die Person zuf¨ allig in die Stichprobe gelangt ist. Die ε

ij

und ε

ik

-Werte sind aber auch f¨ ur jede Person zuf¨ allig, weil ihr Wert auch bei

der selben Person von Messung zu Messung zuf¨ allig variiert. Deswegen kann

(9)

man die Annahme machen, dass die Korrelation zwischen den q

i1

-Werten und den ε

i

-Werten gleich Null ist:

Annahme:

1 m

m i=1

q

i1

ε

ik

= 1 m

m i=1

q

i1

ε

ij

= 0. (14)

Ber¨ ucksichtigt man nun (13) und (14), so vereinfacht sich der Ausdruck (12) f¨ ur r

jk

zu

r

jk

= a

j1

a

k1

. (15)

Die Korrelation zwischen den Variablen V

j

und V

k

ist also gerade gleich dem Produkt der Regressionsgewichte a

j1

und a

k1

! Auf diese Weise hat man die beobachtete Korrelation zwischen den beiden Variablen durch R¨ uckf¨ uhrung auf eine gemeinsam gemessene ”latente” Variable ”erkl¨ art”.

Die Diskussion der Frage, wie man die a

j1

und a

k1

tats¨ achlich findet, wird zun¨ achst zur¨ uckgestellt; es kommt hier nur darauf an, das Modell der Fakto- renanalyse zu entwickeln. Es kann ja sein, dass die beobachteten Korrelationen nicht durch eine einzelne latente Variable erkl¨ art werden k¨ onnen, denn es k¨ on- nen ja verschiedene solche Variablen durch die gemessenen Variablen erfasst werden. K¨ onnen also die Korrelationen r

jk

nicht durch den Ansatz (15) er- fasst werden, wird man eine zweite latente Variable F

2

annehmen. Statt der Gleichungen (2) und (3) kommt man dann zu dem erweiterten Modell

x

ij

= α

j1

F

i1

+ α

j2

F

i2

+ e

ij

(16) x

ik

= α

j1

F

i1

+ α

j2

F

i2

+ e

ik

(17) Nat¨ urlich wird man versuchen, F

2

so zu bestimmen, dass man zu einer m¨ og- lichst ¨ okonomischen Erkl¨ arung der Korrelationen kommt. Die generelle Idee dazu ist, dass die F

i1

- und F

i2

-Werte keine redundanten Gr¨ oßen sein sollen, d.h. sie sollen keine Merkmale repr¨ asentieren, die wechselseitig auseinander vorhergesagt werden k¨ onnen. Diese Idee wird weiter unten noch genauer spe- zifiziert werden.

Man kann nun ebenfalls die Standardisierung der x

ij

und x

ik

vornehmen und kommt dann unter der Annahme, dass auch die Korrelationen der latenten Variablen F

1

und F

2

mit den Fehlern e

ij

und e

ik

gleich Null sind, zu der Gleichung

r

jk

= a

j1

a

k1

+ a

j2

a

k2

. (18) Gelingt es nicht, die r

jk

in dieser Form darzustellen, wird man eine weitere latente Variable F

3

annehmen, und

x

ij

= α

j1

F

i1

+ α

j2

F

i2

+ α

j3

F

i3

+ e

ij

, j = 1, . . . , n (19) schreiben. Geht man von der speziellen (aber nicht notwendig zu machenden) Annahme aus, dass die latenten Variablen F

1

, F

2

und F

3

paarweise unkorreliert sind, so erh¨ alt man f¨ ur die Korrelationen den Ausdruck

r

jk

= a

j1

a

k1

+ a

j2

a

k2

+ a

j3

a

k3

. (20)

(10)

Allgemein kann man davon ausgehen, dass man r < n latente Variable ben¨ o- tigt, die dann zu dem allgemeinen Ausdruck

x

ij

= α

j1

F

i1

+ α

j2

F

i2

+

· · ·

+ α

js

F

is

+ e

ij

, j = 1, . . . , n (21) f¨ uhren, der standardisiert die Form

z

ij

= a

j1

q

i1

+ a

j2

q

i2

+

· · ·

+ a

js

q

is

+ ε

ij

(22) annimmt. F¨ ur die meisten Untersuchungen in der Psychologie ist diese Glei- chung der Ausgangspunkt der Analyse:

1. Datenreduktion Im Fall s < n lassen sie die n gemessenen Variablen durch weniger, eben s, latente Variable beschreiben. In diesem Sinne f¨ uhrt die Faktorenanalyse zu einer Datenreduktion. Die Datenreduktion erleichtert die Analyse der gefundenen Zusammenh¨ ange zwischen den Variablen oft erheblich.

2. Ladungen Die a

j1

, . . . , a

js

heißen die Ladungen der j-ten, gemessenen Variablen auf den latenten Dimensionen.

Die Ladungen der Variablen sind dieselben f¨ ur alle Personen bzw. f¨ ur alle Einheiten, an denen sie gemessen wurden. Eine Ladung repr¨ asentiert den Anteil, mit dem eine gemessene Variable eine latente Variable erfasst. a

jk

ist also der Anteil, mit dem die j-te gemessene Variable (das j-te Item) die k-te latente Variable erfasst.

3. Faktorwerte Die q

i1

, . . . , q

is

heißen die Faktorwerte der Personen i = 1, . . . , m auf den gleichen latenten Dimensionen. Die Definition (9) der q

i1

, . . . , q

is

als standardisierte Werte impliziert, dass

¯ q

1

= 1

m

m i=1

q

i1

= ¯ q

2

= 1 m

m i=1

q

i2

=

· · ·

= ¯ q

n

= 1 m

m i=1

q

i1

= 0. (23) Der Faktorwert q

ik

repr¨ asentiert das Ausmaß, in dem die k-te laten- te Variable bei der i-ten Person ausgepr¨ agt ist. Die Faktorwerte einer Person sind dieselben f¨ ur alle Variablen. Sie entsprechen den ”wahren”

Werte der i-ten Person - im Sinne der Klassischen Testtheorie - auf den verschiedenen latenten Dimensionen.

4. Unabh¨ angigkeit von Ladungen und Faktorwerten Vom Modell der Faktorenanalyse her gesehen sind die Ladungen a

jk

der gemessenen Variablen und die Faktorwerte q

ik

der Personen unabh¨ angig voneinan- der: eine Person verf¨ ugt ¨ uber das durch F

k

repr¨ asentierte Merkmal im Ausmaß q

ik

unabh¨ angig davon, mit welchem Verfahren oder Test F

k

gemessen wird, und die gemessene Variable bzw. das Item X

j

”ben¨ oti-

gen” das Ausmaß a

jk

der Eigenschaft F

k

, damit X

j

”positiv’ beantwortet

(11)

wird, oder X

j

erfasst das Merkmal F

K

stets zu einem Anteil a

jk

, unab- h¨ angig davon, bei welcher Person oder bei welchem Objekt gemessen wird. Andererseits sind die a

jk

und die q

ik

unbekannte Parameter, die aus den Daten, also den Messungen f¨ ur X

1

, . . . , X

n

, gesch¨ atzt werden m¨ ussen. Es wird sich zeigen, dass die q

ik

als Funktion der X

j

und der a

jk

ausgedr¨ uckt werden k¨ onnen, und die a

jk

als Funktion der X

j

und der q

ik

; in die Sch¨ atzung der Parameter aus den Daten gehen also auf implizite Weise bestimmte Abh¨ angigkeiten zwischen den beiden Klassen voin Parametern ein.

5. Linearit¨ at Eine Funktion f (x

1

, . . . , x

n

) der n Variablen x

1

, . . . , x

n

heißt linear, wenn

f (x

1

, . . . , x

n

) = a

1

x

1

+ a

2

x

2

+

· · ·

a

n

x

n

In (21) ist f durch x

ij

gegeben, und die x

1

, . . . , x

n

stehen f¨ ur die F

1

, . . . , F

r

. Offenbar repr¨ asentiert (21) ein lineares Modell der Wirkung latenter Va- riablen. Die Restriktion auf lineare Modelle ist keine triviale Einschr¨ an- kung, denn viele psychologische Modelle sind als nichtlineare Model- le konzipiert worden: So ist etwa die Arbeitsmotivation den Befunden von Vroom (1964) zufolge durch das Produkt von Erwartung und Va- lenz (expectency

×

valence) definiert, und die Performanz einer Person durch das Produkt von F¨ ahigkeit und Motivation (ability

×

motivation) (vergl. Busemeyer und Jones (1983))

2

. Somit kann man vermuten, dass Performanz einer Wechselwirkung der Form F¨ ahigkeit

×

Erwartung

×

Valenz, also einem Term F

1

F

2

F

3

entspricht. Generell kann man sagen, dass Wechselwirkungen zwischen Variablen oft eine nichtvernachl¨ assig- bare Komponente in der Wirkungsweise von Variablen sind, und es gibt keinen Grund, sie nicht auch f¨ ur latente Variablen anzunehmen.

Eine M¨ oglichkeit, einen rein linearen Ansatz zu rechtfertigen, besteht im Hinweis auf die Tatsache, dass man in den meisten F¨ allen Funktionen in eine Reihe entwickeln kann, d.h. man kann nichtlineare Funktionen durch geeignet gew¨ ahlte Polynome im Prinzip beliebig genau approximieren.

Ist also f (x) irgendeine Funktion, so kann man eine Approximation der Form

f (x)

a

0

+ a

1

x + a

2

x

2

+

· · ·

+ a

p

x

p

finden, die durch geeignete Wahl von p im Prinzip beliebig genau gemacht werden kann. Existieren die Ableitungen

f

(x) = df(x)

dx , f

′′

(x) = d

2

(x) dx

2

, etc,

2Busemeyer, J.R., Jones, L. E. (1983) Analysis of multiplicative combination rules when the causal variables are measured with error.Psychological Bulletin, 93 (3), 549 - 562

(12)

so kann z.B. f (x + ∆x) durch eine Taylor-Reihe

3

f (x + ∆x) = f(x) + ∆xf

(x) + ∆x

2

2 f

′′

(x) + ∆x

3

2

·

3 f

′′′

(x) +

· · ·

approximiert werden; f¨ ur x = 0 und Umbenennung von ∆x in x erh¨ alt man auch eine Approximation f¨ ur f (x) (der Umweg ¨ uber f(x + ∆x) f¨ ur x

̸= 0 wird n¨

otig, wenn f (0) nicht existiert, wie etwa f¨ ur f (x) = log x), bzw einen nicht berechenbaren ”Wert” wie

−∞

annimmt). Die k-ten Ab- leitungen f

(k)

/k!, entsprechen dann den Koeffizienten im approximieren- den Polynom. Solche Approximationen lassen sich auch f¨ ur Funktionen von mehr als einer Variablen herleiten.

Die ersten Terme der Reihenentwicklung sind oft lineare Terme, gefolgt von nichtlinearen Termen. So ist f¨ ur hinreichend kleine Werte von x die Exponentialfunktion e

x

durch die Reihe

e

ax

= e

0

+ xae

0

+ x

2

a

2

2 e

0

+ x

3

a

3

6 e

0· · ·

=

k=0

(ax)

k

k!

definiert und f¨ ur hinreichend kleine Werte von x erh¨ alt man e

x

1 + x.

Allgemein erh¨ alt man oft f¨ ur hinreichend kleine Werte der unabh¨ angigen Variablen eine Approximation durch lineare Funktionen. Insofern kann man das lineare Faktorenmodell stets als Approximation auffassen, die f¨ ur ”hinreichend kleine” Werte der latenten Variablen F

1

, . . . , F

r

gilt.

Der Wert s der Anzahl der ben¨ otigten latenten Dimensionen oder latenten Variablen ist ebenfalls unbekannt und muß aus den Daten bestimmt werden.

Wegen der oben gemachten Unabh¨ angigkeitsannahmen findet man, dass f¨ ur die Korrelation r

jk

zwischen zwei beliebigen Variablen V

j

und V

k

die Beziehung

r

jk

= 1 m

m i=1

z

ij

z

ik

=

s t=1

a

jt

a

kt

, s

n (24) gilt. Die Gleichung setzt allerdings stillschweigend voraus, dass man den Wert f¨ ur die Anzahl der Dimensionen, s, kennt. Eine perfekte ¨ Ubereinstimmung zwischen den Korrelationen r

jk

und der ”Vorhersage”, wie sie auf der rechten Seite der Gleichung durch die Summe

s

t=1

a

jt

a

kt

gemacht wird, wird man dann bekommen, wenn man s = n setzt, wenn also die Anzahl der latenten Dimensionen gleich der Anzahl der untersuchten Variablen ist. Die Annahme r = n ist aber nicht besonders interessant, denn man m¨ ochte die Daten, also die Messwerte x

ij

bzw.die standardisierten Werte z

ij

so ¨ okonomisch wie m¨ oglich beschreiben, d.h. man sucht den kleinstm¨ oglichen Wert f¨ ur s, f¨ ur den noch eine hinreichende Approximation der Korrelationen r

jk

gem¨ aß (24) gelingt.

Die Suche nach dem kleinstm¨ oglichen Wert f¨ ur s ist der datenreduzierende Aspekt der Faktorenanalyse.

3Brook Taylor (1685 – 1731), englischer Mathematiker, zeigte als erster die M¨oglichkeit einer solchen Entwicklung, die f¨ur viele mathematische Analysen von grundlegender Bedeu- tung ist.

(13)

Abbildung 1:

(a) Repr¨asentation von Variablen (V1, . . . , V7) und (b) Personen in Koordinatensystemen, die latente Dimensionen repr¨asentieren; man beachte, dass die Koordinaten der Personen wegen (23) den Mittelwert 0 haben. Aus den Variablen V4, V5 und V6 kann u. U. die Bedeutung der ersten latenten Dimension erschlossen werden, und aus den VariablenV1.V2undV3die der zweiten latenten Dimension. (b) zeigt, dass die erste Dimension am meisten zwischen den Personen differenziert, die zweite Dimension differenziert weniger.

-0,2 0,0 0,2 0,4 0,6 0,8 1,0

-0,2 0,0 0,2 0,4 0,6 0,8 1,0

Zweite latente Variable

Erste latente Variable a42

a41 a71 a72

-0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 -0,8

-0,6 -0,4 -0,2 0,0 0,2 0,4 0,6

1 2 3

5 4

6 7

8 9 10 11

12 13 14

L2

L1 V1

V2V3

V4 V6 V5 V7

Erste latente Variable

Zweite latente Variable

(a) (b)

Anmerkung: Die Gleichung (22) zeigt, dass der der Faktorenanalyse zugrundeliegende Ansatz immer nur als Approximation, nicht aber sinn- voll als Theorie ”an sich” verstanden werden kann. Denn zun¨achst einmal soll der Ansatz (22) f¨ur jeden Gegenstandsbereich, auf den die Analy- se angewendet wird, gelten, er soll also f¨ur EEG-Daten wie f¨ur politische Meinungsumfragen gleichermaßen g¨ultig sein. Warum sich aber Messwer- te stets als Summe von Produkten darstellen lassen sollen, in denen ein Faktor (der Faktorwert qik) das i-te gemessene Objekt auf einer k-ten

”latenten” Variablen charakterisiert und der andere Faktor (die Ladung ajk) diej-te gemessene Variable auf der gleichen latenten Dimension ab- bildet, ist v¨ollig unklar, so lange man (22) zum nicht weiter hinterfragten Ausgangspunkt der Analyse macht. (22) kann als Ansatz zu einer m¨og- lichst ¨okonomischen Beschreibung gew¨ahlt werden, allerdings ist dann die Reifikation, d.h. die verdinglichende Annahme der Existenz der Dimen- sionen, die durch dieqikund pjk repr¨asentiert werden, noch lange nicht gerechtfertigt.

Einen Spezialfall f¨ ur (24) erh¨ alt man, wenn man j = k setzt. Dann ist r

jj

= 1

m

m i=1

z

ij2

= 1 =

s t=1

a

2jt

. (25)

Es gilt wieder die Anmerkung, dass diese Gleichung im allgemeinen nur dann exakt gilt, wenn s = n. F¨ ur s < n wird die Beziehung nur angen¨ ahert gelten.

Man nennt

h

2j

=

s t=1

a

2jt

, (26)

(14)

also die Summe der a

2jt

f¨ ur den gew¨ ahlten Wert f¨ ur s, die Kommunalit¨ at der j-ten Variablen, und es wird eben im allgemeinen h

2j

< 1 sein. r

jj

ist ja die Varianz der standardisierten j-ten Variablen (da ¯ z

j

= 0 ist

i

z

ij2

/m ein Aus- druck, der dem f¨ ur eine Varianz entspricht), und h

2j

gibt an, in welchem Aus- maß die Varianz einer Variablen durch die latenten Dimensionen erkl¨ art wird, von denen ja angenommen wird, dass sie gemeinsam (daher der Ausdruck

”Kommunalit¨ at”) in allen Variablen enthalten sind.

Die Gleichung (25) erlaubt es zumindest im Prinzip, die Anzahl der laten- ten Dimensionen, die ”hinter” den gemessenen Variablen wirken, abzusch¨ atzen.

Denn f¨ ur gegebene Daten m¨ ussen die Gleichungen r

jj

= 1 f¨ ur alle j, 1

j

n gelten, da ja jede Variable mit sich selbst korreliert wird. Andererseits muß r

jj

=

t

a

2jt

sein, wenn die Anzahl s der latenten Dimensionen korrekt gew¨ ahlt wurde. Es zeigt sich, dass diese Beziehungen i.a. nur f¨ ur s = n gelten, - aber dann hat man keinen ”datenreduzierenden” Effekt. Man wird s < n w¨ ahlen, und dann gilt nach (26)

r

jj

= 1 = h

2j

+ ε

2j

, (27) und ε

2j

repr¨ asentiert den Effekt von ”spezifischen” latenten Dimensionen, also latenten Variablen, die nur in der Variable V

j

enthalten sind, und ”(Mess- )Fehlern”. Da die a

j1

, . . . , a

js

die Koordinaten des Punktes sind, der die Varia- ble V

j

im ”Variablenraum” repr¨ asentiert, gibt nach dem Satz des Pythagoras h

2j

das Quadrat der Distanz dieses Punktes vom Koordinatenursprung an. Ist also die Anzahl s zu ber¨ ucksichtigender latenter Dimension gut gew¨ ahlt wor- den, so wird h

2j

1 f¨ ur alle j gelten, d.h. die repr¨ asentierenden Punkte liegen dicht an der Oberfl¨ ache einer s-dimensionalen Kugel mit dem Radius 1. F¨ ur den Fall s = 2 ist diese Kugel gerade ein (Einheits-)Kreis. Abb. 2 illustriert diesen Sachverhalt.

Der Gleichung (22) entsprechend wird z

ij

im faktorenanalytischen Zusam- menhang als eine Summe von Produkten, d.h. als ein sogenanntes Skalarpro- dukt, dargestellt. Dies gilt auch f¨ ur die Korrelation r

jk

, vergl. (12). In einem gewissen Sinn kann dann auch z

ij

als Korrelation aufgefasst werden, n¨ amlich als Korrelation zwischen den q

i1

, . . . , q

is

-Werten einerseits und den a

j1

, . . . , a

js

- Werten andererseits. Die q

i1

, . . . , q

is

geben an, sie die i-te Person mit den latenten Dimensionen ”ausgestattet” ist, und die a

j1

, . . . , a

js

geben an, in wel- chem Ausmaß die Variablen V

1

, . . . , V

n

die latenten Dimensionen ¨ uberhaupt erfassen. Dieser Sachverhalt soll noch einmal hervorgehoben werden:

In einem allgemeinen Sinne kann man sagen, dass das faktoren-

analytische Modell impliziert, dass die Messwerte, insbesondere die

standardisierten Messwerte, als Korrelationen zwischen der Aus-

pr¨ agung der latenten Variablen bei den Personen - repr¨ asentiert

durch die q

it

- und den Anteilen a

jt

, mit denen die latenten Varia-

blen durch die V

j

erfasst werden, aufgefasst werden k¨ onnen. Aller-

dings sind nur die q

it

standardisierte Variablen, die a

jt

nicht - so

ist es m¨ oglich, dass a

jt

> 0 ur alle j und t gilt, was f¨ ur standardi-

(15)

Abbildung 2:

Begriffliche Stereotypen in den 50-er Jahren nach P. R. Hofst¨atter. Die Punkte, die die Begriffe repr¨asentieren, liegen nahe beim Einheitskreis, so dass die be- griffliche Struktur gut durch eine 2-dimensionale ”L¨osung” beschrieben werden kann.

D1 repr¨asentiert das ”weibliche Prinzip”, D2 das ”m¨annliche Prinzip”. Entgegen gei- steswissenschaftlichen Vorstellungen (Wellek, 1977) sind diese ”Prinzipien” nicht polar, also als Gegens¨atze aufeinerDimension, angeordnet, sondern es handelt sich um von- einander unabh¨angige Prinzipien. In einer Person, gleich ob weiblich oder m¨annlich, k¨onnen also beide Prinzipien gleichermaßen vorhanden oder nicht vorhanden sein.

-1,0 -0,5 0,0 0,5 1,0

-1,0 -0,5 0,0 0,5 1,0

D2

D1 Mann

Erfolg Hass

Krankheit Erschöpfung

Bequemlichkeit Gemüt

Frau Liebe Mutter Vater Intelligenz

sierte Variablen nicht m¨ oglich ist. Der Begriff des Skalarprodukts liefert eine genauere Charakterisierung der z

ij

-Werte.

Da die a

jt

nur f¨ ur die Variablen und die q

it

nur f¨ ur die Personen charakteristisch sind, k¨ onnte man auf die Idee kommen, dass diese Parameter v¨ ollig unabh¨ angig voneinander sind. Dies ist nicht der Fall; es wird in den folgenden Abschnitten deutlich werden, dass es hier wechselseitige Abh¨ angigkeiten gibt. Die Daten zusammen mit den Personenparametern q

it

bestimmen die Variablenparameter a

jt

, und die Daten zusammen mit den Variablenparametern bestimmen die Personenparameter q

it

.

Zur Natur der latenten Variablen Bisher sind die latenten Variablen ein- fach als Variablen eingef¨ uhrt worden, aus denen die gemessenen Variablen additiv zusammengesetzt sind. Die Frage ist nun, ob die latenten Variablen deswegen notwendig auch ”atomare”, also nicht weiter zerlegbare Gr¨ oßen re- pr¨ asentieren. Man betrachte dazu das Beispiel in Abbildung 2 auf Seite 15.

Eine latente Dimension (oder Variable) repr¨ asentiert das ”weibliche Prinzip”,

die andere das ”m¨ annliche Prinzip”. Es ist nicht klar, warum derartige ”Prinzi-

pien” in sich homogene, nicht weiter aufspaltbare Merkmale sein sollen. Alles,

was man sagen kann ist, dass diese Merkmale oder Prinzipien relativ zu den

anderen Gr¨ oßen (’Mutter’, ’Hass’, ’Krankheit’ etc) als konstant zusammenge-

setzte Gr¨ oßen erscheinen, die in in verschiedener Auspr¨ agung in andere Gr¨ oßen

(16)

eingehen. Anhand des Vektorbegriffs l¨ aßt sich dieser Sachverhalt klarer for- mulieren; in Abschnitt 2 wird deshalb auf diese Eigenschaft latenter Variablen noch einmal n¨ aher eingegangen.

Bisher ist nur das Modell vorgestellt worden. Es muß nun gekl¨ art werden, wie die latenten Variablen gefunden werden k¨ onnen, d.h. wie die Parameter q

it

und die a

jt

des Modells tats¨ achlich berechnet werden k¨ onnen.

2 Vektoren, Matrizen, und latente Variablen

In den Gleichungen (21) und (22) sind die Grundgleichungen f¨ ur x

ij

bzw. f¨ ur die standardisierten Werte z

ij

gegeben worden; sie werden hier noch einmal zur Erinnerung aufgef¨ uhrt:

x

ij

= α

j1

F

i1

+ α

j2

F

i2

+

· · ·

α

js

F

is

+ e

ij

, j = 1, . . . , n (28) z

ij

= a

j1

q

i1

+ a

j2

q

i2

+

· · ·

+ a

js

q

is

+ ε

ij

(29) Es sind also n

×

s Parameter α

jt

(j = 1, . . . , n und t = 1, . . . , s) bzw. a

jt

und m

×

s Parameter F

it

bzw. q

it

(i = 1, . . . , m) zu sch¨ atzen. Die Sch¨ atzung setzt die Kenntnis einiger Begriffe und Ergebnisse der linearen Algebra voraus, die im Folgenden kurz vorgestellt werden sollen.

Es sei daraufhin gewiesen, dass die Gleichungen f¨ ur x

ij

und z

ij

als Regres- sionsgleichungen aufgefasst werden k¨ onnen. In einer linearen multiplen Regres- sion betrachtet man ja Beziehungen der Form

Y = b

0

+ b

1

X

1

+

· · ·

+ b

s

X

s

+ e, (30) wobei X

1

, . . . , X

2

sind die Pr¨ adiktorvariablen und b

0

, b

1

, . . . , b

s

die zu sch¨ atzen- den Regressionsgewichte sind. In (28) entsprechen den X

1

, . . . , X

s

die F

i1

, . . . , F

is

, und den b

0

, b

1

, . . . , b

s

die α

j1

, . . . , α

js

. Y entspricht den x

ij

. F¨ ur (29) gelten die analogen Beziehungen. Der einzige Unterschied zwischen der Regressionsglei- chung (30) und den Gleichungen (28) und (29) ist, dass die Pr¨ adiktorvariablen F

i1

, . . . , F

is

nicht explizit gegeben sind, sondern zusammen mit den Regressi- onsgewichten aus den Daten gesch¨ atzt werden m¨ ussen.

2.1 Vektoren

2.1.1 Latente Variablen, Vektoren, und Linearkombinationen Um die folgenden Begriffsbildungen zu motivieren, werde die Gleichung (28) - im Prinzip - f¨ ur alle i angeschrieben, wobei der Einfachheit halber s = 2 angenommen wird; es geht ja nur um die Einf¨ uhrung des Vektor- und des Matrixbegriffs.

x

11

= α

11

F

11

+ α

12

F

12

+ e

11

(17)

x

21

= α

11

F

21

+ α

12

F

22

+ e

21

x

31

= α

11

F

31

+ α

12

F

32

+ e

31

.. . (31)

x

m1

= α

11

F

m1

+ α

12

F

m2

+ e

m1

(32) Diese Gleichungen k¨ onnen auch in der folgenden Form geschrieben werden:







x

11

x

21

x

31

.. . x

m1







= α

11







F

11

F

21

F

31

.. . F

m1







+ α

12







F

12

F

22

F

32

.. . F

m2







+







e

11

e

21

e

31

.. . e

m1







(33)

Es handelt sich zun¨ achst tats¨ achlich nur um eine andere Schreibweise f¨ ur die Gleichungen (32). Die x

11

, . . . , x

m1

k¨ onnen als Koordinaten eines Punktes auf- gefasst werden, der die Variable V

1

in einem m-dimensionalen Raum repr¨ a- sentiert (f¨ ur m

3 gibt es eine anschauliche Vorstellung von dieser Repr¨ a- sentation). Ebenso k¨ onnen die F

1k

, F

2k

, . . . , F

mk

als Koordinaten eines Punk- tes aufgefaßt werden, der die k-te latente Variable in einem m-dimensionalen Raum abbildet. Aber auch die Koeffizienten (α

j1

, α

j2

k¨ onnen als Koordinaten eines Punktes in einem 2-dimensionalen Raum interpretiert werden. Dieser Punkt bildet die Variable V

j

im Raum der latenten Variablen ab. Es zeigt sich aber, dass die Interpretation der x

11

, . . . , x

m1

, der F

1k

, F

2k

, . . . , F

mk

und der (α

j1

, α

j2

als Komponenten von Vektoren der geeigneter ist als die Punktin- terpretation, u.a. weil dann die Korrelation zwischen den Variablen ebenfalls geometrisch repr¨ asentiert wird: sie steht in einer betimmten Beziehung zu den Winkeln zwischen den repr¨ asentierenden Vektoren. Demnach w¨ are also ein Vektor die Anordnung von Zahlen in einer Spalte, – wobei es aber auf die Rei- henfolge der Zahlen ankommt. Denn wenn man die Reihenfolge zweier Zahlen miteinander vertauscht, vertauscht man die Messwerte zweier Objekte oder Personen, und das darf nat¨ urlich nicht geschehen. Diese Charakterisierung ei- nes Vektors ist allerdings unvollst¨ andig, und eine vollst¨ andige Definition wird bald gegeben werden. Jedenfalls heißen die Zahlen, die zu einem Vektor zusam- mengefasst werden, die Komponenten des Vektors. Weiter zeigt der Vergleich von (32) mit (33), dass Faktoren wie α

11

und α

12

, die mit allen Komponenten eines Vektors multipliziert werden, vor die Klammer gezogen werden k¨ onnen, die einen Vektor kennzeichnen. Die Vereinfachung besteht zun¨ achst nur dar- in, dass diese Faktoren jetzt nur noch einmal geschrieben werden m¨ ussen.

Anders gesehen soll diese Schreibweise zeigen, dass eben alle Komponenten ei- nes Vektors mit dem davor stehenden Faktor multipliziert werden sollen. Die Schreibweise ist also als eine Art Handlungsanweisung zu verstehen.

Die Schreibweise (33) ist immer noch zu ausladend, um von allgemeinem

Nutzen zu sein. Man bezeichnet einen Vektor deshalb oft durch einen einzelnen

Buchstaben mit einem Pfeil dar¨ uber, etwa x (es gibt andere Schreibweisen, z.B.

Abbildung

Abbildung 1: (a) Repr¨ asentation von Variablen (V 1 , . . . , V 7 ) und (b) Personen in Koordinatensystemen, die latente Dimensionen repr¨ asentieren; man beachte, dass die Koordinaten der Personen wegen (23) den Mittelwert 0 haben
Abbildung 2: Begriffliche Stereotypen in den 50-er Jahren nach P. R. Hofst¨ atter. Die Punkte, die die Begriffe repr¨ asentieren, liegen nahe beim Einheitskreis, so dass die  be-griffliche Struktur gut durch eine 2-dimensionale ”L¨ osung” beschrieben werden kan
Tabelle 1: Eine (m × n)-Matrix X⃗ 1 X⃗ 2 · · · X⃗ n Y⃗ 1 x 11 x 12 · · · x 1n Y⃗ 2 x 21 x 22 · · · x 2n .
Abbildung 3: Rotation eines Vektors
+7

Referenzen

ÄHNLICHE DOKUMENTE

Beweisen Sie die Dimensionsformel: Sei ϕ : V → W eine lineare Abbildung zwischen K-Vektorr¨ aumen und dim V

(i) Zwei Vektoren u, v ∈ R 3 sind linear abh¨ angig, wenn sie parallel

auch die ersten beiden Spalten orthogonal

Wir betrachten zwei linear unabh¨ angige Vektoren ~a,~b ∈ R 2 und das von diesen Vektoren und dem Ursprung aufgespannte Dreieck. (a) Schreiben Sie die Mittelpunkte der drei Seiten

Alternativ k¨ onnen nicht vier Vektoren eines drei-dimensionalen Raumes linear unabh¨

[r]

[r]

Fakult¨at f¨ur