• Keine Ergebnisse gefunden

Modelle und Prozeduren

2.2 Statistische Methoden der Analyse von Merkmalsstabilit¨atMerkmalsstabilit¨at

2.2.2 L¨angsschnittliche Strukturgleichungsmodelle

2.2.2.1 Das Quasi-Markov-Simplex-Modell

Die wohl gebr¨auchlichste Form autoregressiver Modelle sind solche erster Ordnung, die auch als Markov-Modelle bezeichnet werden: Dabei wird jeder Meßzeitpunkt der Zeit-reihe lediglich auf den jeweils vorangegangen Meßzeitpunkt regrediert. In einem autore-gressiven Modell zweiter Ordnung w¨urde jeder Meßzeitpunkt in der Regression auf die letzten beiden vorangegangenen Zeitpunkte modelliert usw.. Man k¨onnte solche Modelle direkt f¨ur die beobachteten Variablen, d.h. ohne latente Konstrukte und damit ohne expli-zite Ber¨ucksichtigung der Reliabilit¨aten, spezifizieren – ein solches autoregressives Mo-dell erster Ordnung zeigt Abbildung 2.3.A.9 J¨oreskog (1970) bezeichnet dieses Modell

9Bei graphischen Darstellungen von Strukturgleichungsmodellen werden die ¨ublichen Konventionen be-folgt, wie sie z.B. bei Bollen (1989) eingehalten werden. D.h. Rechtecke stellen beobachtete und Kreise latente Variablen dar, die Random- bzw. Fehlerkomponenten der Strukturgleichungen werden ohne Umran-dung abgebildet. Pfeile bezeichnen Pfadkoeffizienten, gebogene Doppelpfeile zwischen verschiedenen Mo-dellkomponenten Kovarianzen. Varianzen werden bei dieser g¨angigen Darstellungsweise meist nicht abge-bildet, prinzipiell sind die Varianzen aller exogenen Variablen (d.h. aller Variablen, auf die kein Pfeil zeigt)

ABBILDUNG 2.3:

als Markov-Simplex-Modell, da es eine Simplex-Struktur der Autokorrelationen impliziert:

”The typical property in a simplex correlation structure . . . is that the correlations decrease as one moves away from the main diagonal“ (ebd., 121) – einfach ausgedr¨uckt bedeutet dieses f¨ur die Autokorrelationen, daß sie praktisch mit wachsendem time-lag abnehmen.

Aus den oben (und in Anhang A.1) dargelegten Gr¨unden w¨are f¨ur eine unverzerrte Analyse von Merkmalsstabilit¨at ein autoregressives Modell der wahren Werte notwendig – Abbildung 2.3.B zeigt ein solches. J¨oreskog (1970) bezeichnet dieses Modell, in dem zwar durch die Autoregressivit¨at erster Ordnung f¨ur die Autokorrelationen der beobachteten Wer-te wiederum die Simplex-Struktur impliziert ist, welche jedoch durch die Meßfehlerkom-ponente sozusagen aufgeweicht sein kann (genaugenommen ist hier die Simplex-Struktur f¨ur die Autokorrelationen der wahren Werte impliziert), als Quasi-Markov-Simplex-Modell (QMSM). Wie bereits erw¨ahnt, k¨onnte ein solches Markov-Modell f¨ur die True-Scores auch

Modellparameter – wenn sie graphisch sichtbar gemacht werden sollen, dann durch einen gebogenen Dop-pelpfeil, dessen Enden beide auf die entsprechende Variable weisen. Dreiecke bezeichnen Konstanten (in der Regel den Wert 1), die in Strukturgleichungsmodellen nur dann als Pr¨adiktor eingesetzt werden, wenn eine Mittelwertsstruktur gesch¨atzt werden soll.

entsprechend f¨ur mehrere Indikatoren pro Meßzeitpunkt spezifiziert werden. Formal l¨aßt sich dieses QMSM f¨ur die in einer Stichprobe der Gr¨oßen erhobenen Werte einer Varia-blenXrelativ einfach durch die folgenden beiden Gleichungen darstellen:

Xti = Tti+Eti

Tti = βt−1T(t−1)i+Dti (t= 2, . . . , k) (2.24) Die erste dieser beiden Gleichungen wurde oben bereits als Gleichung 2.22 spezi-fiziert – es handelt sich um die Meßmodelle f¨ur die Tti, welche somit Teil des QMSM sind. Gleichung 2.24 spezifiziert die Abh¨angigkeit der True-Scores des Zeitpunkts t von denen des vorangegangen Zeitpunktst−1 in einem linearen Regressionsmodell, d.h.Dti bezeichnet die Residuen dieses Regressionsmodells. Zu erw¨ahnen ist, daß die beiden Glei-chungen, insbesondere 2.24 keine Regressionskonstante enthalten: Dieses entspricht der normalen Vorgehensweise der Berechnung von Strukturgleichungsmodellen als reine Kova-rianzstrukturanalyse ohne Sch¨atzung von Mittelwerten. Es werden in einem solchen Modell also lediglich Varianzen und Kovarianzen durch eine Struktur linearer Abh¨angigkeiten pa-rametrisiert bzw. die entsprechenden Modellparameter durch Anpassung an die empirisch ermittelte Varianz-Kovarianz-Matrix der beobachteten Variablen gesch¨atzt. Variablenmit-telwerte sind in der urspr¨unglichen Form der Strukturgleichungsmodelle schlicht nicht ent-halten und folglich ben¨otigen die Modellgleichungen keine Konstanten, welche ja letztlich nur Mittelwertsverschiebungen zwischen Kriteriums- und Pr¨adiktorvariablen

”jenseits“ des linearen Zusammenhangs beinhalten. Tats¨achlich bleiben somit bei einem solchen Modell die Mittelwerte schlicht unber¨ucksichtigt, sie sind f¨ur die Zusammenh¨ange, die in den Pfad-koeffizienten abgebildet werden, ebenso bedeutungslos, wie f¨ur die Varianzen der Modell-komponenten. Besteht ein Interesse an den Mittelwerten, so k¨onnen diese ohne Weiteres in das Modell aufgenommen werden, d.h. es werden dann die Modellgleichungen um ent-sprechende Regressionskonstanten erweitert und der Modellanpassung wird nicht nur die (empirische) Varianz-Kovarianz-Matrix, sondern zus¨atzlich der Mittelwertsvektor der be-obachteten Variablen zugrundegelegt.

In dem durch Abbildung 2.3.B bzw. die Gleichungen 2.22 und 2.24 dargestellten Mo-dell entsprechen die standardisierten Werte der Autoregressionskoeffizienten βt den Au-tokorrelation erster Ordnung zwischen den wahren Werten der jeweils aufeinanderfolgen-den Meßzeitpunkte, d.h. aufeinanderfolgen-den

”reliabilit¨atsbereinigten“ Stabilit¨atskoeffizienten im jeweiligen Zeitintervall:

ρt=ρT tT(t+1)= βtσ2T t q

σ2T tσT2(t+1) = βtσT t

σT(t+1) =βts (2.25)

Der Ausdruck βts soll hier die standardisierten Pfadkoeffizienten bezeichnen, Glei-chung 2.25 wiederholt lediglich bekannte Formeln zur Standardisierung eines

Regressions-koeffizienten in bivariaten Regressionsmodellen (z.B. Schilling, 1998, 216) und wendet sie auf die Autoregressionskoeffizienten des QMSM an.

Es stellt sich nun die Frage nach der Identifizierbarkeit des QMSM. Tats¨achlich w¨aren in der durch Abbildung 2.3.B dargestellten Form nicht alle Modellparameter sch¨atzbar.

J¨oreskog (1970) und Werts et al. (1971) zeigten, daß in dem Modell die

”inneren“ Parame-ter, d.h. alle Reliabilit¨aten und Stabilit¨aten außer denen an den R¨andern der Zeitreihe zu t = 1und t = k, identifiziert sind, die

”¨außeren“ Parameter m¨ussen dann durch Restrik-tionen sch¨atzbar gemacht werden. F¨ur die Analyse einer l¨angeren Zeitreihe mit mehreren Meßzeitpunkten (z.B.k > 3) kann dann ein solcher Verzicht auf die R¨ander durchaus hin-nehmbar sein, da immer noch gen¨ugend Reliabilit¨aten und Stabilit¨aten zu sch¨atzen bleiben.

Da das QMSM in den folgenden Analysen noch eine zentrale Rolle bei der Stabilit¨atsana-lyse spielen wird, wird die Identifikation der Modellparameter detaillierter in Anhang A.2 dargestellt.

Wenn unbedingt alle Parameter einschließlich derer an den R¨andern der Zeitreihe be-rechnet werden sollen, so m¨ussen letztere ¨uber Restriktionen identifizierbar gemacht wer-den. Wie im Anhang A.2 gezeigt wird, sindβ1 und σ2E1 nur zusammen identifiziert (das Produkt β1σ2E1 kann gesch¨atzt werden) und es m¨ußte deshalb einer von beiden Werten durch eine Restriktion berechenbar gemacht werden, damit dann auch der andere identi-fiziert werden kann. ¨Ahnlich verh¨alt es sich f¨ur die beiden Varianzausdr¨ucke am Ende der KetteσEk2 undσDk2 .

Eine solche Restriktion, die das Modell als ganzes identifizierbar macht, w¨are die glei-cher FehlervarianzenσEt2 =σE2 f¨ur alle Messungen, die in dem von Heise (1969) und von Wiley & Wiley (1970) erstmals pr¨asentierten Modell zugrundegelegt wurde: Damit w¨urden also auch die beiden

”¨außeren“ MeßfehlervarianzenσE12 undσEk2 dadurch identifiziert, daß sie den identifizierten

”inneren“ σE22 . . . σE(k−1)2 gleichgesetzt werden. Diese Annahme ho-mogener Meßfehlervarianzen ist allerdings nicht zu verwechseln mit der gleicher Reliabi-lit¨aten: Letzteres w¨are bei homogenen Fehlervarianzen nur dann der Fall, wenn ebenso die True-Score-Varianzen ¨uber die Zeitreihe hinweg invariant blieben (vgl. wieder Formel A.3 im Anhang A.1).

Man k¨onnte allerdings diesen Fall als die einzig realistische Bedingung f¨ur Homoge-nit¨at der Reliabilit¨aten ansehen, welche ansonsten einen sehr spezifischen Zusammenhang der Ver¨anderung von True-Score- und Meßfehlervarianzen voraussetzen w¨urde:

”Both true score variance and error variance may change such that the ratio given in Equation (3) [ ent-spricht den Gleichungen A.3, O.S.] remains constant. This appears to be unlikely“ (Wiley

& Wiley, 170, 112/3). Die realistischere Annahme homogener Reliabilit¨at aufgrund der Ho-mogenit¨at von Fehler- und True-Score-Varianzen k¨onnte aber mit dem Modell von Wiley

& Wiley nicht ohne weiteres ¨uberpr¨uft werden, da dieses eben eine zus¨atzliche Gleichheits-restriktion f¨ur die VarianzenσT t2 erfordern w¨urde, welche, wie im folgenden noch gezeigt wird, zumindest nicht auf einfachem Wege zu erzeugen ist. Man kann, wiederum mit Wiley

& Wiley, auch argumentieren, daß ¨uberhaupt die Annahme homogener Reliabilit¨aten auf

sehr weitgehenden theoretischen Implikationen basiert:

”Error variance is best conceived as a property of the measuring instrument itself and not of the population to which it is administered. On the other hand, the true score variance is more realistically considered as a property of the population. Thus the specification of stable reliability will normally requi-re assumptions about populations as well as assumptions about the measuring instrument“

(ebd., 112). So besehen, w¨urde eine Gleichheitsrestriktion f¨ur die Meßfehlervarianzen eine nur”schwache“ inhaltliche Beschr¨ankung des QMSM darstellen: Es wird dann nur ange-nommen, daß die bei der Messung wirksamen Eigenschaften des Meßinstruments bei allen Messungen dieselben sind, w¨ahrend bez¨uglich der auf die Messung einwirkenden Eigen-schaften der Population (der Merkmalstr¨ager) solches nicht von vorneherein angenommen wird.

Von Restriktionen, die zur Sch¨atzung der

”Randparameter“ notwendig w¨aren, abge-sehen, stellt das QMSM ein weitgehend unrestriktives Modell der Merkmalsver¨anderung

¨uber die

”inneren“ Meßzeitpunkte t = 2, . . . , k 1 dar, welches keinerlei implizite Be-schr¨ankungen bez¨uglich des Typus der Merkmalsstabilit¨at, der Reliabilit¨aten, Stabilit¨aten und aller

”direkten“ Modellparemeter, die den zeitlichen Ver¨anderungsprozeß beschreiben, enth¨alt. Es eignet sich somit bestens f¨ur eine Analyse von Merkmalsstabilit¨at, die durch kei-ne theoretische Festlegung auf ein spezifisches Ver¨anderungsmodell

”voreingenommen“ ist.

Die weitestgehende Uneingeschr¨anktheit der durch das QMSM modellierbaren Merkmals-verl¨aufe ist m.E. der eigentliche Vorteil, den dieses Modell gegen¨uber den im folgenden noch zu besprechenden bietet.

Ein Nachteil des QMSM besteht allerdings in gewissen

”praktischen“ Schwierigkeiten, die dabei Restriktionen f¨ur True-Score-Varianzen, Reliabilit¨aten und Stabilit¨atskoeffizien-ten bereiStabilit¨atskoeffizien-ten. Denn alle diese Kennwerte sind insofern

”indirekte“ Modellparameter, als es sich nicht um Elemente des zu sch¨atzenden Parametervektors des Modells handelt bzw. sie nicht in den Ausdr¨ucken der implizierten Kovarianzmatrix des Modells enthalten sind (vgl.

wieder Anhang A.2). Die

”direkten“ Modellparameter des QMSM sind:

I Die Varianz der True-Scores bei der ersten MessungσT21. I Die unstandardisierten Autoregressionskoeffizientenβt. I Die MeßfehlervarianzenσEt2 .

I Die

”Random-Varianzanteile“ der True-Scores ab der zweiten MessungσDt2 .

Die True-Score-VarianzenσT22 bisσT k2 , sowie die Reliabilit¨aten und die Stabilit¨atsko-effizienten ρt sind aus den

”direkten“ Parametern zu berechnen. F¨ur ρt wurde diese Be-rechnung bereits mit Gleichung 2.25 gezeigt – in dieser sind rechtsseitig neben dem

” direk-ten“ Parametern βt noch die Standardabweichungen oder Varianzen der True-Scores ent-halten, welche mit Ausnahme derjenigen des ersten Meßzeitpunkts wiederum nur indirekt gesch¨atzt werden. F¨ur die True-Score-Varianz eines Zeitpunktst >1gilt:

σT t2 = βt−12 σT2(t−1)+σDt2 (2.26a)

Es wird deutlich, daß mit wachsendem Meßzeitpunkttder rechtsseitige Ausdruck in Gleichung2.26b immer l¨anger und komplexer wird und daßσT t2 in keiner linearen Bezie-hung zu den

”direkten“ Modellparametern steht, durch die es berechnet wird. Damit aber w¨urde die Festlegung von Restriktionen f¨ur diese True-Score-Varianzen zumindest unhand-lich.

Solche Restriktionen werden aber dann notwendig, wenn inhaltliche Hypothesen ¨uber die zeitliche Invarianz von Meßfehler- und/oder True-Score-Varianzen ¨uberpr¨uft werden sollen. Soll beispielsweise mittels des QMSM getestet werden, ob f¨ur die wahren Merk-malswerte ¨uber die Zeitreihe hinweg Varianzhomogenit¨at besteht, oder ob sich die True-Score-Varianzen im Zeitverlauf ver¨andern – wie es z.B. aus der Gewinner-und-Verlierer-Hypothese zu folgern w¨are (vgl. Kapitel 1.2.3.2) –, so m¨ußte ein (hinsichtlich der True-Score-Varianzen) unrestringiertes QMSM mit einem solchen verglichen werden, in dem vorab die Restriktionσ2T1 =σ2T2 =· · ·=σT k2 festgelegt wird, und es w¨aren hierbei anstelle derσT22, . . . , σT k2 die Ausdr¨ucke einzusetzen, die sich aus Gleichung 2.26b ergeben. Nun w¨urde die Spezifikation einer solchen Gleichheitsrestriktion nicht nur mit wachsender Zahl von Meßzeitpunkten immer komplexer, sondern bei den meisten der gegenw¨artig verf¨ugba-ren Computerprogramme zur Berechnung von Strukturgleichungsmodellen schlicht un-m¨oglich, da diese keine nichtlinearen Restriktion erlauben.10

Dasselbe Problem besteht f¨ur Restriktionen der Stabilit¨atskoeffizienten und Reliabi-lit¨aten, in deren Berechnung jeweils ebenfalls die True-Score-Varianzen eingehen (vgl.

Gleichung 2.25 und A.3 im Anhang A.1). Wenn also die Invarianz der Stabilit¨at selbst im zeitlichen Verlauf (d.h., in der Terminologie der Zeitreihenanalyse, die Stationarit¨at des Markov-Prozesses) ¨uberpr¨uft werden soll, dann m¨ußte die Gleichheit der standardisierten Autokorrelationskoeffizienten ρt = ρ festgelegt werden. Beispielsweise erhielte man bei einer Zeitreihe vonk = 4 Messungen aus den Gleichungen 2.25 und 2.26b die folgende Gleichheitsrestriktion f¨ur die drei Stabilit¨atskoeffizienten:

10Zum Zeitpunkt der Berechnung der vorgelegten Analysen war die Festlegung nichtlinearer Restriktionen in der Prozedur CALIS, die Bestandteil des SAS-Statistiksoftwarepakets ist, sowie in der 2001 neu erschie-nenen Programmversion LISREL 8.51 m¨oglich.

β1σT1

pβ12σT21+σ2D2 = β2p

β12σT21+σ2D2 pβ22β12σ2T1+β22σ2D2+σD32

= β3

pβ22β12σ2T1+β22σD22 +σD32 pβ32β22β12σT21 +β32β22σD22 +β32σ2D3+σD42

Im QMSM ist also die Gleichheit von Stabilit¨atskoeffizienten durch nichtlineare Re-striktionen zu erreichen, die mit wachsender Anzahl von Meßzeitpunkten immer komple-xer werden – die obigen Ausdr¨ucke f¨ur die True-Score-Korrelationen bei k = 4 geben eine Vorstellung vom Umfang, den die entsprechenden formalen Ausdr¨ucke f¨ur die hier angestrebten Stabilit¨atsanalysen f¨ur Zufriedenheitsratings aus 16 SOEP-Wellen annehmen w¨urden.

Um der Schwierigkeit der Festlegung solcher Gleichheitsrestriktionen f¨ur Reliabi-lit¨aten, True-Score-Varianzen und Stabilit¨atskoeffizienten abzuhelfen – bzw. sie f¨ur die mei-sten gebr¨auchlichen Softwarepakete ¨uberhaupt zu erm¨oglichen – pr¨asentierten Rudinger

& Rietz (1993; 1998; 2001) ein QMSM, das eine Gleichheitsrestriktion der True-Score-Varianzen ohne Setzung nichtlinearer Restriktionen f¨ur die

”direkten“ Modellparameter er-laubt. Unter der Voraussetzung der Invarianz der True-Score-Varianzen sind dann auch die Invarianzen der Stabilit¨atskoeffizienten (durch einfache Gleichheitsrestriktion der Autore-gressionskoeffizientenβt = β, vgl. Gleichung 2.25) und der Reliabilit¨aten (durch Gleich-heitsrestriktion der Meßfehlervarianzen σEt2 = σ2E, vgl. Gleichung A.3 im Anhang A.1) einfach festzulegen, so daß mit dem Modell eine sehr weitgehende ¨Uberpr¨ufung von Ho-mogenit¨atsannahmen m¨oglich wird.

Der ”Trick“, der dabei angewendet wird, ist eine Technik zur Setzung von Restrik-tionen f¨ur die Varianzen der Random-Komponenten in Strukturgleichungsmodellen, die von Rindskopf (1983; 1984) vorgestellt und im zweiten der genannten Artikel mit dem Begriff der Phantomvariablen bezeichnet wurde: Solche Phantomvariablen sind schlicht zus¨atzliche latente Variablen, die gewissermaßen als Pr¨adiktoren derjenigen Variablen, de-ren Varianzen dadurch restringiert werden sollen, eingesetzt werden, so daß im Endeffekt diese Varianzen durch einfache Restriktionen f¨ur die Phantomvariablen kontrolliert wer-den k¨onnen. Auf diese Weise k¨onnen dann auch die Varianzen der abh¨angigen True-Scores im QMSM restringiert werden:

”Die Grundidee, mit der diese Modellierbarkeit gew¨ahr-leistet werden kann, besteht darin, zu einem Meßzeitpunkt t+ 1 die Varianz der latenten Variablen des Meßzeitpunktst abzuziehen und der latenten Variablen zum Meßzeitpunkt t+ 1 eine

’neue‘ – kontrollierte – Varianz . . . zu geben“ (Rudinger & Rietz, 1993, 67).

Abbildung 2.4 stellt das resultierende Phantomvariablenmodell dar, wobei hier um der bes-seren Anschaulichkeit (und der ¨Ubereinstimmung mit der bisherigen Darstellung) willen die Bezeichnungen der einzelnen Bestandteile von der Rudinger-Rietz-Vorgabe (und wie auch bisher schon von der h¨aufig gew¨ahlten LISREL-Notation) abweichen: Die neu hinzu-gekommenen Phantomvariablen werden mitP... bezeichnet, die neuen Pfade des Modells

ABBILDUNG 2.4:

QMSM mit Phantomvariablen zur Restriktion der True-Score-Varianzen

D22¨¨

mita..., b..., c.... Auch sind hier die unabh¨angigen Varianzen des Modells (in Form kleiner runder Doppelpfeile) abgebildet, so daß die wichtigen Restriktionen bez¨uglich dieser Va-rianzen sichtbar gemacht werden k¨onnen. Sozusagen der Ordnung und ¨Ubereinstimmung mit Rudinger & Rietz (1993; 1998; 2001) halber sind auch Random-Komponenten f¨ur die abh¨angigen latenten Konstrukte eingezeichnet (Dt1 f¨ur die True-ScoresTtundDt2 f¨ur die PhantomvariablenPt2) – deren Varianzen sind aber jeweils auf Null restringiert, die Rolle dieser Zufallskomponenten ¨ubernehmen in diesem Modell gewissermaßen die Phantom-variablen, durch die hier jedem abh¨angigen Tt Varianzkomponenten zugewiesen werden, welche unabh¨angig von der jeweiligen Varianz des vorherigen True-ScoresσT2(t−1)sind.

Die Varianzen der Phantomvariablen sind durch Gleichheitsrestriktionen festgelegt und dabei kann nun auffallen, daß die Varianzenσ2P t3 jeweils auf den Wert -1 fixiert sind – also auf einen Negativwert, den Varianzen per definitionem gar nicht annehmen k¨onnen.

Diese scheinbar sinnlose Festlegung ist hier m¨oglich, da zum einen auf

”inhaltlicher Ebe-ne“ die zugeh¨origen Phantomvariablen keinerlei Bedeutung haben, es handelt sich sozusa-gen lediglich um einen technischen Bestandteil in den Strukturgleichunsozusa-gen des Modells, der zum Zwecke der Subtraktion von Varianzanteilen eingef¨ugt wurde (siehe im folgen-den), und zum anderen in

”numerischer Hinsicht“ diese Negativwerte keine prinzipielle Unl¨osbarkeit der Modellsch¨atzung implizieren.11 Die Warnungen, welche gebr¨auchliche

11Die Anpassung der modellimplizierten an die empirisch gesch¨atzte Kovarianzmatrix der beobachteten Variablen ist von negativen

Phantomvarianzen“ nicht grunds¨atzlich betroffen. Letztlich gelten auch in diesem Modell die Formeln A.8 und A.9 (Anhang A.2, wenn dortσT21durcha21σP211=a21und die Ausdr¨uckeσDt2

Softwareprogramme bei negativen Varianzwerten produzieren, k¨onnen in diesem Fall also ausnahmsweise ignoriert werden.

F¨ur das Modell sind folgende Restriktionen festzusetzen (vgl. Rudinger & Rietz, 1998):

σD112 =. . .=σD16·12 =σD222 =. . .=σD16·22 = 0 bzw. σDtj2 = 0 (2.27a) σP211 =. . .=σP216·1 = 1 bzw. σP t12 = 1 (2.27b) σP223 =. . .=σP216·3 =−1 bzw. σP t32 =−1 (2.27c) β1 =b2, β2 =b3, . . . , β15=b16 bzw. βt =bt+1 (2.27d) a1 =c2, a2 =c3, . . . , a15=c16 bzw. at=ct+1 (2.27e) a1 =a2 =. . .=a16 bzw. at=a (2.27f)

Zur Veranschaulichung der Auswirkung dieser Restriktionen, welche m¨oglicherweise nicht auf den ersten Blick erkennbar sind, wird diese f¨urσT21undσT22 gezeigt. Aufgrund der in Abbildung 2.4 dargestellten Abh¨angigkeiten gilt:

σ2T1 = a21σ2P11

(vgl. Restriktion 2.27b)

= a21

σ2T2 = β12σT21+a22σ2P21+b22D222 +c22σP223) +σD212

(vgl. Restriktionen 2.27a, 2.27b, 2.27c)

= β12a21+a22−b22c22

(vgl. Restriktionen 2.27e, 2.27f)

= β12a21+a21−β12a21

= a21

Es ist leicht zu erkennen, daß nach dem f¨urσT22 gezeigten Schema auch f¨ur die wei-teren True-Score-Varianzen σ2T3, . . . , σT k2 aufgel¨ost werden kann und jeweils a21 als Wert resultiert. Somit w¨are also durch die Restriktionen 2.27a bis 2.27f die Homogenit¨at der True-Score-Varianzen ¨uber die Zeitreihe hinweg festgelegt und durch die zus¨atzliche Re-striktionβ1 = β2 = · · · = βk−1 k¨onnte dann noch zus¨atzlich die Invarianz der Stabilit¨ats-koeffizienten bzw. durchσE12 =σ2E2 =· · ·=σ2Ekdie der Reliabilit¨aten spezifiziert werden.

Es bleibt die Schwierigkeit, z.B. invariante Stabilit¨atskoeffizienten bei frei variieren-den Varianzen festzulegen. Dennoch kann festgehalten wervariieren-den, daß durch die von Rudinger

jeweils durcha2tσP t12 +b2tc2tσP t32 = a2t b2tc2t ersetzt werden. Problematisch w¨urde das Ganze nur, wenn dieser letzte Ausdruck negativ w¨urde, was aber durch die zus¨atzlichen Restriktionen f¨ur die Pfadkoeffizienten at,btundctausgeschlossen wird.

& Rietz gezeigte Vorgehensweise die

”Unhandlichkeit“ von Restriktionen ¨uber True-Score-Varianzen, Stabilit¨atskoeffizienten und Reliabilit¨aten gr¨oßtenteils vermieden werden kann, so daß dadurch die Bandbreite der durch das QMSM relativ unkompliziert modellier- und testbaren Charakteristika von Ver¨anderung und Stabilit¨at eines Merkmals, enorm erweitert wird. Dieses, zusammen mit der oben bereits konstatierten prinzipiellen Uneingeschr¨ankt-heit dieses Ver¨anderungsmodells, macht das QMSM zu einer guten Wahl, wenn es darum geht, die tats¨achliche meßfehlerbereinigte Stabilit¨at, die in einer Zeitreihe von Meßwerten eines Merkmals zum Ausdruck kommt, ohne vorherige theoretische Festlegung auf spezi-fische Verlaufsmodelle zu analysieren.

Es wurde bereits vorne darauf hingewiesen, daß dieses QMSM solchermaßen erwei-tert werden kann, daß es auch eine Modellierung der Entwicklung der Mittelwerte ¨uber die Zeitreihe enth¨alt. In der bisher dargelegten Form handelt es sich um ein Modell zur Analyse der Varianz-Kovarianz-Matrix der beobachteten Variablen Xti bzw. um eine rei-ne Kovarianzstrukturanalyse, in der die Varianzen der und Abh¨angigkeiten zwischen den Modellvariablen parametrisiert und alle Mittelwert auf Null gesetzt sind. Da Varianzen und Kovarianzen (bzw. Pfadkoeffizienten und Korrelationen) von konstanten Skalentransforma-tionen (durch Addition der Variablenwerte mit einem konstanten Wert) unber¨uhrt bleiben, sind f¨ur die Analyse der Kovarianzstruktur die Mittelwerte ohne Belang, so daß sie mit

”mean deviation scores“, bei denen die Skala auf den Mittelwert Null

”verschoben“ wur-de, durchgef¨uhrt werden kann. Hinsichtlich der in Kapitel 2.2.1 dargestellten Stabilit¨atsty-pen aber sind Mittelwertsver¨anderungen im zeitlichen Verlauf ein zus¨atzlich interessanter Aspekt der Analyse: W¨ahrend die Typen monotoner und paralleler Stabilit¨at ausschließlich auf Eigenschaften der Kovarianzstruktur beruhen, bezieht sich der Typus strikter Stabilit¨at auf die Invarianz der Mittelwerte zus¨atzlich zu den Merkmalen paralleler Stabilit¨at. F¨ur eine vollst¨andige Stabilit¨atsanalyse mit dem QMSM w¨are es darum w¨unschenswert, das Modell um eine

”Mittelwertsstruktur“ zu erweitern, so daß es eine simultane Analyse von Stabilit¨atskoeffizienten, True-Score-Varianzen und Mittelwertsver¨anderungen enth¨alt.

Bei der reinen Kovarianzstrukturanalyse wird durch die Spezifikation eines Struktur-gleichungsmodells letztendlich eine theoretische Struktur der Varianzen und Kovarianzen aller Variablen im Modell postuliert und den empirischen Stichprobendaten angepaßt: Das wesentliche Rationale der Vorgehensweise liegt darin, daß Varianzen und Kovarianzen der

Bei der reinen Kovarianzstrukturanalyse wird durch die Spezifikation eines Struktur-gleichungsmodells letztendlich eine theoretische Struktur der Varianzen und Kovarianzen aller Variablen im Modell postuliert und den empirischen Stichprobendaten angepaßt: Das wesentliche Rationale der Vorgehensweise liegt darin, daß Varianzen und Kovarianzen der

Outline

ÄHNLICHE DOKUMENTE