• Keine Ergebnisse gefunden

Zur Anwendbarkeit des FIML-Sch¨atzalgorithmus bei nichtnormalen Daten Die große Attraktivit¨at des FIML-Verfahrens kontrastiert allerdings auch mit einer Die große Attraktivit¨at des FIML-Verfahrens kontrastiert allerdings auch mit einer

Modelle und Prozeduren

3. Die Vorgehensweise bei der SEM-Parametersch¨atzung besteht dann darin, daß wie auch im ” konventionellen“ Fall ohne fehlende Werte Σ und µ als Funktionen eines Vektors der

2.3.1.4 Zur Anwendbarkeit des FIML-Sch¨atzalgorithmus bei nichtnormalen Daten Die große Attraktivit¨at des FIML-Verfahrens kontrastiert allerdings auch mit einer Die große Attraktivit¨at des FIML-Verfahrens kontrastiert allerdings auch mit einer

ge-wissen Problematik infolge der dabei – wie auch bei den anderen der oben dargestellten MAR-basierten Verfahren zum Umgang mit fehlenden Werten – f¨ur die Spezifizierung der Likelihoodfunktion zugrundegelegte Annahme multivariater Normalverteilung der beob-achteten Modellvariablen. Konkret bestehen bei dem FIML-Verfahren einige Beschr¨ankun-gen sowohl hinsichtlich der ¨Uberpr¨ufung der Normalverteilungsannahme, als auch hinsicht-lich der Verfahrensm¨oghinsicht-lichkeiten bei Verletzungen derselben. Die ¨Uberpr¨ufung der Annah-me multivariater Normalverteilung mittels der statistischen Tests multivariater Schiefe und Kurtosis von Mardia (1985; siehe auch die Darstellungen bei Bollen, 1989, 423 und Bent-ler, 1995, 214), die in den meisten gegenw¨artig gebr¨auchlichen SEM-Programmpaketen angeboten wird, ist auf vollst¨andige Datens¨atze ohne fehlende Werte beschr¨ankt, sie k¨onnte also im hier vorliegenden Falle jeweils nur f¨ur die durch fallweisen Ausschluß reduzierten Substichproben derjenigen Befragten, die bei allen 16 Erhebungen ein Zufriedenheitsurteil abgaben, durchgef¨uhrt werden und w¨are somit angesichts einer erheblichen Anzahl von Dropouts gewissermaßen ein Muster von geringem Wert. Eine Alternative zur Testung der multivariaten Verteilungsannahme besteht in der jeweils univariaten Testung aller manife-sten Modellvariablen auf Normalverteilung: Univariate Normalverteilung jeder Variablen ist eine notwendige Voraussetzung der multivariaten Verteilung aller Variablen, die jedoch nicht hinreichend ist, so daß die univariate Normalverteilung aller Variablen strenggenom-men lediglich als starkes Indiz daf¨ur gewertet werden k¨onnte, daß die Annahme multivaria-ter Normalverteilung nicht verletzt sein d¨urfte.

Im Falle der Verletzung der Normalverteilungsannahmen kann es bei

”konventioneller“

Maximum-Likelihood-Sch¨atzung von Strukturgleichungsmodellen (bei vollst¨andiger Da-tenmatrix) – und dieses ist wohl auch auf die FIML-Sch¨atzung ¨ubertragbar – zu Verf¨alschun-gen in den involvierten Signifikanztests kommen: Einfach ausgedr¨uckt, ist dann die Variati-on der beobachteten Modellvariablen nicht mehr vollst¨andig in der Stichprobenkovarianz-matrix

”zusammengefaßt“, so daß zwar die Parametersch¨atzungen erwartungstreu bleiben, jedoch mit gr¨oßeren Standardfehlern behaftet sind, als es aufgrund der reduzierten Variation in der Kovarianzmatrix erscheint. Eine Folge ist eine gewisse Liberalisierung der Signifi-kanztests einzelner Modellparameter (v.a. Regressionskoeffizienten), so daß

”falsche Signi-fikanzen“ bzw. Untersch¨atzungen der tats¨achlichenα-Fehlerwahrscheinlichkeit bei Zur¨uck-weisung der Nullhypothese m¨oglich werden. Eine weitere Folge ist die Verzerrung desχ2 -Tests der Modellanpassung – hier kann ein zu hoher Diskrepanzwert (χ2-Wert) zu f¨alsch-licher Annahme derH1 bzw. der Schlußfolgerung eines unzureichenden Model-Fit f¨uhren.

Von letzterer Verzerrung sind dann auch die ¨ublichen Fit-Indices, deren Berechnung ja je-weils auf die eine oder andere Art und Weise auf dem Diskrepanzwert basiert, betroffen, so daß generell bei Nichtnormalit¨at der beobachteten Modellvariablen davon auszugehen ist, daß die vermittels der Maximum-Likelihood-Sch¨atzung erzielten Model-Fit-Werte die tats¨achliche Modellanpassung untersch¨atzen.

Es wurde eine Reihe von Vorgehensweisen zur Vermeidung oder Korrektur dieser Ver-zerrungen infolge nichtnormaler Daten vorgeschlagen, beispielsweise eine vorherige

” nor-malisierende“ Transformation der Daten, die Berechnung von Bootstrap-Konfidenzinter-vallen, die Anwendung des asymptotisch verteilungsfreien Sch¨atzers (ADF-Sch¨atzer) von Browne (1984) oder der Scaled-χ2- bzw. Satorra-Bentler-Statistik und der darauf begr¨unde-ten Berechnung robuster Standardfehler (siehe z.B. Bentler, 1995, 217f). Die Beantwortung der Frage, wann welche dieser Vorgehensweisen angewandt werden sollte, h¨angt v.a. von Art und Ausmaß der Verletzung der Normalverteilungsannahme, sowie von der Stichpro-bengr¨oße ab – eine m.E. sehr gute Zusammenfassung des komplexen diesbez¨uglichen For-schungsstandes leisten West et al. (1995). Hinsichtlich der hier angestrebten Stabilit¨atsana-lysen und angesichts der oben diskutierten Erfordernisse des Umgangs mit fehlenden Wer-ten er¨ubrigen sich jedenfalls von vornherein die Anwendung des ADF-Sch¨atzers wie auch der Satorra-Bentler-Statistik, da diese Verfahren wiederum auf vollst¨andige Datens¨atze oh-ne fehlende Werte beschr¨ankt sind und also im vorliegenden Fall die inad¨aquate Methode des fallweisen Ausschlusses fehlender Werte voraussetzen w¨urden.

Ein spezieller Fall von Nichtnormalit¨at, der hier Beachtung verdient, resultiert aus der Verwendung nichtkontinuierlicher, ordinalskalierter Variablenwerte: Um solche handelt es sich genaugenommen bei den h¨aufig – und auch im vorliegenden Fall – verwendeten Ra-tingskalen mit einer begrenzten Anzahl m¨oglicher Antwortkategorien, die als ganzzahlige Skalenwerte kodiert und verrechnet werden und denen im Grunde nur

”per fiat“ metrische Qualit¨at unterstellt wird. Da es sich bei der Normalverteilung um ein stetiges Verteilungs-modell handelt, kann allein schon aufgrund der begrenzten Anzahl von Antwortkategorien die Verteilung solchermaßen skalierter Variablen zwangsl¨aufig nur n¨aherungsweise normal sein. Man k¨onnte aber gegebenenfalls annehmen, daß es sich hierbei gewissermaßen nur um eine Grobheit des Meßinstruments handelt, welches eben nur eine begrenzte Anzahl diskreter Skalenwerte erlaubt, w¨ahrend bei Verwendung eines

”unendlich feinen“ Meßin-struments bzw. einer

”beliebig fein unterteilten“ Meßskala tats¨achlich eine Normalvertei-lung der Meßwerte vorl¨age. Bollen (1989) spricht hier von

”latent continous indicators“ die den kategorialen Messungen zugrundeliegen, und h¨aufig werden darum solche nichtkonti-nuierlichen ordinalen Variablen als grobkategorisierte Variablen (

”coarsely categorized va-riables“, z.B. West et al., 1995) bezeichnet. Es ist dann davon auszugehen, daß Kovarianzen zwischen oder mit diesen grobkategorisierten Meßvariablen geringer sind, als zwischen oder mit den entsprechenden zugrundeliegenden latenten kontinuierlichen Meßvariablen, und dieses ist deshalb von besonderem Belang, weil ja die Berechnung eines Struktur-gleichungsmodells durch die Anpassung der modellimpliziten an die empirisch gesch¨atzte Varianz-Kovarianz-Matrix der beobachteten Variablen erfolgt. Hier w¨are nun aber die mo-dellimplizierte Varianz-Kovarianz-Matrix die der latenten kontinuierlichen Meßvariablen, w¨ahrend die empirisch gesch¨atzte die der grobkategorisierten Meßvariablen w¨are, so daß sozusagen das Modell nicht an dasjenige angepaßt wird, woran es angepaßt werden soll und ein Misfit gewissermaßen vorprogrammiert ist. Eine weitere wahrscheinliche

Konse-quenz der Grobkategorisierung besteht darin, daß sich die Verteilungen von kategorisierter und kontinuierlicher Meßvariablen unterscheiden, so daß m¨oglicherweise auch dann, wenn die latente kontinuierliche Meßvariable normalverteilt ist, dieses f¨ur die kategorisierte nicht zutrifft. Grobkategorisierte Variablen begr¨unden also sozusagen prinzipiell einen Verdacht auf Verletzung der Normalverteilungsannahme und daraus resultierender Verzerrung der Ergebnisse.

Als M¨oglichkeit, den spezifischen Problemen nichtkontinuierlicher ordinaler beobach-teter Variablen in Strukturgleichungsmodellen ad¨aquat Rechnung zu tragen, wurde die Ver-wendung polychorischer und polyserieller Korrelationen vorgeschlagen, welche in der Kor-relationsmatrix der beobachteten Variablen die Produkt-Moment-Korrelationen zwischen bzw. mit den kategorialen Variablen ersetzen, so daß dann die Modellanpassung der mo-dellimplizierten an diese empirische Korrelationsmatrix durchgef¨uhrt werden kann (z.B.

Lee et al., 1995; 1992; Muth´en, 1984). Wiederum sehr vereinfacht dargestellt, bedeutet dieses sozusagen ein zweistufiges Vorgehen, bei dem die Beziehungen zwischen den kate-gorialen und ihren angenommenen zugrundeliegenden kontinuierlichen Meßvariablen und daraus dann die Assoziationen der kontinuierlichen Meßvariablen untereinander gesch¨atzt werden. Abgesehen von auch gegenw¨artig noch bestehenden Beschr¨ankungen, die der An-wendung solcher Vorgehensweisen durch deren Implementation in vorhandene Software-pakete (z.B. auf eine begrenzte Anzahl m¨oglicher kategorialer Variablen) und die Speicher-kapazit¨aten der ¨ublicherweise verf¨ugbaren Computer gesetzt sind,20 sind sie f¨ur die hier angestrebten Analysen wiederum deshalb nicht anwendbar, weil sie im Grunde keines der MAR-basierten Verfahren zum Umgang mit fehlenden Werten erlauben: Zwar ist mit eini-gen der vorhandenen Softwarepakete (z.B. EQS 5.7) die Verkn¨upfung dieser Methode mit dem”multiple-group approach“ prinzipiell m¨oglich, dieser aber ist, wie oben bereits darge-legt, im vorliegenden Fall nicht brauchbar. Eine der SEM-Analyse vorangestellte multiple Ersetzung der fehlenden Werte w¨urde hier eine gewisse Zirkularit¨at beinhalten, da bei dieser Vorgehensweise wiederum multivariate Normalverteilung vorauszusetzen w¨are. Die Imple-mentation dieses Sch¨atzalgorithmus in den derzeitig verf¨ugbaren Softwarepaketen (EQS 5.7, LISREL 8.51) beschr¨ankt die Anwendung wiederum auf F¨alle mit vollst¨andigen Wer-ten in allen beobachteWer-ten Modellvariablen.

Angesichts der soeben aufgez¨ahlten Probleme, die f¨ur die Anwendung von Maximum-Likelihood-Sch¨atzalgorithmen bei im Grunde nichtkontinuierlichen ordinalen Zufrieden-heitsmessungen und erwartbaren Verletzungen der Normalverteilungsannahme zu ber¨uck-sichtigen sind, stellt sich die Frage nach den m¨oglichen praktischen Konsequenzen bzw.

hier insbesondere nach der Robustheit des FIML-Sch¨atzverfahrens unter den behandelten Voraussetzungssverletzungen.

20Beispielsweise scheiterte eine probeweise versuchte Modellrechnung f¨ur das QMSM der Werte allgemei-ner Lebenszufriedenheit (Stichprobe: Alle SOEP Teilnehmer mit vollst¨andigen Werten, d.h. listwise deletion) mittels des entsprechenden

categorical data feature“ des Programms EQS 5.7, auch bei Beschr¨ankung auf lediglich 4 Meßzeitpunkte daran, daß die Speicherkapazit¨aten des dazu verwendeten PCs ersch¨opft wurden.

Es existiert eine Vielzahl diesbez¨uglicher Untersuchungen zur Robustheit der

” konven-tionellen“ Maximum-Likelihood-Sch¨atzung von Strukturgleichungsmodellen bei Nichtnor-malit¨at der Daten, aus denen v.a. dank der Zusammenfassung von West et al. (1995) die fol-genden beiden anwendungsrelevanten Gesichtspunkte abgeleitet werden k¨onnen (vgl. auch Raykov & Widaman, 1995; Bollen, 1989, 415ff und 433ff):

I Die spezifische Problematik der kategorialen Messungen wird umso dringlicher, je weniger Auspr¨agungsm¨oglichkeiten vorhanden sind, und umso mehr vernachl¨assigbar, je gr¨oßer die Anzahl m¨oglicher Skalenwerte ist. Auch wenn kein allgemein akzeptierter Grenzwert angegeben wurde, so l¨aßt sich aus den zitierten Ver¨offentlichungen ableiten, daß v.a. bei weniger als f¨unf Auspr¨agungskategorien eine explizite Ber¨ucksichtigung des Problems indiziert ist – und daß es f¨ur die immerhin 11-stufige Zufriedenheitsskala, die im SOEP verwendet wurde, im Grunde vernachl¨assigbar ist, so daß allein aus dem Umstand, daß solche Ratingskalen benutzt wurden, die Durchf¨uhrung einer Maximum-Likelihood-Sch¨atzung nicht in Frage gestellt ist.

I Die Problematik der Nichtnormalit¨at von Daten w¨achst mit dem Ausmaß der Abwei-chung von der Normalit¨at und ist v.a. bei kleinen Stichproben bedeutsam. Auch hierf¨ur existieren keine allgemein akzeptierten Grenzwerte z.B. daf¨ur, welche Abweichungen von der Normalit¨at (in Schiefe und Exzeß) noch unbedenklich und welches kleine Stich-probengr¨oßen sind, aber immerhin kann wohl zusammengefaßt werden, daß moderate Abweichungen von der Normalit¨at einigermaßen unbedenklich erscheinen, zumal ihnen ja auch dadurch Rechnung getragen werden kann, daß ihre m¨oglichen Konsequenzen bei der Interpretation der Ergebnisse ber¨ucksichtigt werden. So k¨onnte z.B. f¨ur die Tests der Pfadkoeffizienten – deren Sch¨atzwerte, wie bereits gesagt, auch bei Nichtnorma-lit¨at

”unbiased“ sind – ein strengeres Signifikanzniveau festgelegt werden, w¨ahrend hin-sichtlich der Model-Fit-Kennwerte Nichtnormalit¨at sich gewissermaßen als Versch¨arfung der Beurteilungskriterien (Untersch¨atzung der tats¨achlichen Anpassungsg¨ute) auswirken w¨urde. Es erscheint deshalb als durchaus rational zu rechtfertigende Anwendungsregel, Maximum-Likelihood-Sch¨atzungen solange f¨ur praktikabel zu halten, wie in den univa-riaten Verteilungen der beobachteten Variablen keine extremen Schiefe- bzw. Kurtosis-werte vorhanden sind – beispielsweise bezeichnen West et al. (1995) einen Schiefewert

2 und Kurtosis7 als substantielle Abweichung von der Normalit¨at.

Zur speziellen Robustheit des FIML-Sch¨atzers bei Verletzungen der Normalvertei-lungsannahme wurde m.E. bis zum gegenw¨artigen Zeitpunkt lediglich eine Untersuchung publiziert: Enders (2001a) fand f¨ur das FIML-Verfahren bei MAR-Datenausf¨allen und leich-ten Abweichungen von der multivarialeich-ten Normalverteilung praktisch vernachl¨assigbare Verzerrungen der Parametersch¨atzungen ¨ahnlich denen, die auch bei

”konventioneller“ Ma-ximum-Likelihood-Sch¨atzung vollst¨andiger Datens¨atze ohne fehlende Werte berichtet wur-den. Es scheint deshalb so, daß die oben aufgelisteten Schlußfolgerungen und Regeln zur Robustheit der Maximum-Likelihood-Sch¨atzungen von Strukturgleichungsmodellen auch auf die FIML-Sch¨atzung ¨ubertragbar sind, was ja auch intuitiv einleuchtet, da dieser auf

dieselben Verteilungsannahmen bzw. auf dieselbe Wahrscheinlichkeitsdichtefunktion der beobachteten Modellvariablen, auf der die jeweils zu maximierende Likelihood beruht, be-gr¨undet ist, wie erstere.

Outline

ÄHNLICHE DOKUMENTE