• Keine Ergebnisse gefunden

Modelle und Prozeduren

2.3 Spezielle Probleme der Parametersch¨atzung

2.3.1.3 Neuere Methoden zur Behandlung fehlender Werte

Der eigentliche forschungspraktische Gewinn der konzeptionellen Unterscheidung der Datenausfallmechanismen MCAR, MAR und MNAR besteht darin, daß damit die strikte Dichotomie eines zuf¨alligen versus systematischen Fehlens von Werten einer Datenma-trix aufgehoben und durch die Bedingung MAR gewissermaßen eine Zwischenstufe abge-schw¨achter Zuf¨alligkeit des Datenausfalls definiert wurde, welche die Entwicklung neuerer,

an diese weniger restriktive Bedingung gekn¨upfter Verfahren zum Umgang mit den fehlen-den Werten bef¨ordert hat. Es sind dies die folgenfehlen-den Methofehlen-den (vgl. Schafer & Graham, 2002; Enders, 2001b; Graham & Hofer, 2000): Der

”multiple-group approach“ (Allison, 1987; Muth´en et al., 1987), der EM-Algorithmus (

”expectation maximization algorithm“) (Dempster et al., 1977), die FIML-Sch¨atzung (

”full information maximum-likelihood esti-mation“) (Arbuckle, 1996) sowie die multiple Ersetzung (

”multiple imputation“) fehlen-der Datenwerte (Rubin, 1987). Es handelt sich bei den drei erstgenannten Verfahren um Maximum-Likelihood-Algorithmen, w¨ahrend die multiple Ersetzung eine

”bayesianische“

Vorgehensweise bedeutet, d.h. es handelt sich um einen Algorithmus, der auf den Prinzi-pien der Bayes-Statistik beruht. Eine f¨ur den praktischen Anwender addressierte zusam-menfassende und vergleichende Darstellung aller vier Verfahren liefert Enders (2001b), im folgenden wird lediglich die FIML-Sch¨atzung genauer dargestellt, da m.E. diese das f¨ur die Anwendung in l¨angsschnittlichen Strukturgleichungsmodellen attraktivste Verfah-ren ist. Die VerfahVerfah-renslogik der andeVerfah-ren genannten neueVerfah-ren Methoden zum Umgang mit fehlenden Werten wird unten nur knapp skizziert.

Der Wert dieser vier Methoden zum Umgang mit fehlenden Werten besteht, wie ge-sagt, in der Unverzerrtheit der aus ihnen resultierenden Parametersch¨atzungen bei Daten-ausf¨allen, die die im Vergleich zu MCAR weniger restriktive MAR-Bedingung erf¨ullen.

Diese grundlegende Eigenschaft leitet sich aus den von Rubin (1976) formulierten Theo-remen her, die h¨aufig mit dem Begriff der

”ignorability“ zitiert werden (z.B. Verbeke &

Molenberghs, 2000, 217f; Diggle et al., 2002, 283f) und besagen, daß dann, wenn die Da-tenausf¨alle in den Modellvariablen eines statistischen Modells MCAR oder MAR sind, der Prozeß des Zustandekommens fehlender Werte bei Maximum-Likelihood-Parametersch¨at-zungen f¨ur dieses Modell unber¨ucksichtigt bleiben kann. Ausf¨uhrliche formale Herleitun-gen dieses Theorems sind komplex (vgl. dazu auch Diggle et al., 2002, 283f; Verbeke &

Molenberghs, 2000, 217f), um den Umfang der statistischen Darstellungen hier etwas zu begrenzen, wird die Bedeutung dieses Theorems sehr vereinfachend wie folgt erl¨autert: F¨ur die ModellvariablenXj wird ein durch die im Parametervektorθzusammengefaßten Para-meter definiertes statistisches Modell postuliert, d.h. es wird angenommen, daß die empi-risch beobachteten Daten aus einer Population mit der Wahrscheinlichkeitsdichtefunktion f(Xi|θ) stammen. Bei Datenausf¨allen im empirischen Datensatz stellen diese, wie oben bereits dargelegt, selbst wiederum ZufallsvariablenRj dar, die sozusagen gemeinsam mit den Xj die empirische Datenmatrix bestimmen, so daß das statistische Modell um diese Datenausf¨alle erweitert werden muß: Das Submodell f¨ur die Rj, sei durch einen Parame-tervektorψ (Parameter, die die Wahrscheinlichkeitsverteilung der Datenausf¨alle beschrei-ben) definiert, so daß das um den Datenausfall erweiterte Modell durch die Wahrschein-lichkeitsdichtefunktion f(Xi,Ri|θ, ψ) beschrieben werden kann. Die oben aufgef¨uhrten neueren Maximum-Likelihood-Methoden zum Umgang mit fehlenden Werten beruhen auf der Maximierung der Wahrscheinlichkeit der tats¨achlich beobachteten Daten, d.h. der Ma-ximierung der Likelihoodfunktion L(θ, ψ|X(v)i ,Ri) (da ja X(f)i nicht beobachtet wird).

Rubin (1976) hat nun gezeigt, daß dann, wenn der Datenausfall MCAR oder MAR ist, L(θ, ψ|X(v)i ,Ri)proportional zur Likelihood L(θ|X(v)i ,Ri)ist – letzteres ist die Like-lihoodfunktion f¨ur die Daten ohne die Parameter ψ, d.h. unter Ignorierung des Prozes-ses des Zustandekommens der Datenausf¨alle.19 Dies bedeutet, daß dasjenige θ, welchesˆ L(θ|X(v)i ,Ri) maximiert, auch die L(θ, ψ|X(v)i ,Ri) maximiert, so daß die Sch¨atzung der Parameterθunter Ignorierung des Prozesses des Zustandekommens der fehlenden Wer-te zu demselben Ergebnis f¨uhrt, wie unWer-ter Einbeziehung desselben. Damit ist letzWer-tendlich gew¨ahrleistet, daß bei MAR-Datenausf¨allen Maximum-Likelihood-Parametersch¨atzungen mit den ¨ublichen asymptotischen Qualit¨aten (Erwartungstreue und Effizienz) m¨oglich sind.

Der von Muth´en et al. (1987) bzw. Allison (1987) vorgestellte

”multiple-group ap-proach“ besteht darin, die Stichprobe in Substichproben solcher F¨alle zu unterteilen, die jeweils dasselbe Muster vorhandener und fehlender Werte in den Variablen des Modells auf-weisen: Mit diesen Substichproben k¨onnte das Modell dann als sogenanntes Multisample-Model gerechnet werden, wobei jedes Substichprobenmodell gewissermaßen um diejenigen Teile reduziert wird, f¨ur die in dieser Substichprobe die Werte fehlen. F¨ur die zu sch¨atzen-den Modellparameter wersch¨atzen-den Gleichheitsrestriktionen zwischen sch¨atzen-den Gruppen (in deren Subgruppenmodell diese Parameter noch enthalten sind) festgesetzt. Diese Methode ist, wie z.B. Bentler (1995, 197) anmerkt, nur dann praktikabel, wenn es nur eine kleine An-zahl solcher Subgruppen mit gleichem Muster fehlender Werte gibt:

”If there are dozens of patterns of missing data, with only a few subjects showing a given pattern of missing data, the modeling approach is useless because some of these samples may be too small to yield stable results . . . , and the method may be too computationally demanding to work with so many samples.“ Genau dieses ist aber der Fall bei den SOEP-Zufriedenheitsmessungen

¨uber alle 16 Erhebungswellen, so daß diese Vorgehensweise hier nicht anwendbar ist.

Der EM-Algorithmus (Dempster et al., 1977; siehe auch Verbeke & Molenberghs, 2000, 387-390; Enders, 2001b) kann als iterative Durchf¨uhrung eines zweistufigen Vor-gehens beschrieben werden: Gegeben sei ein durch den Parametervektorθ definiertes sta-tistisches Modell f¨ur die Analysevariablen (z.B: Regressionsmodell, SEM). Dann werden im ersten Schritt – dem sogenannten

”E-step“ – die fehlenden Werte eines Fallsiaus den f¨ur i vorhandenen und mittels der jeweils aktuellen Parametersch¨atzungen θˆgesch¨atzten Werte ersetzt (dies entspricht einer

”conditional means imputation“, vgl. oben). Aus der so vervollst¨andigten Datenmatrix werden dann im zweiten Schritt – dem sogenannten

” M-step“ – neue Maximum-Likelihood-Sch¨atzungen θˆ errechnet, welche die Basis f¨ur den n¨achsten Durchlauf der beiden Schritte bilden. Diese Prozedur wird solange wiederholt, bis bei den aufeinanderfolgenden Durchl¨aufen die modellimplizierten Kovarianzmatrizen der Variablen sich gem¨aß eines vorab spezifizierten Konvergenzkriteriums nicht mehr be-deutsam ver¨andern. Ein Nachteil dieses Verfahrens besteht in der dadurch unvermeidbaren

19Rubin (1976) zeigt auch in ¨ahnlicher Weise die

ignorability“ von MAR-Datenausf¨allen f¨ur bayesstati-stische Inferenzen, so daß auch die Methode der multiplen Ersetzung ¨aquivalent zu den (direkten) Maximum-Likelihood-Verfahren an die weniger restriktive MAR-Bedingung gekn¨upft werden kann.

Untersch¨atzung der Standardfehler f¨ur die Modellparameter, so daß daraus verzerrte Signi-fikanztests resultieren w¨urden. Die Standardfehler k¨onnen allerdings ad hoc durch soge-nannte Resampling-Methoden (Bootstrap) gesch¨atzt werden.

Das Verfahren der multiplen Ersetzung der fehlenden Werte wurde erstmals von Rubin (1987) vorgeschlagen und ist grob dadurch zu beschreiben, daß dabei anstatt eines einzel-nen durch die Ersetzung fehlender Werte vervollst¨andigten Datensatzes mehrere solcher vervollst¨andigten Datens¨atze erzeugt werden, f¨ur die dann jeweils die Modellparameterθ mittels konventioneller Methoden f¨ur vollst¨andige Daten gesch¨atzt werden. Bei m > 1 durch jeweils einfache Imputation fehlender Werte vervollst¨andigten Datens¨atzen resultie-ren alsom Vektoren von Parametersch¨atzungenθˆj (j = 1, . . . , m). Diese werden dann zu einer letztendlichen Sch¨atzungθˆkombiniert. Die komplexen Details des Verfahrens betref-fen die Generierung der zu imputierenden Werte und die Kombination der multiplen Pa-rametersch¨atzungen – dazu sei auf ausf¨uhrlichere Darstellungen z.B. von Schafer & Olsen (1998) verwiesen.

Ein direktes Maximum-Likelihood-Verfahren zur Sch¨atzung von Strukturgleichungs-modellparametern beim Vorliegen fehlender Werte in der empirischen Datenmatrix der be-obachteten Variablen ist der von Arbuckle (1996) vorgelegte FIML-Sch¨atzalgorithmus. Die Bezeichnung

”full information maximum likelihood“ bezieht sich auf den Umstand, daß mit diesem Verfahren alle in der empirischen Datenmatrix vorhandenen Daten sozusagen unvermittelt zur Sch¨atzung der Parameter genutzt werden. Dieses geschieht dadurch, daß zun¨achst die Likelihood der (vorhandenen) Daten fallweise bestimmt und dann die Summe der logarithmierten fallweisen Likelihoods maximiert wird. Das Verfahren vollzieht also die folgenden Berechnungsschritte (vgl. Arbuckle, 1996, 248):

1. Unter der Annahme multivariater Normalverteilung der beobachteten Modellvariablen

Outline

ÄHNLICHE DOKUMENTE