• Keine Ergebnisse gefunden

Pseudo- R 2 -Maße der Erkl¨ arungskraft des Mo- Mo-dellsMo-dells

Unter Ausnutzung der asymptotischen Eigenschaften der GEE-, GEPSE -und GEPSE-Sch¨atzer stehen f¨ur viele der meist interessierenden Hypothe-sen zumindest asymptotische Testverfahren etwa ¨uber die Wald-Statistik (z.B. Fahrmeir, Hamerle und Tutz, 1996b) zur Verf¨ugung. In den nun fol-genden Abschnitten sollen einige in der Literatur vorgeschlagenen Maße f¨ur die Erkl¨arungskraft von multivariaten linearen und univariaten nichtlinea-ren Modellen sowie nichtlineanichtlinea-ren Panelmodellen diskutiert werden. Dabei soll insbesondere auf die mit diesen Maßen verbundenen Probleme einge-gangen und alternative Maße vorgeschlagen werden. Diese Kennwerte so-wie eine M¨oglichkeit zur Berechnung approximativer Konfidenzintervalle, die auch zur Durchf¨uhrung approximativer Tests verwendet werden kann, sollen abschließend mit Hilfe von Simulationen evaluiert werden (siehe auch Spieß und Tutz, 2004).

5.3.1 Pseudo-R2-Maße f¨ur multivariate lineare Modelle Ausgangspunkt ist wieder das allgemeine Modell (5.2) (siehe Seite 152), zun¨achst aber mit J = 1 und mit ausschließlich stetigen Responsevaria-blen. Weiterhin soll zun¨achst von dem datengenerierenden Prozess, dem

”Populationsmodell“

y=Πx+ǫ, mit ǫ∼N(0,Σǫ), (5.8) ausgegangen werden, wobei hier die Kovarianzmatrix der Fehler mit Σǫ

bezeichnet wird. Die Kovarianzmatrix vony wird mit Σy und die Kova-rianzmatrix der Einflussgr¨oßen mitΣx bezeichnet. F¨ur eine spezielle

Aus-pr¨agung w¨aren die Matrizen Π,Σǫund Σy entsprechend den Ausf¨ uhrun-gen in Abschnitt 3.1.1 mit dem Index 0 zu versehen. Die Einflussgr¨oßen werden hier der Einfachheit halber als Zufallsvariablen aufgefasst. Alle wei-teren Ausf¨uhrungen gelten prinzipiell unver¨andert, wenn stattdessen von festen Einflussgr¨oßen ausgegangen wird. In Abschnitt 5.3.5 werden die Ein-flussgr¨oßen wieder, dem in den anderen Abschnitten und Kapiteln ¨ublichen Ansatz folgend, als fest aufgefasst.

Ausgehend von diesem Modell und der auch hier durchgehend gemach-ten Annahme, dass die Fehlervariable unabh¨angig von den Einflussgr¨oßen verteilt ist, l¨asst sich die Varianz der Responsevariablen schreiben als

Σy =ΠΣxΠǫ, (5.9)

wobei Σǫund Σy unter den ¨ublichen Annahmen positiv definit sind.

In Zusammenhang mit solchen Modellen schl¨agt Hooper (1959) die

“squared trace“-Korrelation als Kennwert f¨ur die Erkl¨arungskraft des Mo-dells vor. Ausgehend von dem

”Populationsmodell“ (5.8) l¨asst sich dieses Maß schreiben als

ρ2H =T−1tr(Σ−1yΠΣxΠ),

wobei tr(A) die Spur der Matrix A ist. Dieser Kennwert l¨asst sich auch ausgehend von (5.9) begr¨unden, denn es l¨asst sich schreiben

I=Σ−1yΠΣxΠ−1yΣǫ.

Dividiert man durchT und betrachtet die Spur der Matrizen auf der rechten beziehungsweise der linken Seite, dann erh¨alt man

1 =T−1tr(Σ−1yΠΣxΠ) +T−1tr(Σ−1yΣǫ).

Der Kennwert ρ2H nimmt offensichtlich Werte zwischen eins und null an und ist nichts anderes als das arithmetische Mittel von Komponenten des Modells, die als Anteile

”erkl¨arter“ Varianz des systematischen Teils des Regressionsmodells an der Gesamtvarianz interpretiert werden k¨onnen. Er

nimmt den Wert null an, wenn die Variablen y und x gegenseitig un-abh¨angig sind und nimmt gr¨oßere Werte mit zunehmender linearer Abh¨an-gigkeit dieser beiden Variablen an. F¨urT = 1 istρ2H die quadrierte multiple Korrelation der Responsevariablen mit den Einflussgr¨oßen.

Ein ¨ahnliches Maß ist der von Glahn (1969) vorgeschlagene zusammen-gesetzte Korrelationskoeffizient (

”composite correlation coefficient“), aus-gehend von Modell (5.8),

ρ2G= tr(ΠΣxΠ) tr(Σy) , den man ebenfalls aus (5.9) erh¨alt, mit

tr(Σy) = tr(ΠΣxΠ) + tr(Σǫ) und

1 = tr(ΠΣxΠ)

tr(Σy) + tr(Σǫ) tr(Σy).

Der erste Term auf der rechten Seite der letzten Gleichung,ρ2G, kann inter-pretiert werden als der Anteil an Variation, der durch den systematischen Teil des Modells

”erkl¨art“ wird, der zweite Term als der Anteil der Feh-lervariation. Offensichtlich gilt auch in diesem Fall 0 ≤ρ2G ≤1, wobei ρ2G h¨ohere Werte annimmt, wenn der Anteil der durch den systematischen Teil

”erkl¨arten“ Variation zunimmt und umgekehrt. F¨urT = 1 istρ2G2H. McElroy (1977) schl¨agt ein Maß im Rahmen der

”seemingly unrelated regression“ (SUR) Modelle vor, das ebenso f¨ur die hier betrachteten Modelle verwendet werden kann. Es unterscheidet sich in der

”Populationsversion“

von dem von Glahn (1969) vorgeschlagenen Kennwert lediglich dadurch, dass ersteres auf das transformierte Modell

Σ−1/2ǫ y−1/2ǫ Πx+Σ−1/2ǫ ǫ angewandt wird, so dass

Σ−1/2ǫ ΣyΣ−T /2ǫ−1/2ǫ ΠΣxΠΣ−T /2ǫ−1/2ǫ ΣǫΣ−T /2ǫ .

Bildet man die Spur der Matrizen, so erh¨alt man tr(Σ−1ǫ Σy) = tr(Σ−1ǫ ΠΣxΠ) +T und

1 = tr(Σ−1ǫ ΠΣxΠ)

tr(Σ−1ǫ Σy) + T tr(Σ−1ǫ Σy). Das von McElroy (1977) vorgeschlagene Maß

ρ2M = tr(Σ−1ǫ ΠΣxΠ) tr(Σ−1ǫ Σy)

kann Werte zwischen null und eins annehmen. Zu beachten ist, dass hier der Anteil an

”erkl¨arter“ Variation im transformierten Modell, nicht im urspr¨unglichen Modell erfasst wird. Die Eigenschaften dieses Kennwertes in endlichen Stichproben werden von McElroy (1977) unter Annahme der OLS-Sch¨atzung des transformierten Modells hergeleitet.

Carter und Nagar (1977) schlagen im Rahmen von Strukturgleichungs-modellen ein sehr ¨ahnliches Maß vor. Dieses l¨asst sich schreiben als

ρ2CN = tr(Σ−1ǫ ΠΣxΠ)

tr(Σ−1ǫ ΠΣxΠ) + tr(I) = tr(Σ−1ǫ ΠΣxΠ) tr(Σ−1ǫ ΠΣxΠ) +T und ist in der

”Populationsversion“ identisch mit dem von McElroy (1977) vorgeschlagenen Kennwert. Allerdings betrachten Carter und Nagar (1977) nicht nur die OLS-Sch¨atzer des transformierten Modells, sondern allgemei-ner konsistente Sch¨atzer dieses Modells. In endlichen Stichproben stimmen die beiden Kennwerte daher im Allgemeinen nicht ¨uberein.

5.3.2 Kritische Diskussion der Maße

Allen im letzten Abschnitt beschriebenen Maßen ist gemeinsam, dass die Variation im systematischen Teil des Models als durch das Modell

”erkl¨arte“

Variation, und die Variation in den Fehlervariablen als

”nicht erkl¨arte“ Va-riation aufgefasst wird. Unter Verwendung des Determinationskoeffizienten

Abbildung 5.5: Hooper’s ρ2H und McElroy’s ρ2M in Abh¨angigkeit von ver-schiedenen Werten vona (−.99≤a≤.99) und ρ (ρ=−.9,0, .9).

Hooper’sρ2H McElroys’s ρ2M

0 0.2 0.4 0.6 0.8 1

-0.8 -0.4 0 0.4 0.8

ρH2

a12 ρ=-.9 ρ= 0ρ= .9

0 0.2 0.4 0.6 0.8 1

-0.8 -0.4 0 0.4 0.8

ρM2

a12 ρ=-.9 ρ= 0ρ= .9

R2 deckt sich diese mit der Interpretation der entsprechenden Komponen-ten im univariaKomponen-ten linearen Modell. Anders als im univariaKomponen-ten Fall stellt sich aber in multivariaten Modellen die Frage nach der inhaltlichen In-terpretation der Kovarianzen des linearen Pr¨adiktors η = Πx sowie der Korrelationen der Fehlervariablen. Erst wenn auch deren inhaltlicher Bei-trag in Bezug auf

”erkl¨arte“ Variation gekl¨art ist, lassen sich entsprechende Kennwerte sinnvoll konstruieren und interpretieren.

Zur Illustration sei das Verhalten der verschiedenen Maße ausgehend von einem einfachen Modell mitT = 2 betrachtet (Spieß und Tutz, 2004).

SeiΣη = 1 a

a 1

und Σǫ= 1 ρ

ρ 1

.Dann erh¨alt man

ρ2H = 2−(a+ρ)a

4−(a+ρ)2, ρ2M2CN = 2−2ρa 2−2ρa+ 1−ρ2

und ρ2G = .5. Das Verhalten der Kennwerte ρ2H und ρ2M f¨ur verschiedene Werte vonaund ρ ist in Abbildung 5.5 abgetragen.

Aus Abbildung 5.5 wird deutlich, dass die Kennwerteρ2H2M und ρ2CN sowohl von ρ als auch vonaabh¨angen, wobei im Allgemeinen der Einfluss der einen Komponente vom Wert der jeweils anderen Komponente abh¨angt.

Ein Vergleich von ρ2H und ρ2M zeigt weiterhin, dass sich beide Maße sehr unterschiedlich verhalten.

Zusammenfassend l¨asst sich festhalten, dass die Kennwerteρ2H2M und ρ2CN von Komponenten des Modells abh¨angen, deren Beitrag zu einem

” er-kl¨arten“ oder

”nicht erkl¨arten“ Variationsanteil unklar ist. So ¨andert sich der Wert dieser Kenngr¨oßen im Allgemeinen etwa dann, wenn sich die Kor-relation der Einflussgr¨oßen ¨uber die Messzeitpunkte ¨andert, alles andere aber konstant bleibt, wobei unklar ist wie eine solche zu- oder abnehmende Korrelation zu interpretieren ist. Dies gilt nicht f¨ur ρ2G. Bei diesem Maß spielen nur die Variation des systematischen Teils sowie die Fehlervariation eine Rolle. Die Kovarianzen des linearen Pr¨adiktors und die Korrelationen zwischen den Fehlervariablen werden ignoriert.

Diese Eigenschaften gelten auch bei der Anwendung dieser Kennwerte auf endliche Stichproben, in diesem Fall als ˆρ2H, ˆρ2G, ˆρ2M und ˆρ2CN bezeich-net. Weiterhin werden, abgesehen von ˆρ2CN, alle Kennwerte und deren Ei-genschaften ausgehend von dem jeweiligen OLS-Sch¨atzer beziehungsweise zumindest von Sch¨atzern, f¨ur die die gesch¨atzten Residuen unkorreliert mit den Einflussgr¨oßen sind, abgeleitet. Werden andere Sch¨atzer, etwa solche, die a priori Restriktionen bez¨uglich der Parameter ber¨ucksichtigen, verwen-det, dann trifft diese Orthogonalit¨atseigenschaft im Allgemeinen nicht mehr zu. Andererseits weist ˆρ2CN nicht mehr die auch dem Determinationskoef-fizienten univariater linearer Modelle eigene Eigenschaft der orthogonalen Zerlegung der totalen Variation in einen

”erkl¨arten“ und einen ”nicht er-kl¨arten“ Teil auf.

Die ausgehend von endlichen Stichproben berechneten Kennwerte ˆρ2H und ˆρ2G ber¨ucksichtigen nicht, ob bei der Sch¨atzung eine bestimmte Korre-lationsstruktur gesch¨atzt wurde oder nicht. So f¨uhren im allgemeinen mul-tivariaten linearen Regressionsmodell, bei dem die ParametermatrixΠ kei-nen Restriktiokei-nen unterliegt, OLS-, GLS- und, bei Annahme der Normal-verteilung der Fehlervariablen, ML-Sch¨atzung zu denselben Sch¨atzern f¨ur Π(Mardia, Kent und Bibby, 1995, S. 173–175). Auf der anderen Seite sind

die Kennwerte ˆρ2M und ˆρ2CN zwar Funktionen der gesch¨atzten Korrelations-matrizen, deren Einfluss auf diese Kennwert h¨angt allerdings, wie bereits gezeigt, von den Kovarianzen des linearen Pr¨adiktors ab.

5.3.3 Alternative Pseudo-R2-Maße

Bei der Sch¨atzung des allgemeinen Modells (5.2, Seite 152) werden im All-gemeinen die Parameter des bedingten ErwartungswertesE(y|η) sowie der bedingten Kovarianzmatrix Cov(y|η) gesch¨atzt, wobei h¨aufig einige der Pa-rameter bestimmten Restriktionen unterworfen werden. Neben der Normal-verteilungsannahme sind dies die bei einer Sch¨atzung explizit modellierten Komponenten. Gesch¨atzt werden im linearen Modell Parameter des syste-matischen Modellteils, Korrelationsstrukturparameter und Varianzen.

Die Variation des linearen Pr¨adiktors an jedem Messzeitpunkt kann, entsprechend der Interpretation im univariaten linearen Modell, als

” er-kl¨arte“ Variation aufgefasst werden. Obwohl sie indirekt in die Sch¨atzung der Parameter eingehen, werden die Nicht-Diagonalelemente der Kovari-anzmatrix der Einflussgr¨oßen bei der Modellbildung nicht explizit ber¨ uck-sichtigt. Aus diesem Grund werden Glahn (1969) folgend, lediglich die Dia-gonalelemente der Kovarianzmatrix des linearen Pr¨adiktors als sinnvoll zu interpretierende Komponenten bei der Konstruktion eines Maßes f¨ur die Erkl¨arungskraft eines Modells wie (5.2) ber¨ucksichtigt.

Die Varianzen k¨onnen, ebenfalls wie im univariaten linearen Fall, als Komponenten, die die

”nicht erkl¨arte“ Variation in den Responsevariablen widerspiegeln, interpretiert werden. ¨Ahnliches gilt f¨ur die Diagonalelemente der Kovarianzmatrix der Responsevariablen. Diese spiegeln die Gesamtva-riation in den Responsevariablen wider.

Bis zu diesem Punkt folgt die Argumentation dem Vorschlag Glahn’s (1969). Ist weiterhin die Korrelationstruktur, wie etwa bei der Berechnung von GEE-Sch¨atzern, uninteressant, dann bietet sich tats¨achlich das von Glahn (1969) vorgeschlagene Maßρ2G an.

Im Folgenden soll allerdings davon ausgegangen werden, dass das Mo-dell unter Annahme einer bestimmten Korrelationsstruktur gesch¨atzt wird.

Beispielsweise f¨uhrt die Annahme des in Abschnitt 3.3 beschriebenen

einfa-chen Random Effects Modells zu einer Equi-Korrelationsmatrix, wobei die uber alle Messzeitpunkte gleiche Korrelation zu sch¨atzen ist. Wird diese¨ Korrelation auf den Wert null restringiert, erh¨alt man die Unabh¨angig-keitsannahme. Um ein solches Modell in den Korrelationen in einem Maß f¨ur die Erkl¨arungskraft eines Regressionsmodells zu ber¨ucksichtigen, wird als entsprechendes Maß f¨ur dieses Teilmodell die quadrierte multiple Kor-relation jeder Fehlervariablen ǫt mit jeweils allen anderen T −1 Fehler-variablen verwendet. Diese Korrelation ist ̺2t|t = 1−(rt)−1, mit rt dem t-ten Diagonalelement der Inversen der Korrelationsmatrix R(θ3), wobei θ3 der Korrelationsstrukturparameter ist. Da ǫ normalverteilt ist, ist der quadrierte multiple Korrelationskoeffizient gerade gleich der Korrelation der Fehlervariablen ǫt und der (linearen) Regressionsfunktion von ǫt auf die Fehlervariablen zu allen anderen Messzeitpunkten und gibt den Anteil der Variationsreduktion in ǫt an, der durch die Bedingung auf alle anderen Fehlervariablen ǫt erreicht wird (z.B. Muirhead, 1982). Weiterhin ist der quadrierte multiple Korrelationskoeffizient gleich dem Determinationskoef-fizienten R2 in univariaten linearen Modellen. Da die Fehlervariablen als normalverteilt vorausgesetzt wurden, impliziert eine Korrelation von null Unabh¨angigkeit der Variablen und ̺2t|t = 0. Weiterhin ist ̺2t|t maximal wennR(θ3) gleich der wahren Korrelationsmatrix ist.

F¨ur die Konstruktion eines Maßes der Erkl¨arungskraft multivariater Regressionsmodelle wird anstelle des Modells (5.8) ein transformiertes Mo-dell zugrundegelegt, aber im Unterschied zu Carter und Nagar (1977) oder McElroy (1977) wird von

V−1/2ǫ y =V−1/2ǫ Πx+V−1/2ǫ ǫ (5.10) ausgegangen, wobei Vǫ= Diag(Σǫ), so dass

V−1/2ǫ ΣyV−1/2ǫ =V−1/2ǫ ΠΣxΠV−1/2ǫ +R,

wobei hier und im Folgendem anstattR(θ3) kurzRgeschrieben wird. F¨ur jede derT Gleichungen wird die Variation in der Fehlervariablen des trans-formierten Modells in einen durch die Korrelationsstruktur

”erkl¨arten“

An-teil,̺2t|t, und einen

”nicht erkl¨arten“ Anteil, 1−̺2t|t, zerlegt. Als

” Popula-tionsversion“ eines Maßes der Erkl¨arungskraft l¨asst sich nun

ρ21 = tr(V−1ǫ ΠΣxΠ) + tr(IT −Diag(R−1)−1) tr(V−1ǫ ΠΣxΠ) +T

definieren, mit tr(IT − Diag(R−1)−1) = tr(Diag(̺21|1, . . . , ̺2T|T)) dem Anteil der durch die Korrelationsstruktur

”erkl¨arten“ Variation und tr(Diag(R−1)−1) dem Anteil

”nicht erkl¨arter“ Variation. Der Kennwertρ21 l¨asst sich mit σǫ2t, den Diagonalelementen der Matrix Vǫ, und σ2ηt, den Diagonalelementen der Matrix ΠΣxΠ, vereinfachen zu

ρ21= PT

t=1σǫ−2t ση2t+PT t=1̺2t|t

PT

t=1σǫ−2t σ2ηt +T ,

und l¨asst sich interpretieren als Anteil der durch den systematischen Teil und die Korrelationsstruktur

”erkl¨arten“ Variation in allen T Gleichungen an der gesamten Variation, wobei letztere gegeben ist durch die Summe

¨uber die Gesamtvariation in allen Gleichungen. Wie leicht zu sehen ist, gilt 0 ≤ρ21 <1, und, falls neben der Konstante wenigstens eine Einflussgr¨oße in das Modell eingeht,ρ21 = 0 genau dann, wennΠ=0 und R=I.

Dies ist nicht das einzige plausible Maß, das entsprechend dem oben beschriebenen Ansatz konstruiert werden kann. Ist man etwa am Beitrag einzelner Gleichungen zu einem globalen Maß der Erkl¨arungskraft interes-siert, so bietet sich

ρ22 =T−1 XT t=1

σǫ−2t ση2t2t|t

σǫ−2t ση2t + 1 ,

das ungewichtete Mittel derT Werte des entsprechenden Maßes ¨uber die einzelnen Gleichungen, an.

Ein dem von Hooper (1959) vorgeschlagenen Maß ¨ahnlicher Kennwert l¨asst sich wie folgt konstruieren. Seiσy2

t dast-te Diagonalelement der Matrix Σy,M= Diag(σǫ−21 ση21, . . . , σǫ−2T ση2T) und

̺2y

t|yt = σ2ǫtrt,t(Mt+Rt)−1rt,t σ2y

t

,

wobei f¨ur eine (T×T)-MatrixA,At die um diet-te Zeile und Spalte verklei-nerte MatrixAundrt,t der Vektor der Korrelationen dert-ten Fehlervaria-blen mit den verbleibendenT−1 Fehlervariablen ist. Das Maß̺2y

t|yt kann als die quadrierte multiple Korrelation von ytmit den verbleibendenT−1 Responsevariablen unter Vernachl¨assigung der Nicht-Diagonalelemente in Σηinterpretiert werden. Als ein Maß f¨ur die Erkl¨arungskraft l¨asst sich nun definieren

ρ23 = T−1tr(M+R)−1M

= T−1 XT

t=1

σ2y t

σǫ2ty2 t

σǫ2t̺2y

t|yt

!−1

σy2 t

ση2t

= T−1 XT

t=1

ση2tσ−2ǫtη2tσ−2ǫt + 1)(1−̺2y

t|yt), mit

σy2

t

σ2ǫty2

t

σ2ǫt̺2y

t|yt

!−1

dem t-ten Diagonalelement der Matrix (M+R)−1. Gegen¨uber den Kenn-werten ρ21 undρ22 wird beiρ23 dem systematischen Teil des Regressionsmo-dells deutlich mehr Gewicht als der Korrelationsstruktur beigemessen.

Es l¨asst sich leicht zeigen, dass 0≤ρ23 ≤ρ22 <1 und dass, wenn neben der Konstanten wenigstens eine Einflussgr¨oße in das Modell eingeht, ρ22 genau dann null ist, wenn Π=0 und R=I, w¨ahrend ρ23 genau dann null ist, wenn Π = 0. Sind alle Korrelationen der Fehlervariablen gleich null, dann ist ρ2223.

Ganz allgemein f¨uhren gr¨oßere Wert f¨ur̺2t|t beziehungsweise ̺2y t|yt zu gr¨oßeren Werten f¨urρ2122 beziehungsweiseρ23 und umgekehrt f¨uhren gr¨oße-re Werte in den Diagonalelementen von Σǫ zu kleineren Werten f¨urρ21, ρ22 beziehungsweise ρ23. F¨urT = 1 gilt ρ2122232H2G2M2CN.

5.3.4 Verallgemeinerung auf das allgemeine Modell

Die ”Populationsversion“ eines von McKelvey und Zavoina (1975) ent-wickelten Maßes der Erkl¨arungskraft des Regressionsmodells ist

ρ2M Z = σ−1ǫ σ2η σ−1ǫ ση2+ 1.

Hooper’s (1959) Ansatz folgend schlagen Spieß und Keller (1999) (siehe auch Spieß, 2001b) eine Erweiterung auf multivariate Probitmodelle mit ordinalen Responsevariablen vor. Die

”Populationsversion“ dieses Maßes l¨asst sich schreiben als

ρ2SK =T−1tr((V−1/2ǫ ΠΣxΠV−1/2ǫ +R)−1(V−1/2ǫ ΠΣxΠV−1/2ǫ )).

Ein Vergleich von ρ2SK mit ρ23 zeigt, dass sich die beiden Kennwerte le-diglich dadurch unterscheiden, dass beiρ23 die Nicht-Diagonalelemente der Matrix ΠΣxΠ unber¨ucksichtigt bleiben. Da in ρ2SK auch diese Nicht-Diagonalelemente eingehen, treffen auf diesen Kennwert die in Abschnitt 5.3.2 genannten Kritikpunkte zu.

Der von Spieß und Keller (1999) vorgeschlagene Kennwert ist zwar Funktion der Varianzen und der Parameter des systematischen Teils des la-tenten Regressionsmodells, diese sind im allgemeinen Modell mit ordinalen Variablen aber nicht unabh¨angig voneinander sch¨atzbar. Ausgangspunkt zur Konstruktion alternativer Maße f¨ur die Erkl¨arungskraft des allgemei-nen Modells (5.2) ist daher nicht das latente Modell (5.8), sondern das transformierte Modell (5.10) (Seite 184)

V−1/2ǫ y=Bx+V−1/2ǫ ǫ mitB=V−1/2ǫ Π, so dass

V−1/2ǫ ΣyV−1/2ǫ = BΣxB+R

(vgl. Abschnitt 5.3.3). Der Kennwert ρ2SK ist invariant gegen¨uber dieser Transformation (Spieß und Keller, 1999).