• Keine Ergebnisse gefunden

6 Konzeption und Design des Befragungsinstruments

6.5 Datenbeschreibung und Auswertung

6.5.2 Deskriptive Datenauswertung

Neben den deskriptiven Untersuchungen steht die Identifikation der Merkmalskorrelationen im Mittelpunkt der Studie. Daher gliedert sich die Datenauswertung in zwei aufeinander aufbauende Teilbereiche. Der deskriptive Teilbereich dient vorrangig der Datenaufbereitung. Häufigkeits-, Mittelwert- sowie Medianberechnungen werden dabei gezielt eingesetzt. Aufgrund der verwendeten

76 Siehe hierzu Kapitel 6.5.2.

77 Vgl. ausführlich Bühner, M. (2006): S. 55.

78 Die Antwortkategorie kann z.B. drei-, vier- oder zehnstufig sein.

79 Vgl. Bortz, J.; Döring, N. (2002): S. 179; Krosnick, A. J. (1999); Metall, M. S.; Jacoby, J. (1971):

80 Die 5-stufige Differenzierung wurde im Rahmen einer Besprechung vom 13.02.2009 am Lehrstuhl für Statistik, Universität Regensburg, festgelegt.

Skalenniveaus und der Datendichte des erhobenen Datenmaterials werden Kreuz- bzw.

Kontingenztabellen konstruiert.81 Die Präsentation der Ergebnisse mittels Kontingenztabellen und Diagrammen ist ebenfalls Teil der beschreibenden Statistik.

Die Beschreibung der Daten dient darüber hinaus der Identifikation der Variablen, die die Unternehmer als besonders wirksam für eine effektive Kriminalitätsbekämpfung erachten. Diese sind Gegenstand der sich an die deskriptive Auswertung anschließende (bivariate) Zusammenhangsanalyse bzw. Diskussion ausgewählter staatlicher Institutionen.

Die folgende Darstellung gibt einen kurzen Überblick über die verwendeten deskriptiven Methoden:

1. Der Median ist der Zentralwert für geordnete Reihen. Er ist der Wert, bei dem 50 Prozent aller Merkmalswerte größer oder gleich xmed sind.82 Die Einzelwerte werden entsprechend ihrer Skalierung in einer aufsteigenden Rangfolge sortiert.

Das symmetrische Zentrum der Verteilung wird als Repräsentant der Verteilung betrachtet. Zu unterscheiden sind die Fälle nach der Anzahl der Werte, ob diese gerade oder ungerade sind:83

Für mindestens ordinal skalierte in der Reihenfolge x 1≤ x 2≤ x 3≤ … ≤ xn

ist der Median wie folgt definiert:

𝑥𝑚𝑒𝑑 = �

𝑥�𝑛+1

2 �, 𝑛 =𝑔𝑒𝑟𝑎𝑑𝑒 1

2�𝑥�𝑛 2� �+ 𝑥�𝑛 2� +1��, 𝑛 =𝑢𝑛𝑔𝑒𝑟𝑎𝑑𝑒

81 Vgl. Fahrmeir, L. u.a. (2001): S. 11.

82 Vgl. Bamberg, B., Baur, F. (1993): S. 17.

83 Vgl. Martens, J. (2003), S. 51.

2. Das arithmetische Mittel erlaubt die Durchschnittsbildung bei metrisch skalierten Variablen, indem die Summe aller erhobenen Untersuchungswerte durch die Anzahl der Beobachtungen n geteilt wird.84

𝑥̅= 1

𝑛 (𝑥1+ 𝑥2+ 𝑥3+⋯+𝑥𝑛) = 1 𝑛 � 𝑥𝑖

𝑛 𝑖=1

3. Von elementarer Bedeutung für die beschreibende Statistik ist die Ermittlung von absoluten Häufigkeiten. Für die Ausprägungen a1, a2, a3,…, ak eines Merkmals x gilt grundsätzlich der Zusammenhang

ℎ(𝑎1) + ℎ(𝑎2) + ℎ(𝑎3) +⋯+ℎ(𝑎𝑛) =� ℎ�𝑎𝑗�= 𝑛

𝑘 𝑗=1

wonach, die Summe der absoluten Häufigkeiten eines Merkmals x der Anzahl der Befragten bzw. der Größe der Stichprobe n entspricht.85

4. Aussagekräftiger als die absolute Häufigkeit ist die relative Häufigkeit, bei der die absolute Häufigkeit einer Merkmalsausprägung h(aj) im Verhältnis zur Größe der Stichprobe n betrachtet wird.86

𝑓�𝑎𝑗�= 1

𝑛 ℎ�𝑎𝑗� ,𝑚𝑖𝑡 𝑗 = 1, 2, 3, … ,𝑘 � 𝑓�𝑎𝑗�= 1

𝑘 𝑗=1

Ein weiterer Untersuchungsgegenstand der deskriptiven Aufbereitung der Daten ist die Identifikation von signifikanten Zusammenhängen zwischen bestimmten Variablen. Die Zusammenhangsanalyse schließt sich direkt an die deskriptive Auswertung an. Die verwendeten statistischen Testverfahren werden nachfolgend kurz vorgestellt.

84 Vgl. Fahrmeir, L. u.a. (2001), S. 51.

85 Vgl. Bamberg, B.; Baur, F. (1993), S. 11.

86 Vgl. Degen, H.; Lorscheid, P. (2002), S. 21.

6.5.3 Zusammenhangsanalyse

Im Rahmen der Zusammenhangsanalyse werden die erfassten Merkmale miteinander in Beziehung gesetzt, um potenzielle Zusammenhänge zwischen einzelnen Variablen innerhalb der Stichprobe zu identifizieren.

Grundsätzlich können mithilfe statistischer Tests bestimmte Hypothesen überprüft werden. Zu diesem Zweck werden eine Gegenhypothese (H1) und eine gegenteilige Nullhypothese (H0) formuliert. Letztere wird anschließend einem statistischen Test unterworfen. Kann H0 hierbei widerlegt werden, gilt H1 als begründet und nicht zufällig. In der vorliegenden Untersuchung wird H0 immer dann verworfen, wenn der rechnerisch ermittelte p-Value kleiner als das festgesetzte Signifikanzniveau α ist.87 Der sogenannte p-Value bzw. die Überschreitungswahrscheinlichkeit wird hierbei definiert als die Wahrscheinlichkeit, unter den beobachteten Prüfgrößenwert oder einen in Richtung der Alternative extremeren Wert zu erhalten.88

Es besteht jedoch grundsätzlich die Möglichkeit, dass H0 abgelehnt wird, obwohl diese eigentlich zutrifft. Ist dies gegeben, liegt ein Fehler erster Art (α-Fehler) vor. Die Wahrscheinlichkeit für einen α-Fehler wird durch dessen Signifikanzniveau α jedoch limitiert. Als Fehler zweiter Art (β-Fehler) wird dahingegen der Fehler bezeichnet, den man begeht, wenn man die Nullhypothese beibehalten wird, obwohl die Alternativhypothese gilt.89 Der Fehler zweiter Art hängt von mehreren Faktoren ab, u.a.

von α (je geringer α, desto größer β), von der Stichprobengröße n und der sogenannten Effektgröße (Differenz der verglichenen Werte). Aufgrund des nicht all zu großen Stichprobenumfangs (n = 100) und im Sinne eines konservativen Testmodells wird das Signifikanzniveau mit α = 0,05 und α = 0,1 festgelegt.90

Ein Hauptanliegen der Arbeit ist die Identifikation von signifikanten Zusammenhängen zwischen bestimmten Stichprobenvariablen, aus denen einerseits Ursachen für eine Kriminalitätsbetroffenheit und andererseits Empfehlungen aus einem Maßnahmenkatalog für eine wirksamere Bekämpfung der Wirtschaftskriminalität

87 Demzufolge sind (1-α) bzw.(1-β) korrekte Entscheidungen wenn H0 bzw. H1 in Wirklichkeit zutrifft und man sich für H0 bzw. H1 entscheidet; vgl. Janssen, J.; Laatz, W. (2009), S. 333 sowie Bamberg, B. u.

Baur, F. (1993): S. 213.

88 Vgl. Fahrmeir, L. u.a. (2001): S. 409.

89 Vgl. Bortz, J.; Döring, N. (2003): S. 27 ff.

90 Vgl. Janssen, J.; Laatz, W. (2009), S. 333.

abgeleitet werden können. Wie bereits erläutert, hängen die statistischen Testverfahren wesentlich von der Skalierung der betrachteten Variablen ab. Die nachfolgende Tabelle gibt einen kurzen Überblick über die statistischen Testverfahren.

abhängige Variable

unabhängige Variable

ordinal skaliert nominal skaliert

metrisch

Spearman-Rangkorrelationskoeffizient

Chi-Quadrat- Unabhänigkeitstest

ordinal

Spearman-Rangkorrelationskoeffizient

Chi-Quadrat- Unabhänigkeitstest nominal Chi-Quadrat

Unabhänigkeitstest

Chi-Quadrat- Unabhänigkeitstest Tabelle 6-4: Statistische Testverfahren nach Martens, J. (2003), S. 124 f.

6.5.3.1 Chi-Quadrat-Unabhängigkeitstest nach Pearson

Der Chi-Quadrat-Unabhängigkeitstest ist für nominal skalierte oder kategoriale Daten geeignet, deren gemeinsame Ausprägungen auf eine Abhängigkeit hinweisen. Mit Hilfe des 𝜒2-Unabhängigkeitstests soll in Kapitel 7 beispielsweise der Zusammenhang zwischen den Merkmalen „Von Wirtschaftskriminalität betroffen bzw. nicht betroffen“

und den Merkmal „Nutzung von Präventionsangeboten“ überprüft werden.

Dazu wird über die Assoziations- bzw. Richtungsmaße der Zusammenhang quantifiziert. Zur Bestimmung des Abhängigkeitsgrades bzw. der Stärke des Zusammenhangs eignet sich der Kontingenzkoeffizient (C).91 Um den Nachteil des Kontingenzkoeffizienten, dieser kann den Wert C = 1 nicht erreichen, auch wenn ein nahezu perfekter Zusammenhang besteht,92 zu minimieren, kann auch der normierte Kontingenzkoeffizient verwendet werden.

91 Neben dem Kontingenzkoeffizient eignet sich auch der Phi-Koeffizient, Cramer-V, Lamda oder Goodman-und-Kruskal-Tau; vgl. Martens, J. (2003): S. 114.

92Vgl. Cleff, Th. (2008), S. 90.

Formal berechnet sich dieser wie folgt:

Um zu überprüfen, ob der Zusammenhang statistisch signifikant ist und nicht nur rein zufällig, werden die unter Zugrundelegung des Unabhängigkeitspostulats geschätzten bzw. erwarteten absoluten Merkmalshäufigkeiten mij (Voraussetzung: mij ist mindestens fünf)93 mit den tatsächlich beobachteten Merkmalshäufigkeiten nij verglichen und hieraus ein sogenannter χ2-Wert errechnet:

𝜒02 = � ��𝑛𝑖𝑗 − 𝑚𝑖𝑗2

Je größer dieser Wert, desto stärker unterscheiden sich die Merkmale in der Stichprobe.94 Unter Zugrundelegung des Signifikanzniveaus (α = 0,05) und des χ2-Wertes wird der p-Value abgeleitet, anhand dessen die Übertragbarkeit der Stichprobenergebnisse auf die Grundgesamtheit beurteilt werden kann. Die H0-Hypothese in den in Kapitel 7.1 durchgeführten Tests lautet: Die Merkmale sind Unabhängig. Die H1-Gegenhypothese lautet dem entsprechen: Die Merkmale sind abhängig. Als Prüfgröße wird der bereits genannte Kontingenzkoeffizient verwendet.

H0 ist abzulehnen wenn der χ2-Wert im Ablehnungsbereich K=�𝜒(𝑟−1)(𝑠−1)2 ,∞>94F95liegt.

6.5.3.2 Rankorrelationskoeffizient nach Spearman

Potentielle Zusammenhänge zwischen mindestens ordinal skalierten Variablen x und y, z. B. einer ordinal-abhängigen (z. B. zukünftige von Betrugsdelikten betroffen) und einer ordinal-unabhängigen Variable (z. B. Wirksamkeit einer Kronzeugenregelung), wird mittels Korrelationskoeffizienten nach Spearman analysiert. Durch ihn wird der monotone Zusammenhang zwischen x und y gemessen. Hierbei werden den Stichprobenbeobachtungen Ränge r(xi) und r(yi) zugeordnet, die sich aus der

93 Vgl. Martens, J. (2003), S. 135.

94 Vgl. Fahrmeir, L. u.a. (2001): S. 452 ff.

95 r = Anzahl der Zeilen, s = Anzahl der Spalten.

größenmäßigen Ordnung der jeweiligen Stichprobenbeobachtung ergeben. Aus den Rängen werden die jeweiligen Rangdifferenzen für jedes Wertepaar berechnet (di = r(xi) – r(yi)). Liegen Beobachtungen mit identischen Werten vor, so wird allen betroffenen Beobachtungen ein Durchschnittsrang zugeordnet. Unter Berücksichtigung der Durchschnittsränge (sog. Bindung), lässt sich der Korrelationskoeffizient wie folgt berechnen:96

𝑟𝑆 = 1−∑𝑛𝑖=1𝑑𝑖2

𝑛3− 𝑛,𝑚𝑖𝑡 −1 ≤ 𝑟𝑆 ≤1

, mit 𝑑𝑖2 = quadrierte Summe der Rangdifferenzen der

einzelnen Beobachtungspaare

Der Korrelationskoeffizient nach Spaerman ist ein Rangkorrelationskoeffizient und setzt keine Normalverteilung voraus.97 Dieser kann Werte zwischen -1 und 1 annehmen.98 Die Übertragbarkeit der Stichprobenergebnisse auf die Grundgesamtheit wird mit Hilfe des Signifikantestes mit α = 0,05 und α = 0,1 überprüft. Entsprechende der Ausführungen zur Hypothesenbildung lautet die Nullhypothese H0: Der Korrelationskoeffizient ist Null, also: ρs = 0. Die Gegenhypothese H1 lautet: Der Korrelationskoeffizient ist nicht Null, also ρs ≠ 0.99 Für n > 30 ist die Prüfgröße 𝑑0 näherungsweise Normalverteilt, es gilt dann:100

𝑑0 = 𝑟𝑆

�1− 𝑟𝑆2√𝑛 −2

Die Nullhypothese wird dementsprechend abgelehnt wenn 𝑑0 Element des Ablehnungsbereiches K=<−∞, 𝜆∝ 2 ]∪[𝜆∝ 2 ,∞> ist.

96Vgl. Janssen, J.; Laatz, W. (2009), S. 284.

97Vgl. Martens, J. (2003), S. 187.

98 Vgl. Martens, J. (2003), S. 184.

99 Ist der Test einseitig, also negative oder positive Korrelation, dann ist H1: ρs≤ 0 oder ρs≥ 0.

100Vgl. Martens, J. (2003), S. 189.

6.5.3.3 Binäre Logit-Modelle

Die logistische Regression ermöglicht den Einfluss von unabhängigen intervallskalierten, dichotomen und kategorialen (nach Transformation in dichotome Variable) Variablen x auf eine dichotome (binär logistische Regression, kurz: binäres Logit-Modell) oder polytom nicht-metrische abhängige Variable yi (multinomiale logistische Regression) zu messen. Mit Hilfe dieses Modelltypes soll der Einfluss unterschiedlicher unabhängiger Variablen auf die abhängige Variable

„Anzeigeverhalten“ untersucht werden.

Ziel der Logitanalyse ist zu modellieren, welche unabhängigen Variablen die Eintrittswahrscheinlichkeit der abhängigen Variable beeinflussen, Außerdem soll das Modell zeigen, in welche Richtung der Zusammenhang zwischen unabhängigen und abhängige Variable gilt. Die abhängige Variable yi, die bei der binär logistischen Regression in der Regel die Werte „0“ oder „1“ hat, wird durch logarithmieren und weitere Umformungen so transformiert, dass sie einen theoretischen Wertebereich -∞ bis +∞ annehmen kann. Als abhängige Größe wird die Wahrscheinlichkeit des Übergangs zur Referenzgruppe p(yi=1) betrachtet. SPSS sieht als Referenzgruppe immer die Gruppe mit der höchsten Codierung an.

Im Untersuchungsmodell der empirischen Analyse wurde angenommen, dass verschiedene Einflussgrößen das Anzeigeverhalten begründen können. Im Folgenden wird geprüft, welchen Einfluss verschiedene Variablen auf das Anzeigeverhalten haben.

Hierzu zählen u.a. die verschiedenen Arten der Folgeschäden, Anzahl der Mitarbeiter, Rechtsform, Unternehmensalter, Umsatz, Betriebsergebnis, Führungsposition, Schadenssumme und Anzahl der Delikte.

Mathematisch betrachtet stellt das Logit-Modell einen monotonen Zusammenhang zwischen der Eintrittswahrscheinlichkeit π(x) der abhängigen Merkmalsausprägung yi

und der Einflussgröße x her, wobei β0 als Konstante und β als unbekannter Parameter zu schätzen sind.101

101 Vgl. Dehn, Ph. (2005), S. 90 f.

Formal lässt sich das Logit-Modell wie folgt darstellen:102

𝜋(𝑋) =1+𝑒𝑥𝑝 (𝛽𝑒𝑥𝑝(𝛽0+𝑥𝛽)

0+𝑥𝛽)

Die Schätzung der ß–Koeffizienten zur Trennung der zwei Ausprägungen der abhängigen Variablen wird mit der Maximum-Likelihood-Methode vorgenommen. Mit Hilfe eines Signifikanztests wird überprüft, ob sich der Parameter β signifikant (α = 0,05) von Null unterscheidet und damit wesentlichen Einfluss auf die Eintritts-wahrscheinlichkeit π(x) ausübt.103

Wie bereits ausgeführt, umfasst die Stichprobe 100 Unternehmen (n = 100). Eine Reduzierung der Stichprobe (n ≤ 100) im Vergleich zu den 100 Datensätzen, die aus der Befragung vorliegen, resultiert aus den Fällen mit fehlenden Werten oder aus dem Ausschluss nicht brauchbarer Werte. Unterschiedliche n in den Testverfahren können auch aufgrund von Doppelzählungen und aufgrund von Mehrfachnennungen der Befragten resultieren.

102 Vgl. Tutz, G. (2000), S. 32.

103Vgl. Tutz, G. (2000), S. 94.

7 Empirische Befunde zur Wirksamkeit staatlicher Institutionen im