• Keine Ergebnisse gefunden

Testverfahren

Im Dokument Aufdeckung von Bilanzf (Seite 30-37)

Damit wir überhaupt einen Datensatz auf die Benford-Verteilung respektive eine Bilanz auf Fälschung überprüfen können, brauchen wir gewisse Testverfahren. Anhand dieser Testverfahren können wir anschließend Rücksclüsse auf Manipulation hinsichtlich der Bilanz treffen.

4.1 Chi-Quadrat-Anpassungstest

Der χ²-Anpassungstest18 überprüft den Grad der Übereinstimmung zwischen einer Stichprobe vom Umfang mit einer unbekannten empirischen VF und einer voll spezialisierten VF . In unserem Fall ist die Benford-Verteilung.

Die Voraussetzung für die Anwendung des χ²-Anpassungstests ist die Unabhängigkeit der einzelnen Beobachtungen. Deshalb ist es zu empfehlen, vor der Anwendung Überlegungen hinsichtlich der Abhängigkeit der beobachteten Stichprobe anzustellen respektive gezielte Tests auf Unabhängigkeit, z.B. χ²-Unabhängigkeitstest, durchzuführen. Außerdem ist der χ²-Anpassungstest für „große“ Stich-proben geeignet.

Die Nullhypothese und Alternativhypothese lauten

Hierbei ist zu beachten, dass die Nullhypothese für alle gilt und die Alternativhypothese für mind. ein gilt.

Der Ablauf des χ²-Anpassungstest sieht wie folgt aus:

1.Schritt: Wir bestimmen die Prüfgröße

18 Vgl. Peter N. Posch (Ziffernanalyse S. 30) & J. Hartung (Statistik S. 182)

(7)

31 4.2 Kolmogoroff-Smirnov-Anpassungstestest

dabei handelt es sich bei um die beobachtete relative Häufigkeit der Ziffer und bei analog um die erwartete Benford-Häufigkeit.

Außerdem ist zu beachten, dass die Summe ab der zweiten Ziffer von 0 bis 9 läuft.

2.Schritt: Wir bestimmen den kritischen Wert

der χ²-Verteilung mit Freiheitsgraden und einem Signifikanzniveau von .

0,1 0,05 0,01

1. χ82 13,36156614 15,50731306 20,09023503 2. χ92 14,68365662 16,91897762 21,66599433 3. χ892 106,46889944 112,02198593 122,94220699 4. χ8992 953,75165366 969,86483294 1000,57472714

Test

d α

Tabelle 2: Kritische Werte für den χ2-Anpassungstest

3.Schritt: Wenn nun

,

wird die Nullhypothese zum Signifikanzniveau verworfen. In der Praxis heißt dies, dass die Bilanz mit einer Sicherheit von 1-α gefälscht ist.

4.2 Kolmogoroff-Smirnov-Anpassungstestest

Der Kolmogoroff-Smirnov-Anpassungstest19 (KSA) überprüft, wie der χ²-Anpassungstest, ob die unbe-kannte VF der betrachteten Grundgesamtheit mit einer hypothetischen VF übereinstimmt. In unserem Fall handelt es sich bei um die Benford-Verteilung. Der KSA ist für „kleine“ Stichproben-umfänge besser geeignet als der χ²-Anpassungstest.

19 Vgl. Peter N. Posch (Ziffernanalyse S. 31) & J. Hartung (Statistik S. 183)

Die Voraussetzung für die Anwendung des KSA ist die Stetigkeit von . Da die Benford-Verteilung diskret ist, ist der Test daher konservativ und von geringer Güte.

Die Nullhypothese und Alternativhypothese lauten wieder

Der Ablauf des KSA sieht wie folgt aus:

1.Schritt: Wir bestimmen unsere Prüfgröße

wobei

und die empirische Verteilungsfunktion der Beobachtungen bezeichnet.

2.Schritt: Den kritische Wert

können wir anhand der unteren Tabelle bestimmen.

n 5 8 10 20 40 >40

dn;0,80 1,00 1,01 1,02 1,04 1,05 1,08

dn;0,90 1,14 1,16 1,17 1,19 1,20 1,23

dn;0,95 1,26 1,28 1,29 1,31 1,33 1,36

dn;0,98 1,40 1,43 1,45 1,47 1,49 1,52

dn;0,99 1,50 1,53 1,55 1,57 1,59 1,63

Tabelle 3: Kritische Werte20 für den KSA

Ist das vorliegende nicht in der Tabelle zu finden, so nimmt man das nächst größere.

20 Vgl. J. Hartung (Statistik, S. 184)

(8)

33 4.3 Z-Test

3.Schritt: Die Nullhypothese wird zum Signifikanzniveau verworfen, wenn

gilt. In der Praxis heißt dies, wie schon im χ²-Anpassungstest, dass die Bilanz mit einer Si-cherheit von 1-α gefälscht ist.

4.3 Z-Test

Der Z-Tests21, auch Gauß-Test genannt, berechnet die Signifikanz der Abweichung für jede Ziffer .

Überschreitet der Z-Wert22 6 bei einem Signifikanzniveau von 0 05 oder 64bei einem von 0 0 , dann liegt eine sig. Abweichung mit einer Sicherheit von 1-α vor.

Bemerkung: Der Term wird nur dann subtrahiert, wenn ist.

4.4 Mittlere absolute Abweichung

Die Mittlere absolute Abweichung23, kurz MAD (engl. Mean Absolute Deviation), kann neben den χ²- und KS-Anpassungstests als ein weiteres Gütekriterium genutzt werden. MAD gibt an, wie weit im Mittel die beobachtete Stichprobe von der theoretischen Häufigkeit, d.h. von der Benford-Verteilung, abweicht.

21 Vgl. Peter N. Posch (Ziffernanalyse, S. 31)

22 Vgl. Durtschi (2004, S. 25 ff)

23 Vgl. Peter N. Posch (Ziffernanalyse, S. 32)

(9)

Wir berechnen

Das Problem beim MAD liegt dabei, dass kein kritischer Wert existiert. Doch Nigrini hat durch prakti-sche Testerfahrungen eine Anpassungsschranke für die erste, zweite und für die ersten beiden Zif-fern festgelegt (siehe Tab.4).

Anpassungsgüte

Erste Ziffern eng

akzeptabel

marginal akzeptabel keine Übereinstimmung

Zweite Ziffern eng

akzeptabel

marginal akzeptabel keine Übereinstimmung

Erste beide Ziffern eng

akzeptabel

marginal akzeptabel keine Übereinstimmung [0 ; 0,008)

MAD [0 ; 0,004) [0,004 ; 0,008) [0,008 ; 0,012)

≥ 0,012

≥ 0,0018 [0,008 ; 0,0012) [0,0012 ; 0,016)

≥ 0,016 [0 ; 0,0006) [0,0006 ; 0,0012) [0,0012 ; 0,0018)

Tabelle 4: Anpassungsschranken24 der MAD

Bemerkung: Der mittlere quadratische Fehler,

kurz MSE (engl. Mean Squared Error), hat den Vorteil gegenüber dem MDA, dass auf-grund der Quadrierung größere Abweichungen stärker gewichtet werden als kleinere.

Doch für den MSE existiert weder ein kritischer Wert noch Richtlinien wie beim MDA.

Deshalb können wir die Prüfgröße von MSE nicht einordnen.

24 Vgl. Peter N. Posch (Ziffernanalyse, S. 84)

(10)

(11)

35 4.5 Verzerrungsfaktor-Modell

4.5 Verzerrungsfaktor-Modell

Das Verzerrungsfaktor-Modell25 ist ein Prüfverfahren, was von Nigrini entwickelt wurde. Heute soll nach Angaben von Nigrini, dieses Prüfverfahren von den fünf größten Wirtschaftsprüfungsunter-nehmen sowie von einigen Steuerbehörden zur Aufspürung manipulierter respektive gefälschter Bilanzen und Steuererklärungen genutzt werden.

Dieses Prüfverfahren basiert im wesentlichen auf dem Vergleich zweier Mittelwerte. Zum einem des beobachteten Mittelwertes (BM) und zum anderen des erwartenden Mittelwertes (EM). Nigrini ist der Behauptung, dass die Fälschung nur innerhalb der gleichen Größenordnung des wahren Eintrages stattfindet und ferner nimmt er an, dass der Manipulationsgrad über alle Größenordnung hinweg gleich hoch ist. Deshalb werden alle Einträge respektive Werte im Stichprobenumfang, die kleiner als 10 sind herausgestrichen. Deshalb werden die Werte in den Bereich 0 00 skaliert.

Doch in diesem Punkt vertritt Posch nicht die Meinung von Nigrini. Da es ist nicht ersichtlich, warum eine Restriktion der Werte auf den Bereich 0 00 in Kauf genommen werden soll. Durch die Be-rechnung des Mittelwertes entsteht schon ein Informationsverlust.

Posch erweitert das Modell und berechnet den Mittelwert der Mantisse eines Datensatzes und ver-gleicht diesen mit dem Referenzmittelwert im Bereich 0 00 .

Die Berechnung des Verzerrungsfaktors läuft folgendermaßen ab, 1.Schritt: Wir bestimmen BM

2.Schritt: Wir bestimmen EM

25 Vgl. Nigrini (1996, S. 75 ff) & Peter N. Posch (Ziffernanalyse, S. 36 & 86 ff)

(13) (12)

3.Schritt: Wir berechnen den Verzerrungsfaktor

4.Schritt: Wenn nun der ermittelte Verzerrungsfaktor im folgenden Wertebereich liegt,

so liegt dann keine Manipulation respektive Fälschung in der Bilanz vor.

Bemerkung: Nach Nigrini26 kann man bei mehr als 500 Stichproben, für EM ungefähr von einem Wert von 3,904 ausgehen.

26 Vgl. Nigrini (1996, S. 76)

(14)

37

Im Dokument Aufdeckung von Bilanzf (Seite 30-37)