• Keine Ergebnisse gefunden

Maschinelle Lernverfahren zur Prävention von Identitätsdiebstahl

5 State of the art im Bereich Betrugserkennung mit CEP und im Bankenumfeld 9

5.2 Maschinelle Lernverfahren zur Erkennung und Prävention von Identitätsdiebstahl im

5.2.1 Maschinelle Lernverfahren zur Prävention von Identitätsdiebstahl

In einem Artikel von [Abu07] zur Prävention von Identitätsdiebstahl beim Online-Banking werden Emails analysiert um herauszufinden, ob es sich um Phishing-Emails handelt oder nicht. Zu diesem Zweck vergleichen die Autoren die Erkennungsleistung von maschinel-len Lernverfahren nach den Faktoren false positive und false negative. Der Begriff false negative bedeutet im Rahmen der Arbeit von [Abu07], dass eine Phishing-Email fälschli-cherweise als Nicht-Phishingfall klassifiziert wurde. Bei false positive-Bewertung ist die Situation umgekehrt. Bei den verwendeten maschinellen Lernverfahren in [Abu07] handelt es sich um:

Logistic Regression (LR) (siehe Abschnitt 3.6)

Classification and Regression Trees (CART) (siehe Abschnitt 3.1)

Bayesian Additive Regression Trees (BART) (BART ist ein Bayesscher Regressi-onsansatz, der auf dynamisch anpassbaren Elementen basiert. Für weiterführende Literatur zu Bayesian Additive Regression Trees siehe [Chip06])

Support Vector Machine (SVM) (siehe Abschnitt 3.4)

Random Forests (RF) (RF ist ein Entscheidungsbaumalgorithmus, der auf vielen Entscheidungsbäumen basiert und als Ergebnis den Wert ausgibt, der am häufigs-ten eine Trainingsmenge über individuelle Bäume hinweg richtig klassifiziert. Für weiterführende Literatur zu Random Forests siehe [Pavl00])

Neural Networks (NNet) (siehe Abschnitt 3.3)

Diese genannten Verfahren gehören zur Familie der überwachten Lernverfahren und wurden auf eine Datenbasis von insgesamt 2.889 Emails angewandt. Diese Menge ist in 1.171 Phishing-Emails und 1.718 Nicht-Phishing (= legitimate) Emails aufgeteilt. Die Auto-ren von [Abu07] identifizierten in den Emails insgesamt 43 Variablen, die zur Identifikation von Phishing-Emails verwendet wurden. Diese Variablen repräsentieren die Häufigkeiten des Auftretens bestimmter englischer Begriffe im Emailtext sowie im Betreff. Die Variablen

bilden zusammen einen Vektor, der jeweils eine Email darstellt. Zusätzlich existiert zu jeder Email eine Zielvariable, welche die boolesche Information enthält, ob diese Email eine Phishing-Email ist oder nicht.

Das neuronale Netzwerk in [Abu07] besteht aus insgesamt drei Schichten, wobei die Hid-denschicht insgesamt zehn Knoten aufweist, bei einem Output- und 43 Inputknoten (d.h.

ein Knoten pro Variable). Trainiert wurde das Netzwerk mit einem Lernfaktor von 0,1, wo-bei die Autoren keine Aussagen über die Aufteilung der Trainings- und Testmenge und der Anzahl der Lerndurchläufe getroffen haben.

Tabelle 6 enthält nach Abschluss der Analysen mit den erwähnten Verfahren die folgen-den Ergebnisse.

false positive false negative

LR 4,89% 17,04%

CART 7,68% 12,93%

SVM 7,92% 17,26%

NNet 5,85% 21,72%

BART 5,82% 18,92%

RF 8,29% 11,12%

Tabelle 6: Identifikationsergebnisse verschiedener maschineller Lernverfahren aus [Abu07, S. 7]

Tabelle 6 zeigt, dass auf Basis der analysierten Emails bezüglich der false positive-Rate Logistic Regression (LR) die optimale Methode ist und im Gegensatz dazu bei der false negative-Quote Random Forests (RF) das beste Resultat erzielt. Das neuronale Netzwerk schneidet bei [Abu07] im Vergleich zu den anderen Verfahren bei der false negative-Quote mit einem Wert von 21,72% am schlechtesten ab, erzielt aber bei der false positi-ve-Rate mit einem Anteil von 5,85% ein vergleichsweise gutes Ergebnis. Allerdings weist bei [Abu07] das neuronale Netzwerk mit 43 Inputparametern eine größere Zahl auf als im Rahmen dieser Arbeit, wobei in dem diskutierten Artikel das neuronale Netzwerk nur mit einer Hiddenschicht getestet wurde.

Eine ähnliche Untersuchung wie [Abu07] führten die Autoren von [Chan06] durch. Sie analysierten in ihrer Arbeit 200 Emails, die aus 100 Phishing- und 100 Nicht-Phishingfällen zusammengesetzt waren. Als Ergebnis identifizierten sie 25 relevante Attri-bute, von denen ein Teil – genau wie bei [Abu07] – aus den Häufigkeiten bestimmter Wör-ter im Text und Betreff bestehen. Zusätzlich verwendeten die Autoren Variablen, die

In-les Lernverfahren setzten die Autoren von [Chan06] Support Vector Machine (siehe Ab-schnitt 3.4) ein. Sie erreichten dabei ein Resultat von 95,0% richtig klassifizierter Emails.

Eine weitere Arbeit in dieser Richtung wurde von [Fett07] durchgeführt. Diese Autoren verwendeten zehn relevante Attribute, die ebenfalls auf den Häufigkeiten des Vorhanden-seins bestimmter englischer Wörter im Emailtext basieren. In [Fett07] wurden 860 Phis-hing-Emails und 6.950 Nicht-Phishingfälle analyiert. Als maschinelles Lernverfahren imp-lementierten die Autoren einen selbstentwickelten Algorithmus namens PILFER, der auf Random Forests (siehe oben) basiert. Als Ergebnis wurde eine Klassifikationsgenauigkeit von 96,0% richtig klassifizierter Emails erreicht, bei einer false positive-Quote von 0,1%.

Nach Aussage der Autoren kann dieser Algorithmus auch zum Identifizieren von Phis-hingseiten verwendet werden.

Im Vergleich zum Ansatz dieser Arbeit verwenden die Autoren von [Abu07], [Chan06] und [Fett07] keine Hybrid-Architektur, sondern vergleichen die Ergebnisse verschiedener überwachter maschineller Lernverfahren miteinander bzw. benutzen alleingestellte Analy-semethoden. In diesem Zusammenhang setzen die drei Arbeiten für die Betrugsbekämp-fung nicht bei den Betrugstransaktionen (d.h. Betrugserkennung) sondern einen Schritt vorher bei den Phishing-Emails (d.h. Betrugsprävention) an. Auch wird in keinem der Arti-kel CEP-Technologie eingesetzt oder erwähnt.

Mit den Emails sollen die Phishingopfer zu den Betrugsseiten gelockt werden. Zur Errei-chung des Ziels, diese Betrugsseiten von legitimen Internetseiten einer Bank unterschei-den zu können, entwickelten die Autoren von [Medv08] eine Methode zur Ähnlichkeitsana-lyse von falschen und echten Webseiten. Folgende Grundkomponenten von Internetsei-ten werden bei dem Verfahren verglichen:

• Textfragmente

• Eingebettete Bilder

• Komplettes visuelles Erscheinungsbild einer Internetseite Bei der Ähnlichkeitsanalyse wird in folgenden Schritten vorgegangen:

Schritt 1 – Auffinden einer verdächtigen Internetseite w:

Hierbei wird der Analyseprozess gestartet, sobald eine verdächtige Internetseite registriert wird.

Schritt 2 – Berechnen der Signaturwerte S(w) der verdächtigen Internetseite:

Eine Signatur ist im Rahmen der Arbeit von [Medv08] ein quantifizierter Wert aus Text- und Bildinformationen einer Internetseite. Der Signaturwert für Textstellen setzt sich aus den Einzelkomponenten Schriftfarbe, Hintergrundfarbe, Textinhalt, Schriftgröße, Schrift-name und der Position innerhalb der Seite (ausgehend vom linken oberen Pixel des Tex-tes) zusammen. Bei Bildern dagegen definiert sich der Signaturwert aus der Quellenad-resse des Bildes, der Höhe, der Breite, der Farbe sowie der 2D Haar wavelet transforma-tion (2D Haar wavelet transformatransforma-tion ist eine effiziente, gering-auflösende Bildanalyse-technik, für weiterführende Informationen siehe [Stan03]). Der Signaturwert des komplet-ten visuellen Erscheinungsbildes besteht aus den Einzelkomponenkomplet-ten Farbe und 2D Haar wavelet transformation.

Schritt 3 – Vergleich der Signaturwerte S(w) der verdächtigen Internetseite mit den Signa-turwerten S(w’) der legitimen Internetseite:

Bei diesem Schritt werden gleiche Einzelkomponenten von zwei Internetseiten miteinan-der verglichen. Bei Textelementen wird zu diesem Zweck die Levenshtein-Distanz be-rechnet (die Levenshtein-Distanz ist ein Maß, das die minimal notwendige Anzahl der Operationen Einfügen, Löschen und Ersetzen ermittelt um eine Zeichenkette in die ande-re zu überfühande-ren, für weiterfühande-rende Literatur siehe [Leve66]). Farbunterschiede werden mittels der 1-Norm-Distanz ermittelt, bei Positionsunterschieden dagegen wird die Euklidi-sche-Distanz verwendet (die 1-Norm-Distanz bezeichnet die tatsächliche Entfernung, die innerhalb einer quadratischen Blockstruktur zurückgelegt werden muss um von einem Ausgangsort zu einem Zielort zu gelangen, z.B. die Distanz, die ein Taxi zurücklegt um in Manhattan von A nach B zu kommen, daher auch der Name Manhattan-Distanz. Die Euklidsche-Distanz dagegen, oder auch 2-Norm-Distanz genannt, ist der Abstand zweier Punkte innerhalb eines Raumes. Für weiterführende Literatur zu den genannten Distan-zen siehe [Deza09]). Für die drei Grundvergleichskomponenten Text, Bilder und visuelles Erscheinungsbild wird der Signaturwert jeweils durch Addition der Distanzen der Einzel-komponenten berechnet.

Schritt 4 – Ausgabe einer Alarmmeldung falls die Signaturwerte zu ähnlich sind:

Die Signaturwerte sind zu ähnlich, wenn der Scorewert s, der aus einer Linearkombination der Signaturwerte der drei Grundvergleichskomponenten ermittelt wird, einen bestimmten Grenzwert t überschreitet (s>t). Der Scorewert s wird mit folgender Formel berechnet:

s = at * st + ai * si + ao * so

at = Koeffizient für Textfragmente st = Signaturwert für Textfragmente ai = Koeffizient für eingebettete Bilder si = Signaturwert für eingebettete Bilder

ao = Koeffizient für das visuelle Erscheinungsbild so = Signaturwert für das visuelle Erscheinungsbild

Falls diese Situation s>t eintritt, wird die verdächtige Seite registriert und eine definierte Alarmmeldung gesendet.

Die Koeffizienten der Funktion werden mit Hilfe einer Trainingsmenge von 35 Internetsei-tenpaaren, wobei bei 14 Paaren eine Phishingseite enthalten ist, ermittelt. Die Berech-nung der Koeffizienten erfolgt unter Verwendung des Simplex-Verfahrens (Simplex ist eine Methode der Numerik zur Lösung linearer Optimierungsprobleme, für weiterführende Literatur siehe [Klee72]).

In dem Artikel sind sowohl die exakten Werte der Koeffizienten als auch der Grenzwert nicht angegeben. Die Autoren von [Medv08] führten zur Validierung ihres Ansatzes Expe-rimente mit einer Testmenge von 41 Paaren aus realen Phishing- und legitimen Internet-seiten durch. Dabei kamen sie zu dem Ergebnis, dass zwei PhishingInternet-seiten nicht als sol-che erkannt wurden und keine legitime Seite als false positive klassifiziert wurde.

Im Vergleich zum Ansatz dieser Arbeit setzen die Autoren von [Medv08] nicht auf Be-trugserkennung sondern auf Betrugsprävention. Dabei wird in [Medv08] ein selbstentwi-ckeltes Verfahren verwendet, das auf dem Simplex-Algorithmus zur Generierung der Klassifikationsfunktion mit Hilfe einer Trainingsmenge basiert. Die Klassifikation erfolgt anschließend – ähnlich wie bei der Diskriminanzanalyse – auf Basis eines Vergleichs des ermittelten Funktionswerts mit einem zuvor berechneten Grenzwert. Allerdings wird bei [Medv08] weder ein neuronales Netzwerk noch ein Entscheidungsbaum zur Analyse be-nötigt, da die Basisattribute mit einer Kombination aus Distanzwerten anders strukturiert sind als im Rahmen dieser Arbeit. Des Weiteren wird bei [Medv08] die Verwendung von CEP-Technologie nicht genannt, wobei in diesem Artikel ein Anspruch auf Echtzeitfähig-keit des Verfahrens ebenfalls nicht erwähnt wird. Für weitere Vorgängerarbeiten zum The-ma Ähnlichkeitsanalyse von Phishing- und legitimen Internetseiten mittels entsprechender Distanzberechnungen, siehe [Rosi07], [Fu06], [Weny06] und [Weny05].