• Keine Ergebnisse gefunden

Otto-von-Guericke-Universität Magdeburg Thema:

N/A
N/A
Protected

Academic year: 2022

Aktie "Otto-von-Guericke-Universität Magdeburg Thema:"

Copied!
106
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Thema:

Analyse und Optimierung des indexbasierten Suchmaschinen-Marketings am Beispiel einer touristischen Online-Plattform.

Diplomarbeit

Arbeitsgruppe Information Retrieval

Themensteller: Jan Lammers, e-hoi GmbH & Co.KG, Frankfurt am Main Betreuer: Professor (Jun.-Prof.) Andreas Nürnberger

vorgelegt von: Oleksander Bazalukov Friedrichsring 49

63069 Offenbach am Main 069-98664114

E-Mail: oleksander.bazalukov@student.uni-magdeburg.de Abgabetermin: 13. März 2007

(2)

Inhaltsverzeichnis

Inhaltsverzeichnis ... II Verzeichnis der Abkürzungen und Akronyme ... IV Symbolverzeichnis...V Abbildungsverzeichnis ... VI Tabellenverzeichnis ...VIII

1 Einführung ...1

2 Suchdienste im Internet ...3

2.1 Bedeutung der Suchdienste für das Internet...3

2.2 Ein Überblick von Suchdiensten im Internet ...3

2.2.1 Kataloge und Verzeichnisse...4

2.2.2 „Klassische“ Suchmaschinen ...7

2.2.3 Meta-Suchdiensten...9

2.3 Suchmaschinen-Markt in Deutschland...11

3 Suchmaschinen-Marketing als ein wichtiger Baustein des Unternehmen-Marketings17 3.1 Historische Entwicklung ...17

3.2 Definition und Formen des Suchmaschinenmarketings...19

3.3 Bedeutung von Suchmaschinen für ein Online-Unternehmen ...23

4 Indexierung von Dokumenten und Rankingverfahren der Suchmaschine ...25

4.1 Indexierung von Dokumenten ...25

4.2 Funktionweise der Suchmaschinen an Beispiel Google...26

4.3 Informationsstatistische Verfahren des Suchmaschinen-Rankings...28

4.3.1 Textstatische Verfahren ...28

4.3.2 Nutzungsstatistische Verfahren...31

4.4 Linktopologische Rankingverfahren der Suchmaschinen...32

4.4.1 Konzept der Link-Popularität...33

4.4.2 PageRank-Verfahren ...34

4.4.3 HITS-Verfahren ...38

4.4.4 Hilltop-Verfahren...40

5 Verfahren zur Optimierung der Indexierung und des Rankings von Web-Seiten ...42

5.1 OnPage Suchmaschinen-Optimierung ...42

5.1.1 Auswahl der Suchbegriffe...42

5.1.2 Optimierung der Struktur der Web-Seite ...43

5.1.3 URLs-Design ...45

5.1.4 Optimierung der Meta-Informationen...47

5.1.5 Optimierung der Inhalten der Seite ...49

5.1.6 Auslagerung der JavaScripts und Styles in externe Dateien...51

5.2 OffPage Suchmaschinen-Optimierung...52

(3)

5.3 Spam-Techniken bei der Optimierung von Web-Seiten ...54

6 Analyse der Web-Seite www.e-hoi.de und die Durchführung der notwendigen Optimierungsmaßnahmen ...59

6.1 Stammdaten der Seite ehoi.de und Auszug der Statistiken ...59

6.2 Auswahl der Suchbegriffen und Ermittlung ihrer Positionen in Google ...61

6.3 Erstellung eines neuen Bereiches für die Reiseziele ...63

6.4 Optimierung der Seiten-Struktur ...66

6.5 Optimierung der URLs und Header-Informationen ...69

6.6 Optimierung der Inhalten ...72

6.7 Auslagerung der QuelleCodes...75

6.8 Analyse und Durchführung der OffPage Maßnahmen...77

7 Controlling der Ergebnisse ...79

8 Zusammenfassung ...84

A Suchbegriffanalyse bei der wichtigsten Suchmaschienen ...86

Literaturverzeichnis ...95

(4)

Verzeichnis der Abkürzungen und Akronyme

AOL American Online

API Application Programmer Interface

bzw. beziehungsweise ca. zirka

CSS Cascading Style Sheets

d.h. daß heißt

DocID Document Identification

EDV Elektronische Datenverarbeitung etc. und so weiter

GmbH Gesellschaft mit der begrenzten Haftung

HTML HyperText Markup Language

ID Identification IDF Inverse Document Frequency i.d.R. in der Regel

IP Internet Protocol

IRS Information-Retrieval-Systeme ISAPI Internet Server API

Kb Kilobyte Mb Megabyte MSN Microsoft Network

o. b. d. A. ohne Beschränkung der Allgemeinheit o. Jg. ohne Jahrgang

o. O. ohne Ort

o. V. ohne Verfasser

PHP PHP Hypertext Preprocessor

PR Page Rank

pt Point SEM Search Engine Marketing SEO Search Engine Optimization

SQL Structured Query Language

TF Term Frequency

UK United Kingdom

URL Uniform Resource Locator

US United States

WWW World Wide Web

XML Extensible Markup Language

z.B zum Beispiel

z.Z. zur Zeit

(5)

Symbolverzeichnis

% Prozent a Anzahl

Ap Authority-Gewicht des Dokumentes P C(T) Gesamtanzahl der Links des Dokumentes T d Dämpfungsfaktor

ft Anzahl der Dokumenten, die den Suchbegriff t enthalten h Häufigkeit

Hp Hub-Gewicht des Dokumentes P log Logarithmus

ND Anzahl der Dokumenten

PR(T) PageRank Dokumentes T t Term

(6)

Abbildungsverzeichnis

Abb. 2.1 Beispiel für eine Katalog-Striktur...5

Abb. 2.2 Ein Beispiel für die Archetiktur einer Suchmaschine...8

Abb. 2.3 Suchmaschinen-Markt in USA (Clay 2006)...13

Abb. 2.4 Beziehungsgeflecht der Suchmaschinen in Deutschland (Karzauninkat 2004)14 Abb. 2.5 Suchmaschinen-Marktanteile in Deutschland ...15

Abb. 3.1 EyeTracking Study ...22

Abb. 3.2 Klick-Wahrscheinlichkeit nach EyeTracking Study ...22

Abb. 4.1 Architektur der Suchmaschine Google...27

Abb. 4.2 Ein Beispiel für die Eigenschaften des PageRanks ...36

Abb. 4.3 Hubs- und Authorities-Beziehungen beim HITS-Verfahren...39

Abb. 5.1 Ein Beispiel für eine flach strukturierte Seite...44

Abb. 5.2 Ein Beispiel für eine tief strukturierte Seite ...44

Abb. 5.3 Ein Beispiel für die Surfase- und Deep-Web ...46

Abb. 5.4 Vermietung von Backlinks im Internet-Auktionshaus eBay ...54

Abb. 5.5 Ein Beispiel für die Crosslinking-Struktur ...57

Abb. 6.1 Ergebnisse des Google Trends nach dem Vergleich der Wörter "Kreuzfahrt" und "Kreuzfahrten" ...62

Abb. 6.2 Die Ergebnisse der Abfrage der Omniture-Datenbank durch den Online-Tool der Seite www.ranking-check.de nach dem Wort "kreuzfahrten"...64

Abb. 6.3 Ein Beispiel für eine Reiseziel-Seite von www.e-hoi.de...65

Abb. 6.4 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf einer Schiff- Seite von www.e-hoi.de...67

Abb. 6.5 Ein Beispiel für die Integration der zusätzlichen Verlinkungen auf der Suche- Seite von www.e-hoi.de...68

Abb. 6.6 Ein Beispiel für die Anzeige der Suchphrase "Afrika Kreuzfahrten" in der Ergebnissliste der Suchmaschine Google...72

Abb. 6.7 Ein Beispiel für die Anzeige der Überschriften h1, h2, h3 und h4 nach HTML- Formatierungen ohne CSS...73

Abb. 6.8 Ein Beispiel für die Anzeige des Überschriftes h1 nach CSS-Formatierung ...73

Abb. 6.9 Ein Beispiel für die Optimierung der Inhalten einer Reiseziel-Seite von www.e-hoi.de...74

Abb. 6.10 Ein Beispiel für die Anzeige des Buttons "GO" auf einer Seite von www.e- hoi.de ...75

Abb. 7.1 Statistik für die Einstiegseiten aus dem Bereich „Schiffe“ der Präsenz e-hoi.de79 Abb. 7.2 Statistik für die Einstiegseiten aus dem Bereich „Reedereien“ der Präsenz e- hoi.de ...80

(7)

Abb. 7.3 Statistik für die Einstiegseiten aus dem Bereich „Routen“ der Präsenz e-hoi.de80 Abb. 7.4 Statistik für die Einstiegseiten aus dem Bereich „Reiseziele“ der Präsenz e-

hoi.de ...81 Abb. 7.5 Statistik für die Buchungsanfragen...81

(8)

Tabellenverzeichnis

Tab. 4.1 Iterative Berechnung des PageRankings ...37

Tab. 5.1 Auswahl an Tags zur Hervorhebung von Termen mittels HTML ...50

Tab. 6.1 Stammdaten der Web-Präsenz www.e-hoi.de...59

Tab. 6.2 Besucher-Statistik der www.e-hoi.de (Aug.2005-Aug.2006) ...60

Tab. 6.3 Ein Beispiel für die Positionen der Suchbegriffe in der Ergebnissen wichtiger Suchmaschinen ...62

Tab. 6.4 Titel und Meta-Informatioene nach der Optimierung der wichtigen Seiten der www.e-hoi.de...71

Tab. 7.1 Besucher-Statistik der www.e-hoi.de (Aug.2005-Jan.2007)...79

Tab. 7.2 Ein Beispiel für des Vergleich der Positionen der Suchbegriffe in der Ergebnissen wichtiger Suchmaschinen im August 2006 und Januar 2007 ..82

(9)

1 Einführung

Insgesamt nutzten Verbraucher vor ca. jedem zweiten Online-Kauf eine Suchmaschine zur Entscheidungsfindung.

Im Falle der Tourismus-Branche nutzten sogar nahezu drei von vier Käufern zuvor eine Suchmaschine.1

Die rasant wachsenden Informationen im Internet haben dazu geführt, dass Suchmaschinen zu einem unverzichtbaren Instrument zur Bewältigung dieser Informationsflut werden. Beim Auffinden von Informationen entscheiden Suchmaschinen darüber, welche Informationen für Nutzer zugänglich sind und welche verborgen bleiben.

Aufgrund der steigenden Nutzung der Suchmaschinen hat auch die Suchmaschinenoptimierung zunehmend an Bedeutung gewonnen. Der Begriff lässt sich wie folgt definieren:

„Im allgemeinen Sprachgebrauch bedeutet Suchmaschinen-Optimierung, die Inhalte und Struktur einer Seite derart gezielt zu verändern, dass sie bei den Suchmaschinen eine obere Rangposition erhält.“2

Jede Web-Präsenz hat das grundsätzliche Ziel, die Besucherzahlen zu maximieren. Vor allem bei kommerziellen Web-Seiten entscheiden die Besucherströme oftmals über den Erfolg oder Misserfolg des Unternehmens. Wenn die Produkte über das Internet verkauft werden, sind starke Besucherzahlen gleichbedeutend mit höhen Umsätzen.

Somit ist es für die Betreiber der Web-Seiten wichtig in Suchmaschinen gefunden zu werden.

Das Ziel dieser Arbeit ist die Erforschung des Suchmaschinen-Marktes und – Mechanismen, Methoden für die Suchmaschinenoptimierung von Web-Seiten und der Einsatz gewonnener Erkentnisse für die Optimierung der Web-Präsenz der e-hoi GmbH, einer Online-Buchungsplattform für die Kreuzfahrten. Es soll herausgestellt werden, welche OnPage Einflussfaktoren existieren und mit welchen Maßnahmen das Ranking der Seite bezüglich relevanter Suchbegriffe verbessert werden kann.

Zunächst wird einführend auf das Themengebiet der Suchdienste und des Suchmaschinenmarktes in Deutschland eingegangen, wobei wichtige Zusammenhänge

1 Vgl. DoubleClick Inc (2005), S. 3 ff

2 Erlhofer (2005a), S. 167

(10)

erläutert und für das Verständnis der Arbeit notwendige Begriffe definiert werden.

Darüber hinaus wird das Suchmaschinen-Marketing und seine Bedeutung für ein Unternehmrn unter die Lupe genommen. Weiterhin wird näher zu den Suchmechanismen, Rankingfaktoren und Optimierungsmethoden bei den Suchmaschinen eingegangen. Anhand dieses Basiswissens werden konkrete Möglichkeiten der OnPage-Optimierung für die Web-Seiten aufgezeigt und für die Web-Präsenz der e-hoi GmbH umgesetzt. Anschliessend ist eine Effizienz der durchgeführten Optimierungen zu bewerten.

(11)

2 Suchdienste im Internet

2.1 Bedeutung der Suchdienste für das Internet

Man kann das Internet als ein hypertextbasiertes System betrachten - die vorhandenen Informationen sind über verschiedene Web-Seiten verteilt. Alle Seiten sind mit der Hilfe der Hyperlinks miteinander verbunden. Die Unterschiede zu vielen anderen Hypertextsystemen sind, dass die Informationen und Inhalte des WWW sich nicht auf einem zentralen Datei- bzw. Datenbanksystem befinden, sondern auf weltweit verteilten Servern gespeichert.3 Um auf diese Inhalte gezielt zuzugreifen, benötigt man sehr oft spezielle Navigationsinstrumente. Die Internet-Suchdienste haben diese Aufgabe vollständig übernommen. Da ein zentrales Verzeichnis oder eine Registratur aller Internetinhalte nicht existiert, man ohne Hilfe der Suchdiensten nicht die notwendige Informationen im Internet finden kann. Man kann wohl sagen, dass ohne das Angebot der Suchdienstleistungsanbieter das Internet aufgrund der nichtzentralisierten Organisation nutzlos und wertlos wäre. Wenn man als Internet-Nutzer die elektronische Adresse des Zielservers nicht kennt, ist das Internet für ihn nicht mehr als eine riesige unsystematische Bibliothek ohne Ordnung, wo ein benötigtes Buch einfach nicht zu finden ist. Die Aufgabe von Suchdiensten ist, Ordnung in dieses Chaos zu bringen, was Angesichts der enorm umfangreichen und ständig schnell wachsenden Datenbestände des Internets eine gigantische Herausforderung ist. Die Suchdienste des Internet stellen mittlerweile neben traditionellen Medien wie Zeitungen und Fernsehen und klassischen Informationsdiensten, wie etwa Bibliotheken, zunehmend das zentrale Hilfsmittel zur Befriedigung von Informationsbedürfnissen dar.

2.2 Ein Überblick von Suchdiensten im Internet

Um mit der Datenflut im Internet fertig zu werden, braucht man die Hilfsmittel, die bei der Informationsbeschaffung zur Seite stehen. Sehr selten kennt man gerade die richtige Adresse einer Webseite, welche die gewünschte Information enthält und das ziellose Surfen ist in den meisten Fällen nicht erfolgreich. Unter allen Rechnern im Internet gibt es Server, die ein Angebot speziell für die Informationsbeschaffung zur Verfügung stellen. Solche Werkzeuge für den Informationszugriff nennt man Informationsdienste.

Man behandelt die drei wichtigsten Typen von Informationssystemen:4

3 vgl. Meinel & Sack (2004), S.195,ff

4vgl. Glöggler (2003), S. 1

(12)

Katalogsysteme kann man mit einem Branchentelefonbuch vergleichen. Die einzelnen Einträge sind in vorgegebene Kategorien eingeteilt. Die Kategorien sind häufig hierarchisch geordnet.

Suchsysteme (auch Information-Retrieval-Systeme oder Suchmaschinen genannt) stellen Funktionen zur Dokumentensuche bereit. Bei einer Suchanfrage liefert eine Suchmaschine eine Liste von Dokumenten, welche die gewünschte Information enthalten sollen.

Meta-Suchsysteme sind keine eigenen Suchsysteme. Vielmehr bedienen die Metasucher mehrere Suchmaschinen gleichzeitig und erhalten so eine sehr hohe Anzahl an gefundenen Seiten. Dabei sind Sie so "intelligent", dass sie doppelt gefundene Seiten filtern und nur einmal anzeigen.

• Die Push-Systeme bieten einen anderen Service an. Während Benutzer von Such- oder Katalogsystemen bei jedem Informationsbedürfnis die Dokumente beim Informationssystem holen müssen (man spricht auch von „Pull-Systemen“), versorgen Push-Systeme ihre Benutzer aktiv und fortlaufend mit aktuellen Informationen. Für jeden Benutzer existiert ein so genanntes Profil. Das Profil beschreibt das Informationsbedürfnis eines Benutzers, so wie die Anfrage bei einem Suchsystem. Neu im Internet auftauchende Dokumente werden automatisch mit allen gespeicherten Profilen verglichen und bei genügend guter Übereinstimmung dem Benutzer zugestellt.

2.2.1 Kataloge und Verzeichnisse

Die Katalogsysteme bringen eine gewisse Struktur und Ordnung in die Dokumentenmenge. Die Funktionsweise eines Katalogsystems ist ähnlich dem einer Bibliothek oder einem Telefonbuch - alle Einträge sind nach Kategorien sortiert - ein Katalogsystem unterstützt den indirekten Zugriff auf Dokumente via Kategorien.

(13)

Abb. 2.1 Beispiel für eine Katalog-Striktur

Ein Katalogsystem ist nichts anderes als eine Hierarchie von Kategorien5. Ganz erscheinen dann die allgemeinen Kategorien und je weiter man hinuntersteigt, desto spezifischer sind die Einträge. Jede Kategorie verfügt immer über einen Namen und kann eine oder mehrere Unterkategorien besitzen. Neben der streng hierarchischen Gliederung gibt es auch sehr oft die Querverweise, die in eine andere Teilhierarchie mit Dokumenten zu einem verwandten Thema führen können und die Suche nach Dokumenten erleichtern. Es kann auch vorkommen, dass ein Dokument in mehreren Kategorien auftaucht. In der Regel existieren zu jedem Eintrag ein Titel und eine kurze Zusammenfassung oder Beschreibung.

Die typische Recherche in einem Katalogdienst läuft genauso ab, wie man es von einer Bibliothek her kennt. Man beginnt bei einer der allgemeinen Kategorien und geht so lange weiter, bis eine geeignete Unterkategorie gefunden wird, wo die gesuchten Informationen zur Verfügung stehen.

Der Aufbau von Verzeichnissen und Katalogen kann verschiedenen Ansätzen folgen.

Sehr verbreitet ist der Aufbau der Rubriken durch die Betreiber selbst. Bei diesem Verfahren ist häufig auch das Anmelden eigener Web Seiten durch die Benutzer für die Aufnahme in den Katalog erwünscht. Das klassische Beispiel dafür ist Yahoo.com, einer der ersten intellektuell erzeugten Kataloge.

Eine ganz andere Verfahrensweise ist die Erstellung eines Verzeichnisses durch eine Nutzergruppe. Dabei können z.B. einzelne Nutzer auf freiwilliger Basis für den Inhalt einer Katalog-Rubrik verantwortlich sein. Die Links, Beschreibungen und weitere

5vgl. Erlhofer (2005a), S. 15

(14)

Informationen werden manuell gesammelt und zur Verfügung gestellt. Als Beispiel dafür können sog. Community-Sites und Expertenforen genannt werden.

Eine weitere Unterscheidung liegt vor, wenn sowohl die Vorschläge als auch die Bewertung der Einträge von freiwilligen Nutzern erfolgen. Die Qualitätssicherung der Beiträge in Form vorgeschlagener Links übernehmen dann die für jeweils eine oder mehrere Rubriken verantwortlichen .

Die Kataloge können in hierarchische und nichthierarchische Webverzeichnisse unterteilt werden. In hierarchischen Katalogen werden die Kategorien und Einträge in einer eindeutigen Ordnung sortiert. Ein Eintrag befindet sich dabei oft nur in einer bestimmten Kategorie und ist deswegen schwer zu finden. Dabei hilft das gegenseitige Querverweisen von Kategorien. Ein Beispiel für ein sehr hierarchisches Webverzeichnis ist das Open Directory Project (www.dmoz.org). Nichthierarchische Verzeichnisse bestehen dagegen aus einer netzwerkartigen Struktur, mit deren Knoten die Einträge (Links) verknüpft werden. Dadurch sind die Einträge und Kategorien leichter zu finden, eine assoziative Suche ist eher möglich (Beispiele siehe unten Themennetzwerke).

Auch können die Kataloge und Verzeichnisse sich zwischen kommerziellen und nichtkommerziellen unterscheiden. Durch das Geschäftsmodell vieler Katalogenbetreiber besteht die Gefahr einer eingeschränkten Objektivität - die Erhöhung der Ranghöhe in einem Verzeichnis für die eigene Webseite wird zur offiziell angebotenen Dienstleistung. Der Benutzer kann kaum unterscheiden, welche Suchergebnisse im Katalog sich einen hohen Rang durch hohe Relevanz "verdient"

haben und bei welchen ein hoher Rang "erkauft" wurde.

Der wohl wichtigste Vorteil von Katalogen ist, dass sie fast immer redaktionell betreut sind – jede Quelle wird persönlich gesichtet und deren thematische Zuordnung überprüft. Außerdem besteht auch die Möglichkeit, dass die Erfasser zu dem Dokument eine kurze Bewertung angeben. Das alles erhöht die Qualität der Suchergebnisse. Ein weiterer Vorteil der Katalogdiensten ist, dass, wenn ein Informationsbedürfnis durch eine Kategorie abgedeckt wird, die Suche auf diese Kategorie beschränkt werden kann.

Alternativ zur hierarchischen Suche kann bei einigen Webverzeichnissen zusätzlich auch mit einer dazugehörigen Suchmaschine nach dem passenden Begriff gesucht werden. Aber zu bedenke dabei ist, dass diese Suchfunktion nur die katalogisierten Schlagwörter erfasst oder die Texten im Titel und Beschreibung, nicht aber die verwendeten Begriffe in den letztendlich gesuchten Dokumenten. Zu den Nachteilen zählt man auch die relativ kleineren Bestände von Dokumenten und längere Aktualisierungszeiten6 (z.B. die Zeit, nach der ein Dokument in ein berühmtes Katalog

6 vgl. Erlhofer (2005a), S. 16

(15)

DMOZ erfasst wird, kann bei mehreren Monaten liegen). Ein weiteres Problem besteht beim Einordnen von Dokumenten in die Kategorien des Katalogdienstes. Die optimale Zuordnung ist oft unklar. In vielen Fällen empfehlen verschiedene Personen für das gleiche Dokument unterschiedliche Kategorien. Bei großen Datenbeständen besteht auch die Gefahr, dass nicht mehr existierende Webseiten referenziert werden, und dass die Wiederauffindbarkeit relevanter Webseiten darunter leidet. Um diese Probleme zu lösen, werden bei modernen Verzeichnissen die verschiedenen maschinellen und manuellen Mechanismen und Mittel eingesetzt, wie manuelle Bewertungssysteme (Voting), automatische Bewertungssysteme (Ranking), Robots zum Überprüfen und Entfernen von nicht mehr existierenden Links oder die Auswertungen des Klickverhaltens der Benutzer.

2.2.2 „Klassische“ Suchmaschinen

Die zunächst unübersehbare Menge von Informationen im Internet begründete den Bedarf für Programme, die alle wichtigen für eine mögliche Suche relevanten Informationen in Datenbanken speichern, um später über die Eingabe von Wörtern oder Phrasen relevante Dokumente finden zu können. Für diese Aufgaben wurden die Suchroboter entwickelt, die das ganze Web durchsuchen und die über das Verfolgen von Links gefundenen Dokumente indizieren. Die Ergebnisse einer Suche sind sehr stark davon abhängig, bis zu welcher Tiefe die Dokumente durchsucht und die Links verfolgt werden. Manche Suchmaschinen indizieren nur die Meta-Informationen im Head der Dokumente, manche indizieren nur die Überschriften der einzelnen Textabschnitte, die andere dagegen werten das gesamte Dokument aus.

Eine Suchmaschine ist ein Programm oder Schnittstelle zum Recherchen von Dokumentmengen, die auf einem, mehreren Computern oder einem Computernetzwerk, wie zum Beispiel WWW, gespeichert sind. Nach der Eingabe des Suchbegriffs liefert die Suchmaschine eine Liste von dazugehörigen relevanten Ergebnissen, meistens mit dem Titel und kurzem Auszug aus dem Dokument.

Die größten klassischen Suchmaschinen wie Google, Yahoo oder MSN indizieren die Seiten mittels einer schlagwort-basierten Volltextsuche. Zusätzlich wird versucht, über komplizierte Ranking Funktionen eine Gewichtung bezüglich eines Schlagwortes herzuleiten. Im Prinzip bauen diese Suchmaschinen ein gigantisches Stichwortverzeichnis auf.

Da Information im Internet kein statisches Gebilde darstellt, müssen die Datenbanken von Suchmaschinen ständig aktualisiert werden. Roboter, Spiders, Crawlers, Wanderer

(16)

und Worms sind die Programme, die das WWW ständig auf neu hinzugekommene, abgeänderte oder gelöschte Dokumente untersuchen. Eine zu untersuchende Seite wird geladen und einer Inhaltserschließung unterzogen. Danach werden alle von dieser Seite Verweise verfolgt und die referenzierten Dokumente nach gleichem Prinzip geladen und untersucht. Es wird von einem maschinellen bzw. roboterbasierten Verfahren gesprochen. Indizierungsprogramme analysieren die gesammelten Informationen und aktualisieren Index und Datenbestand der Datenbank der jeweiligen Suchmaschine.

Anhand dieser Mechanismen garantieren die Suchdienste eine Datenbank auf aktuellstem Stand. Die Suchmaschinendatenbank besteht aus einem Index, dem Dokumentenbestand und weiteren Informationen über diese Dokumente (z.B Datum, Sprache etc.).

Abb. 2.2 Ein Beispiel für die Archetiktur einer Suchmaschine

Die Bearbeitung einer Suchanfrage kann man als ein einfacher Zugriff auf eine Index- Datenbank ansehen. Der Benuutzer gibt in einem Suchformular die Begriffe ein, welche dann mit der Datenbank abgeglichen werden und die sortierend nach Relevanz Ergebnisse dem Nutzer wieder zurückgeschickt werden. Jedes im Index abgespeicherte Wort verweist auf ein oder mehrere Dokumente. Wird ein Suchbegriff eingegeben, so durchsucht der Suchalgorithmus die Wortliste und gibt die referenzierten Dokumente zurück.

Dabei sind noch viele Problemfelder offen. Die klassischen Suchmaschinen können nicht die Synonyme in ihre Suche einbeziehen. Keine. So können leider eventuell relevante für Nutzer Informationen nicht angezeigt werden. Die bekanntesten

(17)

Suchmaschinen machen aber in dieser Richtung schon einige Vorschritte. Ein weiteres Problem ist die Ignoranz von Mehrdeutigkeiten (Homonymen). Das klassisches Beispiel dafür ist das Wort „Java“, bei der Suche nach dem bekommt man fast ausschließlich die Ergebnisse zur Programmiersprache und nicht zu einer beliebten Urlaubsinsel. Worte können auch in verschiedenen Variationen auftreten, zum Beispiel „Finanzen“ und

„finanziell“. Klassische Suchmaschinen ignorieren zum größten Teil jegliche Wortformvariationen. Sinnverwandte Begriffe werden von Suchmaschinen ebenso wenig wie Synonyme erkannt. Das Semantik Web stellt einen interessanten Lösungsansatz dar, um die oben genannten Probleme zu lösen und eine effiziente Suche im Web zu realisieren.

Es sind die vier wichtigsten Aufgaben einer Suchmaschine: Dokumentenbeschaffung, Indexierung, Aktualisierung und die Anfragenbearbeitung.

Die Beschaffung von neuen Dokumenten wird entweder maschinell durch Roboter oder manuell durch die Anmeldung der Seite von Nutzern in jeweiligen Suchmaschinen gemacht.

Die Indizierung der Seiten kann nach drei verschiedenen Strategien durchführt werden.

Bei der Volltext-Indizierung, was die meisten Suchmaschinen anbieten, werden inhaltsbedeutende Begriffe aus der gesamten HTML-Seite indiziert. Nach Teilindex- Einsatz indizieren die Suchmaschinen meistens nur URL, Titel und Überschriften oder auch die ersten Zeilen der Seite. Und es gibt auch die Suchmaschienen, die nur die spezielle inhaltsbeschreibenden Bereiche indizieren, wie die META-Tags der Seite.

Bei den Aktualisierungsverfahren von einzelnen Suchmaschinen gibt es große Unterschiede nach Art und der Zeit. Meist ist es einfach zeitabhängig - die Angaben für die zeitliche Aktualisierung einzelner Web-Seiten bei den Suchmaschinen können zwischen einem Tag und sechs Wochen schwanken. Oft hängt es auch von der Zugriffshäufigkeit auf das Dokument ab.

Funktionalität bei der Anfragenbearbeitung ist direkt von Indizierung –Strategie der Dokumenten abhängig. Je besser die Analyse und Indizierung der HTML-Seiten ist, desto umfangreicher ist das Angebot an Suchmethoden und -operatoren.Suchmaschinen sind zweifellos bis heute die dominierenden Werkzeuge zur Suche im WWW.

2.2.3 Meta-Suchdiensten

Ein wesentliches Merkmal einer Metasuchmaschine (Multi-Search) besteht darin, dass sie eine Suchanfrage gleichzeitig an mehrere andere „klassische“ Suchmaschinen weiterleitet, deren Ergebnisse sammelt und dem Nutzer in einer Liste zur Verfügung

(18)

stellt.7 Die Ergebnisse werden durch die Eliminierung von doppelten Einträgen, die Bewertung der Ergebnisse und durch Aufstellung eines eigenen internen Ranking einheitlich, wie bei einer „klassischen“ Suchmaschine, dargestellt. Die Ergebnisse einer Metasuchmaschine werden meist langsamer geliefert, als bei einer normalen Suchmaschine, weil deren Server zuerst auf die Antworten aller Suchdienste, an die Suche weitergegeben wurde, warten muss und erst danach die Ergebnis präsentiert.

Es sind drei verschiedenen Arten von Meta-Suchdiensten zu unterscheiden. Es gibt die Web-Seiten, die einfach mehrere Suchmasken verschiedener Suchmaschinen haben.

Diese Seiten sind zwar nicht "echte" Metasuchmaschinen, aber haben trotzdem gewisse Vorteile. Es werden Suchformulare mehreren Suchmaschinen auf der Seite angeboten, was das Laden der Homepages einzelner Suchmaschinen erspart und deren guter Überblick anbietet.

Ebenso existieren auch die pseudo-sequentielle Meta-Suchdienste, die zwar nur ein Suchformular haben, aber bei denen der Nutzer selbst die abzufragenden Suchmaschinen manuell auswählen kann bzw. muss, um die Suche mit ihnen durch den Metasuchdienst einzuleiten. Der Vorteil solcher Suchdienste besteht darin, dass die Suchanfrage nur einmal erfasst werden muss.

Bei den "echten" Metasuchmaschinen werden automatisch mehrere Suchdienste, wie Suchmaschinen und Verzeichnisse über eine Suchmaske befragt. Dabei werden die Funktionalität und Operatoren der verschiedenen Suchdienste verwendet und die Anpassung der Anfrage auf die einzelnen Suchdienste vorgenommen. Der Benutzer weiß nicht, welche spezifischen Eigenschaften die unter der Meta-Maschine liegenden Suchdienste haben. Die Kurzbeschreibungen, Titel oder Inhaltszusammenfassungen werden übernommen und in einer einheitlichen Form dargestellt. Die Mehrfachtreffer aus den Ergebnissen der verschiedenen Suchdienste werden bei der Anzeige eliminiert.

Bei der Suche in Meta-Suchmaschinen können oft auch die Zeitvorgaben und maximale Treffergrenzen eingestellt werden. Die Zeit für die Suche ist so einstellbar, dass der letzte nachgewiesene Treffer eines Suchdienstes noch erfasst werden kann.

Bei der Befragung der Suchdienste durch die Metasuchmaschine werden zwei grundlegende Techniken unterschieden: der sequentielle und der parallele Zugriff. Bei der sequentiellen Suche werden Suchdienste nacheinander von dem Metasuchdienst befragt und die Trefferliste wird erst nach Befragung des letzten Suchdienstes erstellt.

Paralleler Zugriff ermöglicht gleichzeitige Abfrage der Suchdiensten. In diesem Fall

7 vgl. Sander-Beuermann (1998) S178.

(19)

wird die Ausgabe der Trefferliste schon begonnen, sobald einer der befragten Suchdienste die Suchanfrage abgearbeitet hat.

Das zentrale Problem der Metasuchmaschinen ist das Ranking bei der Erstellung der gemischten Trefferliste. Weil Rankingmechanismen einzelner Suchdienste oft sehr unterschiedlich und geheim sind, wird die Trefferliste in den meisten Fällen nach den Suchdiensten gruppiert. Weil die verschiedenen Suchmaschine unterschiedliche Operatoren bei den Suchanfragen unterstützen können, sind die Beschränkungen bei der Formulierung der Suchanfrage ein weiterer Nachteil der meisten Metasuchdienste. Es existieren aber mittlerweile die Metasuchmaschine, die Suchanfragen mit umfangreichen Optionen und Operatoren erlauben. Diese Metasuchdienste analysieren die Anfrage und leiten diese nur an jene Suchmaschine weiter, die die Anfrage auch bearbeiten können. Dabei sind die geringeren Ergebnismengen zum Nachteil, aber gleichzeitig kann man die Qualität der Informationen durch den Einsatz der verschiedenen Operatoren gewinnen.

Fazit ist, dass die Stärken von Metasuchmaschinen nur bei allgemeinen Suchanfragen liegen, da in diesen Fällen die Benutzung mehreren Suchmaschinen die Anzahl der relevanten Ergebnissen steigert. Bei der speziellen Anfrage ist es jedoch besser, eine

„klassische“ Suchmaschine zu benutzen.

2.3 Suchmaschinen-Markt in Deutschland

Der Suchmaschinen-Markt zeichnet sich durch eine hohe Konzentration aus. Durch eine Menge von kleinen Suchmaschinen-Anbieter scheint es so, als ob es ein gesunder Wettbewerb in dieser Branche herrscht. Dazu kommt auch, dass viele Anbieter keine eigene Suchmaschine betreiben, sondern ein Suchmechanismus von den großen Anbietern benutzen und visuell nur eigene Suchmaske anbieten. Aber nur sehr wenige Anbieter beherrschen den Markt. Das hat dazu geführt, dass auf dem internationalen Markt nur vier große Suchmaschinen-Anbieter existieren, die eigene Suchmaschinen und Suchmechanismen mit riesigen Datenbeständen anbieten: Google, Yahoo, Microsoft, Ask Jeeves.

Die Suchmaschine Google ist sicher der bekannteste Vertreter mit eigener Suchtechnologie. Die meisten Internet-Nutzer benutzen die Google-Suchmaschine und andere Dienste. Diese gilt heute als eine Art Synonym für die Web-Suche allgemein.

Yahoo hat als Web-Verzeichnis gestartet und lange Zeit hat sie die algorithmischen Suchergebnisse von anderen Anbietern zugekauft. Erst im Jahr 2004 hat Yahoo auf der

(20)

Basis von gekauften Suchmaschinen All the Web und AltaVista und Suchtechnologie- Anbieter Inktomi eine eigene Web-Suche, was der Bestandteil des Portals ist, angeboten.

Die Suchmaschine von Microsoft wurde MSN („Microsoft Network") genannt. Wie bei Yahoo hat Microsift auch lange Zeit nur auf die Suchergebnisse von Fremdanbietern zurückgegriffen. Nur Ende 2004 wurde eine eigene Suchtechnologie vorgestellt und im Anfang 2005 auf dem Markt angeboten.

Ask Jeeves ist auf dem europäischen Suchmaschinen-Markt ziemlich unbekannt, ist aber in den USA von größerer Bedeutung. Nach dem Aufkauf der Suchmaschine Teoma im Jahr 2003 verfügt Ask Jeeves über die vierte wichtigste Suchtechnologie auf dem internationalen Markt.

(21)

Quelle: Clay (2006) Abb. 2.3 Suchmaschinen-Markt in USA (Clay 2006)8

Abbildung 2.3 zeigt die Beziehungen der Suchdienste untereinander auf dem US- amerikanischen Markt. Hier kann man sehen, dass große Portale wie AOL oder Lycos ihre Suchergebnisse komplett zukaufen.

8 vgl. Clay (2006)

(22)

Die Marktanteile von Google in USA sind 43,7%. Dann kommt Yahoo mit 28,8%, MSN mit 12,8%, AOL und Ask mit 5,9% und 5,4% entsprechend9. Für den deutschen Markt sieht das Bild ähnlich aus wie in den USA, allerdings mit der bereits erwähnten Ausnahme Ask Jeeves. Dieser Anbieter ist hier am Markt nicht vertreten bzw. unterhält keine deutsche Seite. Nationale Anbieter, die eine gewisse Bedeutung haben, sind die Suchmaschinen Fireball und Seekport sowie die Metasuchmaschine Metager.

Abb. 2.4 Beziehungsgeflecht der Suchmaschinen in Deutschland (Karzauninkat 2004)10

Abbildung 2.4 zeigt analog zum Schaubild des amerikanischen Suchmaschinenmarkts die Beziehungen der deutschsprachigen Suchmaschinen untereinander. Auch hier wird deutlich, dass nur wenige Anbieter Suchergebnisse liefern und mit Ausnahme von Yahoo keines der populären Portale eine eigene Suchmaschine anbietet.

9 vgl. Heise(2006)

10 Karzauninkat(2004)

(23)

Für Suchmaschinenmarketing, insbesondere für Suchmaschinenoptimierung sind die aktuellen Marktanteile der Suchmaschinen und Verzeichnisse immer von großem Interesse.

Abb. 2.5 Suchmaschinen-Marktanteile in Deutschland11

Der Wettbewerb zwischen den großen Suchmaschinen in den USA beeinflusst auch den deutschen Suchmaschinen-Markt. Die „größten Drei“, Google, Yahoo und MSN, sind auch hier mit länderspezifischen Angeboten vertreten. Daneben umfasst der nationale Markt eine Vielzahl weiterer Suchmaschinen, wie web.de, fireball.de oder T-Online.

11Webhits (2006)

(24)

Im September 2004 ließen sich 193 deutschsprachige Angebote ermitteln, bei denen die externe Suche die zentrale Funktion und die thematisch nicht spezialisiert waren.

Allerdings ist die Nutzung der meisten dieser Suchmaschinen sehr klein im Vergleich zu dem Marktführer. Die reichweitenstärksten Suchmaschinen aus Deutschland sind Lycos, Fireball, Web.de, T-Online und Seekport.12

12 vgl. Webhits (2006)

(25)

3 Suchmaschinen-Marketing als ein wichtiger Baustein des Unternehmen-Marketings

Suchmaschinen-Marketing ist heute eine effektive Möglichkeit für das Unternehmen neue Kunden zu gewinnen und über Produkte und Dienstleistungen zu informieren.

Wichtigstes Ziel des Suchmaschinen-Marketings ist möglichst viele Internet-Benutzer auf das Online-Angebot durch die Suchmaschinen aufmerksam zu machen. Die Suchmaschinen sind heutzutage für die Mehrheit der Internet-User wichtigste Informationsquelle und deswegen eine ideale Plattform für effizientes und nachhaltiges Online Marketing.

3.1 Historische Entwicklung

Vor 16 Jahren in 1990 ist die Geschichte der Suchmaschinen an der McGill Universität in Montreal begonnen. „Archie“ war die erste Suchmaschine, die die FTP-Verzeichnisse auslesen konnte und nach Suchbegriffen in Dateien- und Ordnernamen durchsuchte.

Schon nach zwei Jahren gehörte diese Suchmaschine zu am meisten genutzten Internet- Dienste, obwohl sie keine Inhalte der Dateien bzw. Texte durchsuchen konnte.

Im Jahr 1991 wurde eine Software Namens „Gopher“ an der University of Minnesota entwickelt, was die Verzeichnisse der Uni-Server durchsuchte und katalogisierte. Über eine menügesteuerte Oberfläche konnte man dann diese Datenmengen durchsuchen.

1993 wurde der WWW-Standard zur kostenlosen Nutzung freigegeben und der erste Webcrawler mit dem Namen „The Wanderer“ programmiert. Danach werden immer mehr Crawler, Spider und Metacrawler entwickelt, die das Internet durchsuchten und die Webseiten katalogisierten.

Diese Zeit war der Anfang der Erfolgsgeschichte der Suchmaschinen und damit verbundenen Optimierung der Web-Inhalten. Es genügte damals die Meta-Tags und die Inhalte der Seite mit populären Begriffen voll zu füllen, um diese auf die oberen Plätzen bei der Suchanfrage zu finden. Die Spiders und Metacrawler durchsuchten die Seiten auf Meta-Informationen und Häufigkeit der Keywords innerhalb des Inhalts und rankten diese entsprechend hoch, wenn sie die populären Begriffe beinhalteten.

Im Juli 1994 wurde die Suchmaschine Lycos entwickelt und gestartet, die die Web- Dokumente nicht nur auf die Suchbegriff-Häufigkeit sondern auch auf die Nähe bzw.

Abstand der Suchbegriffe untereinander im Dokument untersuchte.

Im Jahr 1995 wurden die ersten kommerziellen Suchmaschinen veröffentlicht, die zum Teil schon eine Volltextsuche anboten. Mit dabei waren Infoseek, Excite und AltaVista, die noch bis vor wenigen Jahren sehr populär im Web war. Durch enorm

(26)

leistungsfähiges Roboter „Scooter“ hat AltaVista sich zu einer der führenden Internet- Anwendungen gemacht. Bis noch Jahr 1998 orientierten sich die Suchmaschinen an klassischen Information-Retrieval-Verfahren, d.h. dass Ranking fand nur auf textstatistischer Ebene statt und wurde ganz vom dem Inhalt abhängig. Die Bedeutung eines Dokumentes für einen Suchbegriff hängte von der Häufigkeit des Vorkommens dieses Begriffes und seiner Stellung im Dokument ab. Natürlich wurden solche Verfahren oft manipuliert, um auf den höheren Plätzen zu landen – man sollte nur die gewünschten Keywords im Dokument häufig entsprechenden Stellen benutzen. Die oberen Plätzen bei einer Suchanfrage bekamen dann die Dokumente mit höherer Keyword-Dichte. In dieser Situation versuchten die Suchmaschinen-Betreiber solche Manipulationen mit Einsatz von Keywords-Quoten zu beseitigen. Biz zu einer bestimmten Anteil von Suchbegriffen wurde ein Dokument zu „natürlich“ erzeugten zugeordnet, beim Überschreiten dieses Wertes steht Verdacht aud die Manipulation.

Ende 1998 veröffentlichten Larry Page und Sergey Brin ihre innovative Suchmaschinen-Ranking-Technologie mit dem Titel “The Anatomy of a Large-Scale Hypertextual Web Search Engine”.13 Ein wenig später ist die Suchmaschine Google gestartet und bleibt bis heute die meist benutzte und erfolgreichste Suchmaschine der Welt.

Die Innovation von Google bei der Bewertung der Web-Inhalten war ein Rankingfaktor das s.g. PageRank, der sich auf die Verlinkungsstruktur der Dokumente bezieht. Das ist ein statischer Faktor, der die Qualität jedes von Google im Web indexierten Dokument darstellt.14 Das Grundprinzip wurde aus der Bibliografie bzw. Zitatsanalyse übernommen. Ein Dokument, auf welches häufig verlinkt wird, ist bedeutender als eines, das weniger oder gar nicht verlinkt wird. Aber auch diese Technologie hat die Lücken für „schwarzen“ Suchmaschinen-Optimierer gelassen. Um die Anzahl der Backlinks zu steigern, wurden die unzähligen Anmeldungen und Eintrage bei allen möglichen Gästebücher, Forumen sehr populär und oft erfolgreich.

Allerdings hat es nich lange gedauert, bis es nicht nur bei der reinen Link-Zählung blieb, sondern auch die Bedeutung wiederum nach dem PageRank-Verfahren der verlinkten Seiten bewertet wurde. Ein Link von einer bedeutenden Seite(z.B. Yahoo oder DMOZ-Verzeichnis) wird viel besser gewichtet als der Link von einer unbedeutenden Seite (z.B. einer privaten Homepage).

Die PageRank wird in einem iterativen Verfahren berechnet und jedem indexiertem Dokument zugegeben. Bei der späterer Suchanfrage wird dieses Faktor mit

13 vgl. Google (2006f), ff.

14vgl. Brin & Page (1998)

(27)

Zusammenhang mit anderen textstatischen Verfahren die Platzierung eines Dokuments bei der Suchanfrage beeinflussen.

Die Suchalgorithmen entwickelten sich immer weiter und ziehen immer mehr externe Faktoren hinzu, damit das Ranking der Seite schwer von den Webmastern beeinflussbar ist. Somit ist die Suchmaschinenoptimierung heute ein langer, arbeitsintensiver und oft kostspieliger Prozess.

3.2 Definition und Formen des Suchmaschinenmarketings

Kaum ein anderes Online Marketing Instrument hat in den letzten Jahren so stark an Bedeutung gewonnen, wie das Suchmaschinenmarketing. Mehr als 70 Prozent aller Internetnutzer benutzen eine Web-Suchmaschine, um die Informationen über ein Unternehmen oder Produkte zu finden.15

Wegen der Vielzahl von Online-Angeboten ist es sehr schwierig, sich einen Besucherstrom auf die Internet-Präsenz zu erarbeiten – Besucher einziehen und sie zu einem Wiederbesuch zu motivieren. Mit Hilfe von Online- bzw. Suchmaschinen- Marketing kann man die Zielgruppen erreichen, die man sonst mit normalen Medien nicht erreichen kann.

Nach der Nutzung von Email-Diensten sind die Suchmaschinen die am häufigsten benutzte Anwendung im Internet. Sehr viele Online Käufe sind heutzutage über eine Suche in Suchmaschinen entstanden. Bei der Suche im Internet verfügt ein Nutzer oft über ein konkretes Bedürfnis und häufig hat er eine konkrete Kaufabsicht. Gerade aus diesen Gründen sind die Instrumente des Suchmaschinenmarketings in fast jeder Online Marketing Planung vorhanden.

Suchmaschinenmarketing umfasst „alle Internetmarketing-Maßnahmen, die die Funktion der Suchmaschinen nutzen, um höhere Besucherzahlen zu erzielen, um so neue Kunden zu gewinnen und letztlich die Umsatzzahlen zu steigern“16

Grundsätzlich kann man Suchmaschinenmarketing in zwei Bereiche unterteilen:

Suchmaschinen-Optimierung und Sponsored Links.

Suchmaschinen-Optimierung, auch SEO (für "Search Engine Optimization") genannt, hat sich als ein fester Baustein im Online-Marketing von Unternehmen etabliert.

15 vgl. Rabe, L. (2006),f

16 Keiser (2006)

(28)

„Search Engine Optimizer (SEO) entwickeln Optimierungsverfahren, um Website- Anbietern durch eine an die Suchalgorithmen angepasste Aufbereitung der Inhalte eine höhere Trefferquote bei Suchmaschinen zu ermöglichen.“17

Alle Massnahmen eines SEO-Projektes kann man in 5 wichtigste Phasen aufteilen:18

• Analyse der Web-Präsenz und Entwicklung notwendiger SEO Strategie;

• Optimierung des vorhandenen Online-Auftritts;

• Aufbau und Erweiterung relevanter und optimierter Website-Inhalte;

• Entwicklung einer Link- bzw. Pagerankstrategie;

• Erfolgsmessung, Anpassung und Ausbau der Maßnahmen.

Bei zweiter und dritter Phase handelt es sich um eine s.g. OnPage Optimierung und die vierte Phase ist OffPage Optimierung.

Unter OnPage Optimierung versteht man alle Programmierungsmaßnahmen, die auf der eigenen Website vorgenommen werden. Das sind die Anpassungen an Struktur und Inhalt der Webseiten, um eine bessere Position in den Suchmaschinen-Ergebnissen zu erzielen.

OffPage Optimierung beschreibt die Optimierungsmaßnahmen aller für eine Suchmaschine relevanten externen Faktoren. Unter diesen versteht man die externe Verlinkungsstruktur mit Qualität und Quantität der Links. Weil diese Faktoren nicht leicht von dem Web-Master zu manipulieren sind, sind sie mittlerweile einige von der wichtigsten Kriterien in den Suchmaschinen-Algorithmen. Heutzutage spielt effiziente OffPage Optimierung eine mindestens so große als OnPage Optimierung Rolle. Aber maximaler Erfolg kann ein Unternehmen nur durch Durchführung beider erreicht werden.

Umfang und Gewichtung der einzelnen Phasen eines SEO-Projektes ist schwer zu messen und ist von vorhandener Situation abhängig. Darauf nimmt großen Einfluss die Branche des Unternehmens, Marktsituation und Wettbewerb, Online-Auftritt der Konkurrenten bzw. Suchmaschinen Wettbewerb der Branche, technische Ausgangsbasis und vorhandenes Budget fürs Projekt.

17Machill & Welp (Hrsg.) (2003), S. 26

18 vgl. Marx, U. (2006)

(29)

Der Erfolg einer Suchmaschinen-Optimierung kann einige Zeit in Anspruch nehmen.

Als Alternativen um diese Zeit zu überbrücken, bieten sich die Sponsored Links an.

Die Sponsored Links, auch als Paid Listings, Keyword Advertising oder SEM (Search Engine Marketing) bennant, sind die als Werbung gekennzeichnete suchbegriffsbezogene Textwerbung oberhalb, unterhalb oder rechts neben den Suchergebnissliste in einer Suchmaschine.19

Ein Vorteil der Suchmaschinenoptimierung gegenüber der Sponsored Links ist, dass Suchmaschinenoptimierung eine absolut andere Kosten-Nutzen-Auswirkung hat. Bei der Sponsored Links werden die Kosten mit jedem Klick verursacht, was bei der Suchmaschinenoptimierung nicht der Fall ist.

Auch erhöht die Suchmaschinenoptimierung im Vergleich zu den Sponsored Links die Chancen, dass das Suchergebniss angeklickt wird. Wie die Eye-Tracking Studie(Abb.3.1 und Abb.3.2) deutlich gemacht hat, haben die obersten fünf

„organischen“ Suchergebnisse einer Suchmaschine eine viel bessere Chance, angeklickt zu werden, als die recht plazierten AdWords.20 Hieraus ist eindeutig, dass durch Suchmaschinenoptimierung erarbeitete Platzierungen ein höheres betriebswirtschaftliches Potenzial haben als die bezahlte Sponsored Links am rechten Bildschirmrand.

19 vgl. Glöggler (2003), S. 9f.

20 vgl. Enquiro & and Did-it.com (2005).

(30)

Abb. 3.1 EyeTracking Study 21

Abb. 3.2 Klick-Wahrscheinlichkeit nach EyeTracking Study22

21 Enquiro & and Did-it.com (2005).

22 vgl. Enquiro & and Did-it.com (2005).

(31)

Auch ein weiteres Vorteil der Suchmaschinenoptimierung ist, dass die neutrale Suchergebnisse keine Werbung sind und werden nicht als solche vom Nutzer wahrgenommen - es gibt jedoch immer noch viele Internetnutzer, die das Anklicken von Sponsored Links wegen ihrer Herkunft nach Möglichkeit vermeiden und organische Links bevorzugen.

Aber die Schnelligkeit, mit der eine Werbung-Kampagne gestartet und gesteuert werden kann, spricht für die Sponsored Links.23 Mit der Sponsored Links kann man relativ schnell z.B. Preisaktionen und saisonale Produkte oder Dienstleistungen vermarkten.

Aufgrund der schnell wachsenden und weit verbreiten Spam-Seiten gibt es mittlerweile viele Internet-Nutzer, die grundsätzlich zuerst auf bezahlte Platzierungen klicken, weil man dadurch schneller zu den relevanten Ergebnisen gelangen kann.

Einen optimalen betriebswirtschaftlichen Output können nur die Unternehmen daher erreichen, wenn sie sowohl Suchmaschinenoptimierung als auch Keyword-Advertising betreiben.24

3.3 Bedeutung von Suchmaschinen für ein Online-Unternehmen

Aus der wirtschaftlichen Sicht kann man Internet als einen globalen, virtuellen Marktplatz betrachten, wo die Käufer und Verkäufer von Waren und Dienstleistungen zueinander finden. Der Erfolg oder Misserfolg eines Geschäftsmodells ist heute oft von der Internet-Präsenz des Unternehmens abhängig. Besonders sind hier die Online- Anbieter getroffen. Es ist extrem wichtig, dass ein Unternehmen nicht nur in den Datenbanken der Suchdienste erfasst wird, sondern auch, dass sein Angebot in der Trefferliste der wichtigen Suchdienste in Abhängigkeit zu einem bestimmten Suchwort gut positioniert ist, d.h. unter mehreren tausend Suchtreffern innerhalb der ersten Trefferpositionen steht. Unternehmen, denen es gelungen ist, haben die größten Chancen, neue und fruchtbare Geschäftsbeziehungen zu knüpfen.

Die Ergebnisse der Studie zu Reisen und Internetrecherchen von Overture und comScore vom 23.11.2005 haben bestätigt, dass das Internet bei der Planung von Reisen einen großen Stellenwert hat und dass die Suchmaschinen zu den wichtigsten Informationsquellen gehören.25 Die Ergebnisse sind beeindruckend:

• 94 % der Befragten nutzten das Internet zur Vorbereitung ihrer letzten Reise, knapp zwei Drittel (65%) setzten dabei sogar ausschließlich auf das Internet;

23vgl. Kaiser (2004), S. 12, ff

24 vgl. Lammenett (2006)

25 vgl. Hier und im Volgenden Overture (2006)

(32)

• für 62% der Befragten sind die Suchmaschinen das am häufigsten genutzte Medium für die Reiserecherche, gefolgt von Online-Reisebüros und Reise-Webseiten;

• bei der Suche nach dem richtigen Urlaubsziel, der Reisevorbereitung und Planung liefert das Internet bessere Ergebnisse als Reiseprospekte (63% im Vergleich zu 59

%). Überzeugender schneiden in dieser Hinsicht nur noch traditionelle Reisebüros (66 %) sowie Freunde und Familienmitglieder als Informationsquelle (72 %) ab;

• geht es um die gängigen Reise-Services, besonders Hotel- und Flugreservierungen, sind Deutsche mit den Angeboten im Internet am zufriedensten;

• die urlaubsreifen Deutschen nutzen die Internetsuche während des gesamten Entscheidungs- und Buchungsprozesses, um das richtige Reiseziel und ausführliche Informationen zur Reise und zum Zielort zu finden. Dabei vergleichen sie verschiedene Optionen, recherchieren den günstigsten Preis und buchen ihre Reise dann auch oft im Online-Reisebüro (55%);

• je nach Reiseart buchten in den letzten 12 Monaten zwischen 53 % und 77 % der Kunden online, vor allem Flugtickets, Mietwagen und Last Minute-Reisen.

Während noch vor wenigen Jahren das ganze Potential des Internets noch nicht bekannt war und das Verbringen der Zeit im Web sogar verboten und strafbar war, gehört heute die Internet-Recherche und Kommunikation zum Alltag fast aller Mitarbeiter, besonders bei einem Online-Unternehmen. Wenn es um Einkauf oder Verkauf der Produkte und Dienstleistungen geht, profitiert fast jedes Unternehmen von der Geschwindigkeit und Informationsbereitstellung der Suchdienste.

(33)

4 Indexierung von Dokumenten und Rankingverfahren der Suchmaschine

Da die Suchmaschinen mehrere Millionen von Internet-Seiten indexieren und die Information speichern, ist es nachvollziehbar, dass bei einer Suchanfrage Tausende von Ergebnissen geliefert sind. Um alle diese Ergebnisse nach Relevanz sortiert zu bekommen, verwendet jede Suchmaschine eigene Ranking Algorithmus, was aus vielen verschiedenen Faktoren besteht.

Der Begriff Relevanz lässt sich nach Glöggler auch im Sinne von Ähnlichkeit deuten.

„Ein Dokument ist im Sinne einer Suchanfrage relevanter als ein anderes Dokument, wenn es inhaltlich der Suchanfrage eher entspricht, als ein anderes Dokument.“26

Alle diese Relevanz-Faktoren kann man in zwei Bereiche aufteilen:

informationsstatistische und linktopologische Rankingverfahren.27

4.1 Indexierung von Dokumenten

Die Indexierung von Web-Dokumenten ist eine zentrale Operation einer Suchmaschine.

Die Aufgabe ist aus analysierten Web-Dokumenten die Deskriptoren oder sog.

Schlagwörter abzuleiten, die den Inhalt eines Dokumentes im Index repräsentieren. Als Deskriptor bezeichnet man meist vorgegebene Begriffe, die zur Beschreibung eines Dokumentes ausgewählt werden können. Bei der Indexierung wird jedem Descriptor ein bestimmter Wert zugeordnet, der seine Bedeutsamkeit widerspiegelt. Die Descriptoren- Liste, oder auch Schlagwortkataloge genannt, dient damit zum Repräsentieren eines bestimmten Dokumentes über eine stichwortartige Kurzbeschreibung und auch für die gleichzeitige Wiedergabe des Inhalts des Dokumentes.28

Nach dem Verfahren unterscheidet man die manuelle Indexierung und die automatische.

Die manuelle Indexierung wird von einer Person, dem Indexierer, durchgeführt, was an diesen sehr hohe Anforderungen bezüglich fachlicher Kompetenz stellt. Obwohl oft die Terminologiebeschreibungen und Vokabularlisten zur Vefügung stehen, muss diese Person die genaue Kenntnis dieses Vokabulars haben, weil auch die Pflege und die Erweiterung des Vokabulars oft seine Aufgaben sind.29

26vgl. Glöggler (2003), S. 67

27 vgl. Lewandowski (2005), S. 90

28 vgl. Salton & McGill (1987), S,58 f

29 vgl. Kaiser (1993), S. 20 f

(34)

Der Vorteil der manuellen Indexierung besteht darin, dass die Inhalte eines Dokumentes durch gut ausgebildeter und erfahrener Indexierer gut zu verstehen und zu bewerten sind und damit auch wirklich inhaltsbeschreibende Deskriptoren vergeben werden können.30

Der Nachteil aber ist, dass aufgrund der riesigen und ständig wachsenden Informationbestände die Zeiten zwischen der Veröffentlichung eines Dokumentes und der Aufname dieses Documentes in Index einer Suchmaschine immer größer sind, weil die manuelle Indexierung mit sehr hohem Zeitaufwand und hohen Personalkosten verbunden ist.31

Bei der Indexierung der grossen Informationsmengen in kurzer Zeit kommt ausschließlich das automatische Verfahren infrage, das durch verschiedene Programme, die die Stichwörtern extrahieren, erfolgt. Das Ziel der automatischen Indexierung ist es, aus einem vorliegenden Dokument automatisch die sinntragenden Wörter zu extrahieren. Im Gegensatz zu manuellen Verfahren arbeiten die automatischen Methoden mehr oder weniger mit der sprachlichen Oberfläche von Dokumenten, um die Stichwörter zu ermitteln, und nicht bzw. zur Zeit nicht mit der Bedeutung ganzer Texte.

4.2 Funktionweise der Suchmaschinen an Beispiel Google

Da die Suchmaschine Google der Führer mit mehr als 80% Anteil des deuschen Suchmaschinenmarktes ist, ist ihre Funktionsweise und Indexierungmethoden besonders interessant. Die Architektur dieser Suchmaschine wurde in der für Google grundlegenden Arbeit „The Anatomy of a Large-Scale Hypertextual Web Search Engine“32 von Brin und Page dargestellt. Natürlich seit dieser Zeit wurde die ursprüngliche Systemzusammenstellung Systemzusammenstellung an die immer entwickelndes WWW angepasst und modifiziert. Aber auf Basis der Veröffentlichung von Brin und Page kann man die Grundprinzipien der Beschaffung, Verarbeitung und Speicherung der Webdokumente bei Google und bei den Suchmaschinen allgemein anhang folgender Abbildung besser verstehen.

30 vgl. Kaiser (1993), S. 22 f

31 vgl. Pekuysal (1992), S. 31

32Brin & Page (1998)

(35)

Abb. 4.1 Architektur der Suchmaschine Google33

Für die Beschaffung der Datenbeständen sind in d.R. Webroboter oder Ceawler zuständig. Das sind „auf extreme Hochleistung getrimmte Systeme, die laufend das World Wide Web und andere Elemente des Internet analysieren“.34

Google und die andere Suchmaschinen setzen mehrere Crawler ein, die die Web-Seiten und Dokumente Anhang der durch URL Server bereitgestellte URL-Listen herunterladen und an die Store Server weitersenden.35 Auf diesen Store Server werden die Dokumente komprimiert und dann im Repository mit einer Identifikationsnummer, die sog. DocID, abgespeichert. Weiter werden die Documente durch den Indexer und den Sorter indexiert. Der Indexer liest das Repository, dekomprimiert die Dokumente und wandelt diese mit Hilfe eines Parsers in einen Satz von Wortvorkommen um, welche Hits genannt werden. Die Hits speichern neben den Wörtern auch die Position von diesen Wörtern im Webdokument. Dann werden die Hits durch den Indexer in die sog. Barrels verteilt. Damit erreicht man eine teilweise Vorsortierung (Forward Index).

33 Brin & Page (1998)

34 vgl.Lehmann & Lehmann (2002), S.174

35vgl. hier und im Folgenden Brin & Page (1998)

(36)

Durch den Indexer wird auch die Linkstruktur eines Dokuments analysiert, wobei die wichtige Informationen die Herkunft von Links, das Linkziel und der Linktext sind.

Diese Informationen werden in der Anchors-Datei abgelegt. Diese Datei wird von URL Resolver abgelesen, um die relative URLs in absolute unter gleichzeitiger Vergabe einer docID zu umwandeln. Der Linktext wird, verbunden mit der docID, auf die der Linktext zeigt, in den vorsortierten Index gesetzt. Auf der Basis durch den URL Resolver erzeugte Linkdatenbank (Links) wird den PageRank für alle Webdokumente berechnet.

Der Sorter vewendet die Barrels, um diese nach wordIDs in eine Liste neu zu sortieren und dadurch einen invertierten Index (Inverted Index) zu erzeugen. Ein Programm vermischt diese Liste mit dem Lexicon, das durch den Indexer erstellt wurde und erzeugt ein neues Lexicon, das vom Searcher genutzt wird. Der Searcher ist in Form eines Webservers realisiert und nutzt neben dem Lexikon den invertierten Index und PageRank, um auf die Suchanfragen zu beantworten.

4.3 Informationsstatistische Verfahren des Suchmaschinen-Rankings

Um die Relevanz der Web-Seite zu einer gegebenen Suchanfrage einzuschätzen, verwenden die Suchmaschinen neben linktopologischen die informationsstatistische Verfahren. Aufgrund der Menge und der Heterogenität der Dokumente kann man nicht nur textstatistische Verfahren einsetzen. Ein weiteres das Ranking beeinflussende informationsstatistische Verfahren ist die Auswertung des Nutzungsverhaltens.

Informationslinguistische Verfahren, die mit der Sprachenvielfalt des Web zu tun haben, werden in Web-Suchmaschinen bisher nur in einem geringen Maß eingesetzt.

4.3.1 Textstatische Verfahren

Zu den klassischen textstatischen Faktoren des Suchmaschinen-Rankings gehören die Worthäufigkeit, die inverse Dokumenthäufigkeit, die Position der Suchbegriffe und deren Nähe zueinander im Dokument. Dies alles beeinflusst in gewissen Maßen die Position eines Dokumentes in der Suchergebnissliste einer Suchmaschine bezüglich eines bestimmten Suchbegriffs36.

Die Suchbegriff-Häufigkeit oder Keyword-Frequenz gibt an wie oft ein Suchwort oder Suchphrase im Inhalt eines Dokuments vorkommen soll. Mit der Häufigkeit des Keywords wird so angenommen, dass, je öfter ein Suchbegriff im Text vorkommt, damit relevanter ein Dokument in Zusammenhang zu einem Keyword ist.37 Natürlich,

36vgl. Glöggler (2003), S. 76f; vgl. auch Erlhofer (2005a), S. 118f.

37vgl. Nohr (2003), S. 33f

(37)

um den Verdach auf die Manipulation zu vermeiden, soll man die gewisse Grenze nicht überschreiten. Man soll versuchen, ein ausgewogenes Verhältnis von Worthäufigkeiten der Schlüsselbegriffe im gesamten Text zu erzeugen. Eine Suchbegriffdichte von 1 bis 7% scheint von den meisten Suchmaschinenoptimierungsagenturen als empfehlenswert.

Ein Einsatz der Schlüsselwörter, der diese Grenze über- oder unterschreitet, kann auch zu einer schlechten Ranking der Seite zu diesem Begriff führen.

Die Suchbegriff-Häufigkeit kann man ermitteln durch die Definition von Anzahl der Vorkommen eines Wortes oder einer Phrase durch Anzahl aller Wörter im Dokument38:

( ) ( )

( )

d a

d t d h t TF , =

Häufig aber verwendet man statt der direkten Anzahlen ihr Logarithmus:

( ) ( ( ) )

( ) (

a d

)

d t h d

t

TF log

1 log

, +

=

Im Argument des Zählers wird 1 addiert, damit die Häufigkeit für nicht vorkommende Suchbegriffe Null ist.

Bei der Search Engine Strategies Conference 2004 in London empfahl Charon Matthew (MediaCo (UK)) vier Keyword im 250 bis 300 Wörtern-Dokument oder für längere Seiten 8-10 mal in 500 Wörter.39 Das ergibt eine Keyword Dichte ca. 1,6 %.

In August 2005 wurde von Dr.Braun bei der Search Engine Strategies Conference in San Jose berichtet, dass die optimale Keyword-Dichte zwischen 3% und 5% liegt.40 Durch die Ermittlung der Keyword-Dichte kann die Wichtigkeit eines Begriffes für die Beschreibung des Inhalts eines Dokuments bzw. einer Seite berücksichtigt werden.

Obwohl die Keyword-Dichte heutzutage nicht mehr so wichtig wie früher ist, da jetzt mehr Gewicht auf OffPage Kriterien gelegt wird, sollte man trotzdem bei der Optimierung darauf achten.

Im Gegensatz zur Keyword-Frequenz, was sich auf ein Dokument bzw. Web-Seite bezieht, ist die inverse Dokumentenhäufigkeit ein entscheidender Faktor für die ganze Sammlung der Dokumenten, z.B. Web-Präsenz. Für eine Dokumentsammlung lässt sich die Bedeutung der Worthäufigkeit wie folgt präzisieren. Die inverse Dokumenthäufigkeit im Sinne der Suchmaschinenoptimierung beschreibt die Gewichtung eines bestimmten Suchbegriffs in Bezug auf alle indexierten bzw.

38vgl. Garcia (2005)

39 vgl. Matthew & Whalan (2004)

40 vgl. Brown (2005)

(38)

vorhandenen Seiten der Web-Präsenz.41 Das bedeutet, ein Wort oder Phrase, das nur auf wenigen Seiten oft vorkommt, ist geeigneter für die Aufnahme als Suchbegriff in Index einer Suchmaschine, als ein, der auf fast jeder Seite oder nur sehr selten auftaucht. Mit anderen Wörter ist eine Phrase oder ein Wort demnach um so wichtiger, je weniger Seiten dazu mit ihm vorhanden sind.42

Im Unterschied zur lokalen Suchbegriff-Häufigkeit ist die inverse Dokumenthäufigkeit ein globaler Faktor, der sich als sinnvolle Kennzahl für die Verteilung eines Suchbegriffs über eine Sammlung von Seiten einer Web-Präsenz erwiesen hat.

Die inverse Dokumenthäufigkeit lässt sich nach folgender Formel berechnen43:

⎟⎟

⎜⎜

⎛ +

=

ft Nd IDFt log 1 ,

wobei Nd die ganze Anzahl der Seiten bzw. Dokumenten ist und ft die Anzahl der Seiten, die den Suchbegriff t enthalten.

Durch Multiplikation der Keyword-Frequenz und der inversen Dokumenthäufigkeit ergibt sich für jedes Wort eines Textes ein Gewichtungswert, mit dessen Hilfe ein Ranking der Suchergebnisse realisiert werden kann. Je höher das Gewicht, desto höher ist das Ranking:44

( )

i j TF

( )

i IDF

( )

j

Gewicht , = *

Beim Suchen nach einer Suchphrase existiert eine weitere Variation des Verfahrens.

Hier geht es um den Abstand zwischen einzelnen Suchwörtern. Stehen die einzelnen Begriffe enger zusammen (im Idealfall nebeneinander oder innerhalb eines Satzes), so ist der entsprechende Text wahrscheinlich wichtiger für einen Nutzer als wenn die Suchwörter zwar alle vorkommen, aber bezugslos an unterschiedlichen Textstellen auftauchen. Der Gewichtungswert für einen Text errechnet sich aus der Anzahl der Wörter, die zwischen den einzelnen Suchargumenten stehen. Der Wert für den Abstand gegebener Suchwörter in einem Text ist um so größer, je kleiner der Wortabstand ist.45 Natürlich spielt auch die Position des Suchbegriffs innerhalb des Dokumentes eine sehr große Rolle bei der Ermittlung seiner Relevanz bezüglich dieses Suchbegriffs. Die wesentliche Arbeit bei der Optimierung einer Web-Seite besteht auch darin, nicht nur

41vgl. Glöggler (2003), S. 77f.

42vgl. Nohr (2003), S. 36

43vgl. Erlhofer (2005a), S. 119f.

44 vgl. Salton & McGill (1987) , S 78.

45 vgl. Stock (2000), S 132f.

(39)

die relative und absolute Häufigkeit der einzelnen Keywords zu berücksichtigen, sondern auch Ihre Position innerhalb der Seite.

Die HTML-Sprache kann man gut benutzen um nicht nur die Seite zu gestalten, sondern auch um Text gut zu strukturieren. Deswegen sind die mansche HTML-Tags geeignet, die Relevanz der Seite zu bestimmen und das Ranking zu beeinflussen. Suchmaschinen bewerten meistens die Web-Dokumente als besonders relevant, wenn der entsprechende Suchbegriff z.B. im Titel oder innerhalb einer Überschrift vorkommt. Ebenso werden die Begriffe wichtiger betrachtet, wenn die im Text weiter oben stehen.

Je nach der Art der Suchmaschine sind die Keywords an folgenden Stellen innerhalb des Quellcodes der Seite besonders wichtig: Suchbegriffe im Seitentitel, in Überschriften, Linktexten, im Inhalt als verschiedene Textformatierungen, in alt-Tags von Grafiken, in Meta-Tags. Über die Reihenfolge der Wichtigkeit dieser Stellen lässt sich streiten, denn die Suchmaschinen geben nicht bekannt, wie stark die einzelnen Faktoren bewertet werden. Die manche Suchmaschinen legen besonderen Wert auf das Vorkommen der Suchbegriffen im Url der Web-Seite, manche auf den Inhalt und titel- Tags der Links, und manche sogar auf die Meta-tags der Seite. Aber weil man vom Seiten-Titel erwartet, dass er die Inhalte der Seite kurz beschreibt, bewerten diesen fast alle Suchmaschinen besonders hoch.

Textstatische Massnahmen bei der Optimierung der Web-Seite sind ein sehr zeitintensiver Prozess und eine sehr wichtige Komponente, die den Erfolg oder Misserfolg einer Online-Präsenz bestimmt.

4.3.2 Nutzungsstatistische Verfahren

Bei den nutzungsstatistischen Rankingverfahren steht der Nutzer und sein Verhalten im Mittelpunkt, weil nur er die Qualität der Dokumente am besten einschätzen kann. Die nutzungsstatistischen Mechanismen messen die Häufigkeit, mit der ein Dokument in der Trefferliste angeklickt wird, so g. Klick Populaität; die Zeit, die der Benutzer auf der Seite verbringt und die Wiederkehrungen der Benutzer auf der Seite.

Im April 1998 haben Gary Culiss und Mike Cassidy ihre Suchmaschine DirectHit ins Netz gestellt. Besondere Eigenschaft dieser Suchmaschine war, dass sie ihre Suchergebnisse aufgrund des so. g. Klick Popularitäts-Verfahrens dargestellt wurden, d.h. häufig aufgerufene Seiten bekommen bei der nächsten Suche nach diesem Begriff eine bessere Ranking-Position. Um die Manipulationen zu vermeiden bzw. zu verringern, wird dabei die aufrufende IP-Adresse registriert.46

46 vgl. Culliss (2000)

(40)

Auch aufgrund einerseits der Möglichkeit der inadaequaten und irreführenden Beschreibungen und andererseits, dass die Dokumente, die höhere Platzierungen besitzen, gar nicht „verschoben“ werden können, wird bei diesem Verfahren noch zusätzlich die Verweildauer der Nutzer bei den entsprechenden Dokumenten gemessen.

Wenn der Benutzer schnell zur Trefferliste zurückkehrt, um weitere in der Suchergebnisliste vorhandene Seiten auszuwählen oder sogar seine Suchanfrage zu ändern bzw. zu modifizieren, so deutet dies darauf hin, dass durch das Dokument sein Informationsbedürfnis nicht befriedigt wurde. Solche Dokumente sind deshalb in Zukunft bei der gleicher Anfrage nicht mehr so bevorzugt gelistet oder sogar schlechter bewertet. Bei einer Suchanfrage, wenn der Benutzer nach dem Anklicken eines Dokumentes lange nicht auf die Trefferliste zurückkommt oder sogar die Suchmaschine verlässt, weil er seine Informations-Bedürfnisse befriedigen konnte, werden diese Dokumente bei zukunftigen Anfragen besser bewertet und höher gelistet.

Eine weitere zusätzliche Parameter bei dem nutzungsstatischen Verfahren ist die Wiederkehrungsrate für eine Seite bzw. ein Dokument. Hier wird die Anzahl der wiederkehrenden Benutzer als Qualitätsmaß betrachtet. Dies basiert auf der Annahme, dass eine regelmäßig besuchte Seite nicht schlecht sein kann.

Die nutzungsstatischen Verfahren, welche DirectHit für seine Suchmechanisme benutzte, haben jedoch keine Verbreitung bei modernen Suchmaschinen gefunden, da einfach durch die automatisierte Skripte die Ranking manipuliert werden konnte. Aber die dahinterliegende Technologie, die die Anzahl und Qualität der Klicks auf ein Ergebnis ermittelt, wird teilweise bei zahlreichen bekannten Suchdiensten zusätzlich zu vorhandenen Suchtechnologien eingesetzt.

4.4 Linktopologische Rankingverfahren der Suchmaschinen

Neben den informationsstatischen Rankingverfahren setzen alle größten Suchmaschinen als einen wesentlichen Faktor des Rankings die linktopologischen Verfahren ein. Diese Verfahren beschäftigen sich mit der Bewertung der Qualität von Webseiten anhand ihrer Verlinkungsstruktur, d.h. Anzahl eingehender und ausgehender Links und deren Gewichtung.

Das Grundprinzip aller linktopologischen Verfahren ist, dass ein Dokument, das stark verlink ist, von größerer Bedeutung ist, als eins, das weniger verlinkt ist. Dieses Prinzip wurde von Bibliographie und Zitatanalyse übernommen. Ein Link wird als eine Empfehlung für ein Dokument(wie z.B. in jeder wissenschaftlichen Arbeit) betrachtet.

Aber nicht jedes Link wird als gleichwertig bewertet, sondern wiederum aufgrund der

Referenzen

ÄHNLICHE DOKUMENTE

Das grundlegende Problem bei dem Importieren von Datensätzen ist, dass die Datensätze nicht einer einzelnen Tabelle in der Datenbank zugeordnet werden können, sondern

Die einzelnen Zeilen enthalten alle Informationen über einen Kunden und die Spalten legen fest, welche Daten in ihnen enthalten sind (z.B.: dass es sich bei den Daten um eine

ausgeführt. Besonderer Vorteil ist hier, dass sensible Geschäftsdaten bei Verlust des Geräts gesichert bleiben. Hybride Applikationen sind native Applikationen mit eingebettetem

Rolle.. Analyse der Prozesse und Datenbestände 29 nach der Lage und informiert ihn über notwendige Sicherungsmaßnahmen. Unterabschnitt 3.4.2) wird dazu eine

Zusammenfassend betrachtet, ist die zufällige Verteilung der einzufügenden Daten im Standard Grid-File vorzuziehen, da sich sowohl beim Median als auch beim Mittelwert eine

Abbildung 3-1 verdeutlicht die Situation bei der Modellierung eines Real- weltobjektes und der Integration der entstandenen lokalen Datenbankobjekte zu einem globalen Objekt:

Insbesondere bei hoch-komplexen Zugriffswerkzeugen, wie zum Beispiel beim Online- Analytical-Processing (OLAP), stößt die Untersuchung statischer Workloads an ihre Grenzen.

Anstelle einer formlosen Textdatei (Makefile) nutzt Ant eine XML-Datei (Buildfile). Der Standardname dieser Datei ist build.xml. Das Buildfile enthält durch die