• Keine Ergebnisse gefunden

Websites optimieren für Google & Co.

N/A
N/A
Protected

Academic year: 2022

Aktie "Websites optimieren für Google & Co."

Copied!
19
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Sebastian Röring

Websites optimieren für Google & Co.

schnell+kompakt

(2)

Sebastian Röring

Websites optimieren für Google & Co.

schnell+kompakt ISBN: 978-3-86802-246-9

© 2010 entwickler.press

ein Imprint der Software & Support Media GmbH

http://www.entwickler-press.de http://www.software-support.biz

Ihr Kontakt zum Verlag und Lektorat: lektorat@entwickler-press.de Bibliografische Information Der Deutschen Bibliothek

Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.

Lektorat: Sebastian Burkart Korrektorat: Frauke Pesch Satz: Pobporn Fischer

Umschlaggestaltung: Maria Rudi

Belichtung, Druck und Bindung: M.P. Media-Print Informationstechno- logie GmbH, Paderborn.

Alle Rechte, auch für Übersetzungen, sind vorbehalten. Reproduktion jeglicher Art (Fotokopie, Nachdruck, Mikrofilm, Erfassung auf elektroni- schen Datenträgern oder andere Verfahren) nur mit schriftlicher Geneh- migung des Verlags. Jegliche Haftung für die Richtigkeit des gesamten Werks, kann, trotz sorgfältiger Prüfung durch Autor und Verlag, nicht

(3)

Inhaltsverzeichnis

Inhaltsverzeichnis

Einleitung 9

Geschichte und Architektur des Internets 1

Kapitel 1: 3

1.1 Webkataloge 15

1.2 Metasuchmaschinen 16

1.3 Spezialsuchmaschinen 17

1.4 World Wide Web heute 18

Suchmaschinen 1

Kapitel 2: 9

2.1 Allgemeine Funktionsweise einer Suchmaschine 20

2.2 Crawler sind empfindliche Wesen 21

2.3 Suchmaschinenarchitektur 23

Keywords – Oder „Die große Suche“ 2

Kapitel 3: 9

3.1 Zielgruppe 30

3.2 Keywords auswählen 31

3.3 Keywords auswerten und selektieren 36 Exkurs: Werbung schalten –

Kapitel 4:

Google AdWords und die Keywords 39 SEO – Lasset die Spiele beginnen 4

Kapitel 5: 7

5.1 Webseiten optimieren: On Page 47

5.2 Optimierung im Body-Bereich 62

5.3 Texte optimieren 64

5.4 Text Replacement 67

5.5 Tags und CSS-Tricks 68

(4)

Inhaltsverzeichnis

5.6 Startseite – Ihre wohl beste Chance 77

5.7 AJAX 78

Links, Links und nochmal Links 8

Kapitel 6: 1

6.1 URL – Uniform Resource Locator 82

6.2 Die Suchmethoden – Tiefe vs. Breite bzw.

Seitenstruktur vs. Suchdienste 86

6.3 URL-Technik und SEO-Eigenheiten 88

6.4 Doppelten Inhalt vermeiden 91

6.5 Rewrite Engine und dynamische Webseiten 93

PageRank und Co. 9

Kapitel 7: 7

7.1 Tipps beim Umgang mit Links 100

7.2 Google PageRank beeinflussen 100

7.3 Click Popularity 102

7.4 Tipps für ein eigenes Linknetzwerk 103

7.5 Googles Verhalten 104

7.6 Was Google nicht mag 105

7.7 Die Konkurrenz: TrustRank 106

Google Frontend – Bedienung und Technik 10

Kapitel 8: 7

8.1 Die Suche 107

8.2 Sitemaps – Zeig mir, was du hast 112 Programmierfehler und Alternativen 11

Kapitel 9: 5

9.1 Optimierung der Programmierung – Frames 115

9.2 Klicki-Bunti. Flash im Internet 117

9.3 JavaScript, ActiveX und sonstige Skriptsprachen 118

9.4 CMS/Shopsysteme 119

9.5 Session-ID und Cookies 122

9.6 Robots.txt 123

9.7 IP ist nicht gleich IP 125

(5)

Inhaltsverzeichnis

 9.8 Verlinkungsfehler 126

 9.9 Keyword Stuffing – Stopfen, was das Zeug hält 128 9.10 Text Hiding – Na, wo bin ich denn? 129

9.11 Bait and Switch 132

9.12 Doppelte Seiten – Double Content 132

Usability 13

Kapitel 10: 5

10.1 Usability – Machen Sie es den Besuchern einfach 135

10.2 Bollwerk Navigation 138

10.3 Texte im Web 142

Off-Page-Optimierung 14

Kapitel 11: 5

11.1 Hosting 145

11.2 Domainnamen und Seitenstruktur 146

11.3 Domains sind wie Weine – Je älter, desto besser 148

11.4 Link Popularity 149

11.5 Manuelle und automatische Anmeldung

bei Suchdiensten 151

11.6 Gesperrt – Was nun? 153

Seien Sie wachsam – Kapitel 12:

Controlling und Monitoring 157

12.1 Ist er da? – Server überwachen 158

12.2 Logdaten – Visitor Tracking und Analyse 158

12.3 Keyword-Analyse 160

12.4 Google Analytics – Googles Art der Datenerfassung 161

Google-Randnotizen 16

Kapitel 13: 3

13.1 Let’s make the web faster 163

13.2 Updates 164

13.3 Sandbox 165

13.4 Ein Blick in die Zukunft 166

(6)

Inhaltsverzeichnis

Die dunkle Seite der Macht – Black Hat SEO 16

Kapitel 14: 7

14.1 Doorway Pages – wackelige Brückenseiten 168 14.2 Cloaking – Webseiten mit Mantel 169 14.3 Schutz vor fremden Black-Hat-Techniken 171

SEO und Marketing 17

Kapitel 15: 3

15.1 Marketingmethoden durchleuchtet 174

15.2 E-Mail-Marketing 174

15.3 Newsletter – E-Mail die Zweite 175

15.4 Inhalt und Konzept des Newsletters 176

15.5 Traditionelle Bannerwerbung 177

15.6 Virales Marketing – Der Virus unter

den Marketingmethoden 180

15.7 Free Giveaways – Umsonst ist kostbar,

zumindest für Sie 181

15.8 RSS Feeds und Atom 182

15.9 Blogs 184

Fazit 18

Kapitel 16: 7

Stichwortverzeichnis 189

(7)

Einleitung

Einleitung

Was wäre das Internet ohne seine Suchmaschinen? Wahrschein- lich ein sich stetig expandierendes Chaos mit Milliarden von un- gesehenen und somit nutzlosen Internetseiten. Mehr als 70 % aller Internetuser starten Ihren WWW-Aufenthalt mit der Eingabe ei- nes Suchbegriffs in die Suchmaske eines Suchmaschinenanbieters.

Laut Studien werden die ersten drei bis vier Ergebnisse von fast allen Suchenden wahrgenommen, die zweite Ergebnisseite wird dagegen nur noch von weniger als 10 % der Nutzer angesteuert.

Suchmaschinenoptimierung wird somit zu einem mächtigen Mar- ketinginstrument im Internet, denn erstaunlicherweise wird den gekauften Anzeigen, wie etwa AdWords, nur wenig Beachtung geschenkt. Über 80 % der gesamten Klicks landen zurzeit auf den organischen Inhalten der Suchmaschinen.

Suchmaschinenoptimierung ist wich- ZEIt für EIn ErstEs faZIt:

tig für den Erfolg Ihrer Webseite, denn wahrgenommen und somit an- geklickt werden nur die Einträge, die im oberen, organischen Bereich gelistet sind.

Eine recht interessante Entdeckung bei der Auswertung von Suchma- schinenseiten machte eine Studie von Enquiro. Das Forschungsteam betitelte sie als „golden Triangle“ Mithilfe von Eye-Tracking- Senso- ren wurden Probanden auf die Suchmaschinenergebnisseiten von Yahoo, MSN und Google gelenkt und es wurde aufgezeichnet, wie sich die Augen über die Seite bewegten. Die Studie erhielt dadurch ihren Namen, da festgestellt wurde, dass die Blicke der Probanden zuerst die obere linke Ecke des Bildschirms anvisierten und die Au- gen sich dann gleich häufig nach rechts oder unten bewegt hatten.

(8)

Einleitung

Interessant für unser Thema ist dieser Versuch deswegen, weil ge- kauften Links (Paid Links) auf der rechten Seite der Suchergebnisse so natürlich fast überhaupt keine Beachtung finden.

Quelle: http://www.enquiro.com/enquiro-develops-googles-golden-triangle.php

(9)

Je erfahrener ein Webuser ist, desto häufiger klickt er auf übrIgEns:

die so genannten Paid Listings, die bezahlten Anzeigen. Sie erkennen diese bei Google z. B. an der farblichen Unterlegung im oberen Bereich der Ergebnisliste oder an ihrem Alleinstellungsmerkmal rechts neben den Ergebnissen. Unerfahrene User, und das sind leider die Mehrheit, haben scheinbar eine gewisse Hemmschwelle, was die Klicks auf die gekennzeichneten Anzeigenregionen betrifft.

Betrachten wir einmal exemplarisch die Eingabemaske von Google.

Das Erscheinungsbild ist sauber, einfach und zu Recht auch Co- pyright-geschützt. Eine Suche lässt sich schnell und unkompliziert durchführen, und auch die Ergebnisse (nicht selten mehr als eine Million) kommen in schier unglaublich kurzer Zeit auf den Bild- schirm geflattert. Ein Indiz dafür, dass ein ausgeklügeltes System die Abfragen auswertet. Und das ist tatsächlich der Fall, wie wir später noch sehen werden.

Einleitung

(10)
(11)

KAPITEL 1

Das Internet ist die wohl größte vom Menschen geschaffene Da- tensammlung. Webseiten entstehen im Hundertstelsekundentakt, und die Anzahl der Seiten im Netz steigt exponentiell. Das ver- mittelte Wissen zu sortieren oder in einer Übersicht anzuordnen, ist schon auf Grund der dezentralen Struktur des Netzwerks nicht möglich. Um diese Informationen zu bündeln, zu bewerten und zu präsentieren, haben sich zahlreiche Ansätze herausgebildet, die ich Ihnen vorweg kurz erläutern möchte.

Suchmaschinen haben ihren Ursprung in den 90er Jahren. Alan Emtage, angestellt an der McGill Universität in Montreal, schrieb eine Sammlung von Skripten, die automatisiert zahlreiche öffent- liche FTP-Server durchsuchen sollten, um einen Katalog der ver- fügbaren Datenbestände zu generieren.

Sie müssen wissen, dass einige Programmierer zur Faulheit nei- gen und daher oft Skripte schreiben, die ihre Arbeit für sie er- ledigen. Faulheit gepaart mit Intelligenz führt hier zu äußerst nützlicher Effizienz. Ich hoffe, ich habe mit dem letzten Satz die

geschichte und

architektur des Internets

1.1 Webkataloge 15

1.2 Metasuchmaschinen 16

1.3 Spezialsuchmaschinen 17

1.4 World Wide Web heute 18

(12)

Geschichte und Architektur des Internets

Kurve gekriegt und bekomme jetzt nicht zahlreiche böse E-Mails aufgebrachter Programmierer.

Seine Skriptsammlung veröffentlichte Emtage unter dem Namen Archie. Andere Universitäten zogen gleich nach, und so folgte z. B. „Veronica“ von der University of Nevada und der World Wide Web Wanderer. 1993 wurde die erste Suchmaschine online gestellt: RBSE Spider, die damals übrigens schon mit einem Ran- king-Algorithmus arbeitete. 1994 zogen David Filo und Jerry Yang mit ihrem Portal Yahoo! nach. Yahoo! startete übrigens als private Linksammlung der beiden Studenten.

1995 und 1996 folgten Infoseek und Hotbot. Erst drei Jahre spä- ter meldeten zwei Studenten eine Suchmaschine mit dem Namen Google an. Ein Unternehmen, das die London Times als „das am schnellsten wachsende Unternehmen der Weltgeschichte“ bezeich- net hat. Und dies wohl auch zu Recht. Oberste Devise bei Google ist seither folgende Aussage: „Der Nutzer steht an erster Stelle, und alles Weitere ergibt sich von selbst.“

Hitwise, eine US Agentur, die sich auf Suchmaschinen und Such- maschinenmarketing spezialisiert hat, belegt in einer Studie, dass Googles Anteil an Suchvorgängen im Jahr 2008 in den USA bei 71 %, in Großbritannien sogar bei über 87 % lag. Laut der IDC (International Data Corporation) kontrolliert der Gigant 69 % der Onlinewerbung und macht somit Milliardenumsätze mit einem dezentralen System, zu dem jeder Surfer, größtenteils unbewusst, einen kleinen Teil beiträgt: Schätzungen besagen, dass 2008 etwa ein Drittel der Google-Einnahmen (immerhin 20 Milliarden) auf Fremdwebseiten verdient wurde. Das ist durch den Einsatz von AdSense möglich. AdSense ist ein von Google (weiter-)entwickel- tes Werbenetzwerk. Webseitenbesitzer können durch die Einbin- dung von Google-Werbeblöcken auf ihrer Webseite Geld verdie- nen. Für jeden Klick auf eine der Anzeigen kassieren Google und

(13)

Webkataloge

der AdSense-Kunde einen festgelegten Betrag vom Schalter der Anzeige.

Dank dieser Vormachtstellung wird sich dieses Buch auch haupt- sächlich mit Google beschäftigen. Konkurrenzsuchmaschinen werden aber nicht außer Acht gelassen, zumal sie meist ähnlich funktionieren und manche sogar den gleichen Datenbestand nut- zen. Doch neben den Suchmaschinen gibt es noch andere inter- essante Anlaufstellen, die sich aus Sicht der Suchmaschinenopti- mierung gezielt einsetzen lassen. Auf diese möchte ich nun kurz erklärend eingehen.

Webkataloge 1.1

Unter einem Webkatalog versteht man ein Onlineverzeichnis von Webseiten, meist sortiert nach Kategorien oder Tags, thematisch geordnet und in Rubriken sortiert. Vergleichbar ist dies in etwa mit einem Branchenbuch. Die Anmeldung erfolgt meist manu- ell durch den Webseitenbetreiber und wird von einem Redakteur oder Moderator überprüft. Das hat den Vorteil, dass auch Fak- toren bei der Aufnahme mit einbezogen werden, die durch die Bewertungsalgorithmen der großen Suchmaschinen nicht bewer- tet werden. Hierzu zählen etwa Gestaltung oder Seriosität des Auftritts. Doch gerade hier liegen auch die Nachteile: Durch die manuelle Sichtung der Seiten gibt es strengere Aufnahmekriteri- en, und längst nicht alle finden so ihren Weg in das gewünschte Verzeichnis. So sind als Antwort auf eine Ablehnung bestimmt schon einige böse E-Mails verschickt worden.

Achten Sie bei der Anmeldung auf die richtige Kategorie, einen genauen Titel und eine sachliche Beschreibung ohne Superlative und Texthervorhebungen, denn all das kann zu einer ärgerlichen Nichtaufnahme führen.

(14)

Geschichte und Architektur des Internets

Auch wenn die Bedeutung von Webkatalogen in Deutschland in den letzten Jahren stark abgenommen hat, erfahren sie im Aus- land noch eine große Beliebtheit. Das wird vor allem dann rele- vant, wenn man seine Internetpräsenz auch international bekannt machen und sich nicht nur auf den lokalen Markt konzentrieren möchte.

Bekannte Directorys sind:

Yahoo!:

http://dir.yahoo.com Excite:

http://www.excite.de Allesklar.de:

http://www.allesklar.de Web.de:

http://dir.web.de Open Directory:

http://www.dmoz.de

Ein Eintrag in das DMOZ wird von Google hoch angesehen, ist aber nicht immer einfach zu bewerkstelligen, da die Einträge ma- nuell überprüft und erst bei starker Relevanz dort akzeptiert wer- den. Immer mehr Kataloge sind inzwischen leider kostenpflichtig, was allerdings zu einem qualitativ hochwertigen Datenbestand führt. Die genannten Preise sind teilweise aber äußerst fragwür- dig und nicht immer mit dem tatsächlichen Erfolg aufzuwiegen.

Metasuchmaschinen 1.2

Metasuchmaschinen haben vor allem in der Vergangenheit eine wichtige Rolle auf dem Markt der Informationsfindung gespielt, sind aber in den letzten Jahren mehr und mehr in Vergessenheit geraten. Ihre Relevanz für den Optimierungssektor ist dadurch stark gesunken.

(15)

Spezialsuchmaschinen

Metasuchmaschinen haben keinen eigenen Datenbestand, sondern nutzen bei ihrer Suche die Datenbestände anderer Suchmaschinen und fassen die gesammelten Ergebnisse sortiert zusammen.

Das geschieht mithilfe eines einfachen HTTP-Requests, also ge- nau mit der gleichen Technik, die auch Sie für Ihre Suchanfra- gen mit dem Webbrowser benutzen. Die gesammelten Ergebnisse werden vorsortiert, nach Worthäufigkeit gewichtet und Ihnen als Einheitsergebnis präsentiert.

Da oftmals auch kleinere Datenbestände von unbekannten Such- maschinen oder neuen Webkatalogen durchsucht werden, eignet sich diese Art der Suchmaschinen besonders für fachspezifische Anfragen. Großer Nachteil dieser Verfahren ist die unterschied- liche Gewichtung der einzelnen Suchmaschinenergebnisse, die dann zusammengelegt werden müssen.

spezialsuchmaschinen 1.3

Wussten Sie, dass ein Großteil des WWWs nicht von Suchmaschi- nen erfasst wird? Das liegt zum einen am raschen Wachstum des Internets, zum anderen an zahlreichen gewollten und ungewollten Barrieren. Logins, Datenbanken, Intranet und zahlreiche weitere Faktoren sorgen für eine Art „Geheimhaltung“ vor den Suchma- schinen. So können z. B. Bibliotheksdatenbanken, die Ihre Werke ausschließlich über eine Suchmaske anbieten, nicht von Crawlern durchsucht werden. Die so erstellten Seiten sind dynamisch und werden erst durch die eigentliche Suchanfrage generiert. Die Er- gebnisse werden nicht fest als physikalische Webseite gespeichert und sind somit nicht für Suchmaschinen auffindbar.

Einen interessanten Ansatz bietet http://www.completeplanet.

com. Hier werden zurzeit über 70 000 Datenbanken durchsucht.

Das hilft, das so genannte Deep Web, also die Nischenbereiche, zu

(16)

Geschichte und Architektur des Internets

ergründen und zeigt das Potenzial, das noch im Suchmaschinen- markt schlummert.

World Wide Web heute 1.4

Das WWW, wie wir es heute kennen, wurde im Jahr 1989 von Timothy Bernes-Lee am CERN entworfen, um als hypertextuel- les Netzwerk den wissenschaftlichen Austausch zu vereinfachen.

Standard hierfür war die Programmiersprache SGML (Standard Generalized Markup Language), die sich aber sehr schnell als kos- tenintensiv und zu komplex darstellte, um gewünschte Ergebnisse zu erzielen.

Erst Anfang der 90er Jahre hatte das WWW seinen Durchbruch mit der Programmiersprache HTML (Hypertext Markup Langu- age), anfangs nur mit Funktionen der Verlinkung und Texther- vorhebung. Dieser Standard wurde immer weiter entwickelt, ist allerdings in den Augen der Suchmaschinen eher ein Rückschritt.

HTML bietet keine klaren Strukturen wie etwa Zuweisungen und verliert durch den Einsatz von CSS an mancher Stelle völlig den ursprünglichen Strukturierungsgedanken. Zahlreiche Program- miersprachen kamen im Laufe der nächsten Jahre hinzu und machten das Internet zu dem, was wir seit einiger Zeit als Web 2.0 bezeichnen.

(17)

KAPITEL 2

Nach der kurzen Einleitung starten wir nun mit dem eigentlichen Thema dieses Buches. Doch bevor wir anfangen, Webseiten zu durchleuchten und die Funktionsweisen einer Suchmaschine nä- her zu betrachten, sollten wir einen Blick darauf werfen, wonach eigentlich gesucht wird.

Wertvolle Informationen lieferte hier bis 2006 Google Zeitgeist (http://www.google.de/intl/de/press/zeitgeist.html). Heute lassen sich ähnliche Resultate durch Google Trends anzeigen (http://

trends.google.com/)

Um zu verstehen, wie man eine Webseite am besten vermarkten kann, d. h. im speziellen Fall der Internetpräsenz User auf eine Seite zu locken, muss man erst einmal verstehen, wie Suchmaschi- nen eigentlich funktionieren.

Betrachten wir zuerst einmal den so genannten Index einer Such- maschine. Hierzu geben Sie folgende Suchanfrage in Google ein:

site:www.meine-domain.de, wobei Sie natürlich eine entsprechen- de Domain einsetzen.

Nun gibt es zwei mögliche Ergebnisse: Entweder Sie sehen eine Art Fehlerdokument, das aussagt, dass keine übereinstimmenden Doku- mente gefunden wurden, oder Ihnen wird eine Liste mit Ergebnis-

suchmaschinen

2.1 Allgemeine Funktionsweise einer Suchmaschine 20

2.2 Crawler sind empfindliche Wesen 21

2.3 Suchmaschinenarchitektur 23

(18)

Suchmaschinen

sen präsentiert. Diese Liste sollte alle Unterseiten Ihrer eingegebenen Webseite beinhalten. Ist das nicht der Fall, ist es sehr wahrscheinlich, dass Google noch nicht jede Seite Ihrer Präsenz durchkämmt hat.

Woran das liegen kann, wird Ihnen nach der Lektüre dieses Buches wie Schuppen von den Augen fallen. Hoffentlich.

allgemeine funktionsweise einer 2.1

suchmaschine

Mittlerweile ist der Markt für Suchmaschinen übersättigt. Die drei Giganten Google, Yahoo! und Bing dominieren den Markt der Suchanfragen. Doch wie kam es zu dieser Gewichtung? Ein kurzer Ausflug mit dem De Lorian in die Vergangenheit der Such- maschinen:

Während noch vor einigen Jahren die so genannten Metasuch- maschinen das Vorrecht auf dem Suchmaschinenmarkt für sich beanspruchten und die bis dato ein Schattendasein fristenden Suchdienste wie WebCrawler, Altavista, Lycos und Infoseek durchforsteten, hat das Auftreten von Google die Technologie der Suche revolutioniert.

Google beachtete bei seinen Ergebnissen zum ersten Mal auch Offpage-Faktoren wie z. B. eingehende Links und deren Stärke.

Auch Yahoo sprang auf den Zug auf und begann die Offpage- Faktoren zu verarbeiten. Microsoft hat eigentlich die große Zeit der Umstrukturierung verpasst und hinkt seither den beiden Kon- kurrenten hinterher, versucht aber durch seinen relativen neuen Sprössling Bing eine eigene Suchmaschinentechnologie zu ver- markten. Das ist laut aktuellen Statistiken mit einem weltweiten Suchanteil von über 10 % inzwischen gelungen.

Die bekannten Suchmaschinen bestehen in der Basis aus den fol- genden drei Teilen:

(19)

Crawler sind empfindliche Wesen Crawler, Robot oder Spider: Das sind kleine automatisierte Skripte, die das Internet nach neuen und aktualisierten Inhalten durchforsten. Crawler agieren im Wesentlichen wie ein norma- ler Internetuser: Sie hangeln sich von Link zu Link. Daher ist es äußerst wichtig, dass auch all Ihre Seiten tatsächlich durch einen

„echten“ Link erreichbar sind. Robots besuchen Ihre Seite eher un- regelmäßig. Es kann vorkommen, dass die Aktualisierung Ihrer Webseite erst relativ spät im Index der Suchmaschinen auftaucht.

Index: Vom Index spricht man, wenn man die durch die Crawler gesammelten Datenmengen beschreiben will. Die gesammelten Informationen werden strukturiert, getagt und in einem durch- suchbaren Format abgespeichert. Greift nun eine Suchanfrage auf den Index zu, wird mithilfe von zahlreichen Algorithmen und Re- geln die Ergebnisseite aus dem Index zusammengesetzt und dem Suchenden präsentiert.

Maske: Die Maske, auch Frontend, ist die für den User sichtbare Ein- gabemaske auf der Suchseite. Sie nimmt Eingaben entgegen und lie- fert die Ergebnisse in einem lesbaren und strukturierten Format aus.

Crawler sind empfindliche Wesen 2.2

Wie werden nun die Seiten indiziert? Suchmaschinen gehen dabei nicht viel anders vor als ein Internetnutzer auf der Suche nach Informationen. Sie landen auf einer Seite und folgen den Hyperlinks zu weiteren Unterseiten. Alles, was den Robots dort begegnet, wird aufgezeichnet, verarbeitet und dem Google-Index hinzugefügt. Doch leider gibt es gerade in neuerer Zeit viele Pro- grammiertechniken, die zwar optisch einiges hermachen und nette Effekte bieten, Robots aber leider vom Weiterkommen abhalten.

Betrachten wir zum besseren Verständnis einen normalen HTML- Hyperlink, der wie folgt deklariert wird:

Referenzen

ÄHNLICHE DOKUMENTE

Write 2 otto-programs which distribute the students of faculty maths in three columns and the students from faculty informatics in 3

Consider DAT.xml at first as a source structure and second as a target structure

Stephan ist Absolvent der HBLA Wieselburg und am Betrieb für den Landwirtschaftlichen Betrieb und Urproduktion, Obstbau inklusive Direktvermarktung und allen

einen Anreiz zu umweltschonendem Verhalten zu setzen. Die Erträge aus Umweltsteuern dagegen verbleiben beim Staat und werden für staatliche Aufgaben verwendet. In

Bei hohen Fisteln ohne Crohn-Befall des Proktums sollte ein plastischer Fistelverschluß vorgenom- men werden; er ist nur in 17 Prozent der Fälle mit einem Rezidiv belastet.. In

Scanne dazu einen Text (z.B. in irgendeiner Fremdsprache), ein Bild, ein Buch,

von Consert Online Services (www.consert.de) hat unter- sucht, welche Inhalte für Pati- enten, Ärzte und Apotheker von Pharmaunternehmen im Internet angeboten werden.. Grundlage

• Wird unser Produkt für die Käufer ein Problem darstellen (abziehen)? Kann das Produkt vereinfacht werden? Wie lässt sich unser größter Produktnutzen auf einfache Weise