• Keine Ergebnisse gefunden

> Es gibt einige Systeme, die über API erreichbar sind:

N/A
N/A
Protected

Academic year: 2022

Aktie "> Es gibt einige Systeme, die über API erreichbar sind:"

Copied!
66
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)
(2)
(3)

> Es gibt einige Systeme, die über API erreichbar sind:

> Google Search Console

> Google Analytics

> Link-Datenbanken: Ahrefs, Majestic, Moz (jeweils kostenpflichtig, außer Moz)

> Page Speed Insights

(4)

100% müssen es sein!

(5)
(6)

> Zuerst Verbindung herstellen

(7)
(8)
(9)
(10)

> Content Audit:

> Welche Seiten einer Website sind gut verlinkt?

> Massen-Checks:

> Wie gut sind 10.000 konkrete Seiten/Websites verlinkt?

(11)
(12)

> GA und GSC: Quelle realer Nutzerdaten

> Auch (und vor allem): Erfolgsmetriken (Conversions …)

> Beide Quellen können im Frog angezapft werden:

Configuration > API Access

> Konfiguration recht einfach

(13)

> … in den Tabs „Analytics“ bzw. „Search Console“

(14)

Filter Was tun?

Sessions Above 0 Seite hatte mind. eine Session (Positivfall) Bounce Rate Above 70% Hohe Bounce Rate (muss nicht schlimm sein) No GA Data Keine Daten für diese URL erfasst (also: niemand

hat diese Seite im Zeitraum besucht)

Non-indexable with GA Data Seite hat Sessions, ist aber eigentlich nicht indexierbar (kann auf Probleme hinweisen)

Orphan URLs Siehe Orphans

(15)

Filter Was tun?

Clicks Above 0 Seite hatte mind. einen Klick (Positivfall)

No GSC Data Keine Daten für diese URL erfasst (also: keine Klicks, keine Impressionen)

Non-indexable with GSC Data Seite hat Klicks, ist aber eigentlich nicht indexierbar (kann auf Probleme hinweisen)

Orphan URLs Siehe Orphans

(16)

> Typische Fragestellungen:

> Habe ich Seiten mit vielen Klicks und hoher Klicktiefe?

(Dann: interne Verlinkung verbessern)

> Welche meiner Seiten haben keine/wenig Besucher?

(Prüfen: Kann ich die Seiten optimieren? Oder sperren?)

(17)
(18)

> Anders als manch anderer Crawl:

Der Frog holt sich die Daten über eine API von Google

> Heißt:

> Man braucht einen API-Schlüssel

> Jede Abfrage kostet richtig Zeit

> Der Frog muss die Seite nicht selbst rendern

> Empfehlung: Nie für den kompletten Crawl machen!

> Stattdessen: 10 URLs pro Seitentyp (List-Modus)

(19)
(20)
(21)
(22)
(23)
(24)

> Hilfreiches Feature:

Configuration > Custom > Search

> Man kann nach bestimmten Sachen im HTML-Code suchen:

> Positiv (kommt vor)

> Negativ (kommt nicht vor)

(25)
(26)

> Filter müssen vor einem Crawl definiert werden

> Es können max. 100 Filter definiert werden

> Theoretisch kann man auch mithilfe von regulären Ausdrücken suchen:

> https://docs.oracle.com/javase/8/docs/api/java/util/regex/Pattern.ht ml

> Wer das nicht macht: Groß-/Kleinschreibung wird ignoriert („MAILTO“ und „mailto“ liefern dieselben Ergebnisse)

(27)
(28)

> Beispiele:

> Fehlt ein bestimmter Code in einigen Seiten? („UA-123456“)

> Fehlt ein bestimmtes Tag in einigen Seiten?

>

(29)

> „Search“ liefert nur, wie oft etwas in Seiten vorkommt

> Keine Möglichkeit, sich dann z. B. auch die Tags anzeigen zu lassen

> Dann braucht man…

(30)
(31)

> Extrem hilfreiches Feature:

Configuration > Custom > Extraction

> Man sucht nach bestimmten Stellen und extrahiert Daten

> 100 Extraction-Filter möglich (losgelöst von den Such-Filtern)

(32)

> Es gibt drei Möglichkeiten, zu definieren, was man wo extrahieren möchte:

> Reguläre Ausdrücke

> CSSPath

> XPath

(33)

> Produktdetailseiten bei obi.de

(34)

> <p class="article-number text-bold" tm-data="ads.description- text.article-number.p">Art.Nr. 1224278</p>

> Um etwas zu extrahieren, brauche ich etwas

> davor: >Art.Nr.

> dahinter: </p>

> Alles zwischen diesen beiden Markern soll extrahiert werden!

(35)

> Regulärer Ausdruck:

>Art.Nr. (.+?)</p>

Name (egal)

Regex CSSPath

XPath

Ausdruck

(36)

> Am Anfang soll „>Art.Nr. “ stehen

> Am Ende soll „</p>“ stehen

> Alles dazwischen soll extrahiert werden

>Art.Nr. (.+?)</p>

(37)
(38)

> Nicht gerade intuitiv

> Möglichkeit, nach bestimmten Tags/Attributen zu suchen

(39)

> <strong itemprop="price" tm-

data="ads.price.strong">19,99</strong>

> Der XPath-Ausdruck dafür:

//strong[@itemprop='price']

(40)
(41)
(42)
(43)

> Funktioniert oft - aber nicht immer gut

(44)

> Typische Fälle:

> Wettbewerbs-Beobachtung ☺ (Vorsicht!)

> Relaunch: Alte auf neue Produktseiten umleiten

> Endkontrolle: Gibt es überall einen Text?

> Bestandsaufnahme: Welche Texte gibt es wo?

>

(45)

> Es gibt auch XPath-Funktionen, z. B.

(46)

> count() = wie viele gibt es?

> string-length() = Buchstaben zählen

> Noch mehr:

> https://developer.mozilla.org/en-US/docs/Web/XPath/Functions

(47)
(48)

> Wichtig für einige Diagnose-Schritte beim Frog

> … und auch für die neue Google Search Console

> Also: unbedingt nutzen!

(49)

> Alle URLs in XML-Sitemaps:

> HTTP-Code 200

> URL = Canonical-Tag

> Nicht per robots.txt gesperrt

> Nicht per Robots-Meta-Tag „noindex“ gesperrt

> Gesamtanforderungen:

> Dateigröße max. 50 MB

> Maximal 50.000 URLs pro Sitemap

(50)

URLs aus XML-

Sitemap(s)

URL aus Crawl

URLs, die in XML- Sitemap fehlen

(relevante und irrelevante) Orphans = URLs, die

beim Crawl nicht gefunden wurden (intern nicht verlinkt?)

Ideal: In XML-Sitemap und kann gecrawlt

werden

(51)

> Ideal: Crawl laufen lassen und mit XML-Sitemaps abgleichen

> Sicherstellen:

> Die XML-Sitemaps müssen den Regeln genügen

> Dann prüfen:

> Gibt es relevante URLs, die in der XML-Sitemap fehlen? (nicht so schlimm)

> Gibt es URLs, die in der XML-Sitemap vorkommen, aber beim Crawl fehlen? (deutlich schlimmer!)

(52)

> Configuration > Spider > Crawl >XML Sitemaps

> Option „Crawl Linked XML Sitemaps“ auswählen

> Unter „Crawl these Sitemaps“ URLs aller Sitemaps angeben

> Crawl durchlaufen lassen, „Crawl Analysis“ nicht vergessen

> Alle Informationen im Tab „Sitemaps“

(53)

Filter Was tun?

URLs in Sitemap Positivfall (keine Implikation)

URLs not in Sitemap Prüfen: sind das wichtige Seiten? Falls ja: in XML- Sitemap aufnehmen

Orphan URLs In XML-Sitemap, aber nicht im Crawl gefunden Non-indexable URLs in Sitemap Sollte es keine geben (404, robots.txt …)

URLs in multiple Sitemaps Unschön (sollte vermieden werden) XML Sitemap with over 50k URLs Technische Vorgabe verletzt

XML Sitemap over 50MB Technische Vorgabe verletzt

(54)
(55)

> Unbekannte Seiten:

> Nicht im Crawl aufzufinden (also intern nicht verlinkt)

> Haben eine URL

> Sind evtl. im Index, haben evtl. Traffic

> Passiert das oft?

> Eher nein

> Oft Seiten, die bei einem Relaunch vergessen wurden

(56)

> Eine Möglichkeit hatten wir schon:

> XML-Sitemap

> Welche kann es noch geben?

(57)

> Verbindung Google Analytics oder Search Console:

> Gibt es Seiten mit organischem Traffic?

> Also:

> Verbindung herstellen (GA oder GSC)

> Option „Crawl New URLs Discovered in …“ auswählen

> Crawl durchlaufen lassen, „Crawl Analysis“ nicht vergessen

> Und dann:

> Reports > Orphan Pages

(58)
(59)

> Klassischer Fall:

> Produktdetailseiten kanonisieren auf die URL ohne „c“

> Crawler muss alle Dubletten laden, kein Mehrwert

(60)

> Irrelevante URL-Parameter können aus URLs entfernt werden

> Zur Erinnerung: URL-Parameter:

> …?parameter1=wert&parameter2=wert2

> Vorteil:

> Schnellerer Crawl

> Gleiches Verhalten wie Google (siehe nächste Folie)

(61)

> Korrespondiert mit Report „URL-Parameter“ (alte GSC)

> Auch hier können Parameter als irrelevant markiert werden

(62)

> Configuration > URL Rewriting

(63)
(64)
(65)

> Das Ersetzen/Umschreiben passiert nur im Frog!

(66)

Referenzen

ÄHNLICHE DOKUMENTE

Um diese erkennen zu k¨onnen, wird die Grammatik um zwei Token zum Erkennen von E-Mail- Adressen und URLs erweitert, ¨uber die sich die in den Nachrichten enthaltenen URLs

Darüber hinaus gilt es noch eine Frage zu beantworten, welche im ersten Abschnitt gestellt wurde (zur Erinnerung: Wie kommt es, das Satans Taten als schlecht abgetan werden, wenn

Wenn weder Anpassung an die amerikanische Politik noch Gegen- machtbildung als Grundlagen einer bitter notwendigen europäischen Au- ßenpolitik durchsetzbar sind, dann kann

Bitte beachten Sie, daß die URLs in dieser Mail aus technischen Gründen nur zweizeilig dargestellt werden können.. Sämtliche Veröffentlichungen von H-ArtHist können Sie

weites Forschungsprojekt zeigte, dass Ausschrei- bungs- und Quotenmodelle wie sie in Großbri- tannien und den Niederlanden verbreitet waren, weder zu einem nennenswerten Ausbau der

Sprechende URLS Neues Modul zur Darstellung der Sprechenden URLs Performancesteigerungen Diverse Verbesserungen des Aufbaus des Menüs Lokale Suche Diverse Verbesserungen in der

Sprechende URLs Diese funktionieren nun auch in der Fußnavigation und in der Breadcrumb Verschlüsselung Die Funktion zur Verschlüsselung von eigenen Templates wurde erweitert:

Welche der Stilregeln für UML-Klassendiagramme (Abschnitt 1.1.20 der Materialsammlung und dort zitierte URLs)?. werden in den