Click here to load reader
Upload
dominik-wojcik
View
1.844
Download
2
Embed Size (px)
Citation preview
UNSER TEAM
Aufräumen ist angesagt: „Mach deine Webseite endlich sauber“
Aufräumen ist angesagt: „Mach deine Webseite endlich sauber“
Dein Gast ist Google: Du lädst Google praktisch zu dir nach Hause ein!
„Wo anfangen? “
„Ganz am Anfang: lerne deinen Gast kennen und verstehe, wie du ihn glücklich
machen kannst!“
„Crawling“
„Erste Hausaufgabe: verstehe wie Google crawlt“
Google Crawling Architektur
URL SUBMISSION
URL SCHEDULER
URL MANAGER 1
...
URL MANAGER N
URL SERVER
ROBOT 1
...
ROBOT Z
LOCAL DNSDATABASE
COOKIEDATABASE
BASEINDEXER
DAILYINDEXER
REAL TIMEINDEXER
ANCHOR MAPS
GLOBAL STATEMANAGER
LINKMAPS
CONTROLLER
PAGE RANKERS
CONTENT FILTERS
DUPSERVER
HISTORY LOGS
LINK LOGS
RTLOGREAL TIME
RTLOGDAILY
RTLOGBASE
STATUSLOGS
https://www.google.com/patents/US7725452
„Managing URLs Patent“
www.domain.com/index..html
www.domain.com/format.css
www.domain.com/category/artikel.php?id=4
..........
www.domain.com/category/artikel.php?id=2000
www.domain.com/category/javascript.js?id=4
URLS
CRAWL UNCRAWLED PAGES
IMPORTANCE
10
2
6
...
4
1
CRAWL TO SOFT LIMIT
DO ANY UNCRAWLED PAGES HAVE A HIGHER IMPORTANCE THEN ANY
CRAWLED PAGES
YES
NO
CRAWL EXISTING PAGES
https://www.google.com/patents/US7509315
„Google hat ein Elefantengedächtnis!“
RECORD
RECORD
...
...
...
RECORD
URL FINGERPRINT
TIMESTAMP
CRAWL STATUS
CONTENT CHECKSUM
LINK CHECKSUM
SOURCE ID
DOWNLOAD TIME
ERROR CONDITION
SEGMENT ID
PAGE RANK
...
...
...
RECORD
RECORD
...
...
...
RECORD
URL
PAGE RANK
CRAWL / REUSE FLAG
DAILY FLAG
HISTORY LOG HISTORY RECORD SCHEDULE OUTPUT FILE SCHEDULE RECORD
https://www.google.com/patents/US7725452
„Patente eingetragen 2004/5“
Crawling Indexmanagement
Interne Verlinkung„Sweet Spot“
„Crawling“
• Count auf URL Ebene• Pattern Detection • Grouping & Siloing Measurement• Parameter Detection• Googlebot Filterung
• Routine Prüfung machen• Sitecheck gegen die URLs laufen lassen• Search Bots Behaviour
Monitoring / Maintaining
Logfile Analyse
History CheckSoftware
„Crawling“
• Orphan Pages • History Pages
• Botify• Loggly• Screaming Frog Log File Analyzer• ELK Stack
„Indexmanagement“
Ideale Seitenanzahl (Google Index)
Überdimensionierte Domain
Unterdimensionierte Domain
Aufbau von Seiten
Abbau von Seiten
- Seiten löschen (410 nutzen, Search Console) - Links löschen / anpassen- Canonical möglichst vermeiden
- Keyword Recherche- Themengebiete in die Tiefe gehen- Kombination von Facetten, Filtern
Zusammenfassung: Seiten die eine Suchintension bedienen, kommen in den Index, alle anderen auf Noindex. Arbeite mit Rel Next / Prev für Paginierung (und setze Noindex, wenn die Paginierung
keine Suchintention abdeckt). Parameter URLs (order by, price, etc...) werden per Rel. Canonical abgefangen oder gar
nicht verlinkt. Denke bei Parameter URLs an die Google Search Console Konfiguration! Sinnvolle Querys (Faceted Search, z.B. Größe) bekommen eigene sprechende URLs,
werden verlinkt und auf Index, Follow gestellt. Suchintension dahinter ja/nein? Nutze die robots.txt nur im äußersten Notfall oder wenn es gar nicht anders geht.
„Interne Links“
Interne Verlinkungen
Reduktion Positionierung
Siloing Maskierung
- Jeden Link hinterfragen- (Unnötige) doppelte Links entfernen- Fehler 40x / Redirects 30x / Soft 404er
-
- Reasonable Surfer Model (Welche Links sind besonders wichtig?)
-
- Bei großen Seiten z.B. über Split-Footer Verlinkungen nachdenken
- Interne Verlinkungen innerhalb eines Silos bewusst steuern. Linkgraphen bedenken!
- Interne Ankertexte sind immer noch eine Waffe!
- Post Redirect Get (PRG)- JavaScript Maskierung
-
„Quelltext“
SSL Optimierte Title Tags URL
Klickattraktive Meta DescriptionStrukturierte Daten
(Schema.org)
Verschlanke deinen Quelltext: Saubere themenrelevante Keyword Headings (h1-h6) Klickattraktive Meta Descriptions Sprechende URL-Strukturen Strukturierte Daten (schema.org) Responsive Design (First Mover, z.B. AMP) Content sollte im Mobile Bereich ebenfalls ausgespielt werden Schlanker Quelltext (Minifiying z.B. Google Mod Pagespeed) SSL Zertifikat installieren HTTP2 umstellen (Speedboost um bis zu 20%)
„Content “
„Dein Content schimmelt!“
Content Update Cycle
Content Update Cycle
Content Update Cycle
Prio A ContentSollte z.B. alle 2 Wochen aktualisiert
werden
Prio B ContentSollte z.B. alle 4 Wochen aktualisiert
werden
Prio C ContentSollte z.B. alle 8 Wochen aktualisiert
werden
Prio D ContentSollte z.B. alle 24 Wochen aktualisiert
werden
Warum Content Pflege- Themenvielfalt- QDF Faktor- Dokumentenpflege (Wie gut pflege ich
meinen Content)- Dynamischer vs. Statischer Content
Anteil -
Wie sollte ich das Scoring einstellen?- Wettbewerb- Volatil - Traffic- Rankings-
Stockfotos
REVERSE IMAGE SEARCH
REVERSE IMAGE SEARCH
Meta Daten für Bilder optimieren!
CONTENT KONSOLIDIERUNG
Verschlanke deine Website: Header Canonical von PDF Versionen auf HTML setzen Internen Konkurrenzkampf abschaffen Allumfassender Content vs. Themen-Welten Produktvarianten zusammenfassen über Hashtags # (Achtung hier indexiert Google
diese auch schon!)
Dein Content Artikel ist die neue Homepage
Heutzutage werden die Webseiten über die LPs besucht.
„DEEP SOCIAL“ REFERRALS:
MAIL, MESSENGER
SOCIAL MEDIA SHARES UND LIKES
SUCHANFRAGEN
Home Artikel
Sprungmarke
Teasertext
H1
„Monitoring “
„Ergebnis “
Danke