Upload
sebastien-bulte-meuhsli
View
3.565
Download
0
Embed Size (px)
Citation preview
Bien utiliser les Search Consoles
Qui suis-je ?Sébastien BultéConsultant SEO depuis 8 ansManager du pôle SEO chez Résonéo @meuhsli | [email protected]
QuellesSearch Consoles ?
Bing Webmaster
Tools
Google Search
Console
Baidu Webmaster
Tools
Yandex.Webmaster
1.Mettre en place des alertesPour surveiller l’état de son site
AlertesGoogle Search Console
AlertesGoogle Search Console
▪ Modification des sitelinks▪ Augmentation d'erreurs 404▪ Augmentation d'erreurs serveur▪ Augmentation de pages non suivies▪ Gros changement de trafic▪ Augmentation de pages bloquées▪ Erreur hreflang ▪ Impossible d'acceder au site▪ Mise à jour de WordPress disponible▪ Logiciels malveillants▪ etc
Transférer Les messages à l’équipe SEO
Groupe (mailling list)
Avantage : attention aux droits partagés directement dans la Search Console
AlertesBing Webmaster Tools
AlertesYandex.Webmaster
2.Une vue plus fineEn découpant les comptes
Une vue plus fineEn découpant par sous répertoires
Une vue plus fineEn découpant par sous répertoires
▪ Paramètres (Ciblage international, partage de compte, etc)
▪ Liens externes
▪ Analyse de la recherche
▪ Crawl / Indexation
▪ Erreurs
▪ Etc
3.Surveiller son profil de lienPour traquer les liens nocifs
Surveiller son profil de liensPour traquer les liens nocifs
Un export des sources de liensTriées par date de découverte
Avantage : bien qu’échantillonné, nous pouvons extraire un grand nombre de liens
Surveiller son profil de liensTrier et organiser ses backlinks
Source : Vincent Lahaye (http://www.jambonbuzz.com/focus/trier-et-organiser-le-rapport-de-backlinks-gwt-2012-07-29)
Recouper les données avec celles de Bing
Avantage : Bing fournit les ancresdes liens
Recouper les données avec celles de Yandex
Avantage : Possibilité de filtrer les urls de destination avec une étoile (*)
4.Une alternative au (Not Provided)Pour retrouver une vison par mots-clés
Retrouver les mots clés dans Le rapport d’analyse de la recherche
Mais… limité à 1 000 mots clés et sur les 3 derniers mois
Bientôt sur une plus longue périodeQue sur les 3 derniers mois ?
Source : Zineb Ait Bahajji (https://twitter.com/Missiz_Z/status/699956189740797953)
Lier son compte avec Google AnalyticsPour faire sauter la limite des 1 000 résultats
Lier son compte avec Google AnalyticsDes dimensions limitées aux requêtes et pays
Des dimensions limitées aux requêtes et paysMais pas que, avec cette astuce...
Remplacer wmt_url_impression.countryId par wmt_url_impression.url dans l’urlSource : Paul Colombo (http://poloseo.tumblr.com/)
Lier son compte avec Google AnalyticsPour archiver facilement l’historique
Jusqu’à 6 mois avecBing Webmaster Tools
5.Optimiser son taux de clicIdentifier les pistes pour améliorer son CTR
Optimiser sonTaux de clic
Optimiser sonTaux de clic
▪ Facteurs influençables▫ TITLE▫ Meta description▫ Rich Snippets ▫ Url positionnée
▪ Facteurs externes▫ Onebox / Direct answer▫ Knowledge graphe▫ Google Shopping / 4 ads▫ Requête “marque”
Optimiser sonTaux de clic
Mesurer l’impact sur votre CTRDe l’évolution des serps
Évolution du CTR :- Avant/Après le 20 février- Requêtes hors marque- Device = Desktop- Par type de position- Par importance des requêtes
6.Surveiller son indexationConnaître avec précision le nombre de pages indexées
Surveiller son indexation De base une vue très macro
Surveiller son indexation avec les sitemaps XML
Surveiller son indexation par type de contenu
Le découpage par répertoiresdans Bing Webmaster Tools
7.Influencer le crawl Des pages de son site
Forcer le crawl de ses pages
Avantage : Pouvoir envoyer une page listant d’autres urls à indexer
Forcer le crawl de ses pagesSoumettre en masse dans Bing
Influer sur le taux de crawl
Actif pendant 90 jours
Influer sur le taux de crawl
Estimer sonbudget de crawl (par défaut)
Petit site< 5 000 pages
Taille moyenne 10 000 - 100 000 pages
Gros site> 200 000 pages
Estimer sonbudget de crawl (maximal)
Petit site< 5 000 pages
Taille moyenne 10 000 - 100 000 pages
Gros site> 200 000 pages
Taux de crawl VS Pages indexées
8.Tester son fichier robots.txtAvant chaque modification
Tester son fichierRobots.txt
9.Détecter les sources de duplication A l‘intérieur de son site
Détecter les sources de duplication interne
Détecter les sources de duplication interne
10.Utiliser les API Pour automatiser vos actions
Utiliser lesAPI
▪ https://developers.google.com/webmaster-tools/
▪ https://msdn.microsoft.com/en-us/library/hh969349.aspx
▪ https://tech.yandex.com/webmaster/
▪ http://developer.baidu.com/
Utiliser les APIAvec Screaming Frog
Utiliser les APIAvec SEO Tools For Excel
▪ Analyse de la recherche
▪ Sitemap status
▪ Sitemaps
▪ Nb d’erreurs d’erreurs
▪ Échantillon d’erreurs
Utiliser les APIAvec Google Sheets
▪ Backup automatique
▪ Export de 5 000 lignes
▪ Filtres multiples (pays,
device, url, kw)
https://chrome.google.com/webstore/detail/search-analytics-for-shee/ieciiohbljgdndgfhgmdjhjgganlbncj
#seocamp#seocampus#seo
Merci !Des questions ?@meuhsli [email protected]://www.sebastien-bulte.fr