En SEO, Procédez par étapes : Crawl, Indexation, Optimisation – Vidéo SEO Abondance N°130

By | September 30, 2019


Bonjour et bienvenue dans cette nouvelle
vidéo Abondance dans laquelle je voulais vous parler de la chronologie, des
différentes étapes d’une stratégie SEO et de la façon finalement de mieux
les prendre en compte ou de les prendre en compte au mieux pour votre site web.
Donc la chronologie du SEO, c’est quoi ? Finalement, lorsqu’on a un site web,
la première étape c’est le crawl : le robot du moteur va venir crawler vos
pages donc évidemment c’est un point important, essentiel. Le robot va venir crawler. Une fois
ensuite qu’il a crawlé ces pages, il va les indexer, il va faire un choix en tout
cas il va en indexer certaines dans son index et une fois que ces pages sont
indexées, il va les analyser, il va essayer de comprendre leur contenu pour leur
donner une note de pertinence par rapport à l’intention de recherche de l’internaute et à la requête qu’il aura tapée. Donc c’est vraiment dans cet
ordre-là que les choses se font : le crawl, le choix, le tri, l’indexation, et ensuite
donc l’analyse du contenu. Dans votre stratégie SEO,
il sera important de prendre en compte ces différentes étapes pour les gérer au
mieux. Donc le crawl, la première étape : il faut que le
crawl soit rapide et efficace donc il faut que vous fassiez le tri des pages
importantes sur votre site qu’est-ce qui est de bonne qualité ? Et ça,
il va falloir le donner au crawl du moteur.
Qu’est ce qui n’est pas de bonne qualité qu’est ce qui est de faible qualité ?
À ce moment là, tout ce qui est de faible qualité, on le sort du crawl.
L’arborescence doit être courte, il faut que les robots puissent arriver
à crawler votre site en deux ou trois, quatre clics depuis la page d’accueil
et pas plus. Un bon plan du site pour les internautes, bien détaillé surtout si votre site fait
plusieurs centaines, milliers ou dizaines de milliers de pages. Un robots.txt
bien fait pour empêcher le crawl sur certaines zones du site. Des attributs
nofollow sur des liens qui iraient sur des pages qui seraient pas intéressantes. Des
attributs noindex dans les balises meta robots des pages qui ne sont pas indexées. Des balises de pagination pour que le robot puisse suivre le contenu paginé. Et
oui les balises de pagination sont importantes et
oui il faut continuer à les mettre dans les pages. Bien sûr une “web perf” donc
un temps d’affichage des pages rapide et un temps de réaction du serveur
rapide puisque plus vite ira votre serveur et plus vite vos pages seront
délivrées et meilleur sera le crawl. Je rappelle que tout ce qui est temps d’affichage, performance du site, web performance en règle générale, c’est
surtout sur le crawl que ça joue et pas sur le classement des pages en SEO.
Un bon maillage interne pour aller rapidement aux différentes pages, un
Sitemap xml pour faire en sorte que Google n’oublie pas des pages, etc., etc.
Donc beaucoup, beaucoup de choses et d’actions à mettre en place pour que
le crawl soit rapide et efficace. Les robots ne doivent crawler que le contenu
de bonne qualité sur votre site ! Pour le contenu de bonne qualité, vous
devez mettre en place une “journée portes ouvertes”, mais par contre vous devez
bloquer le crawl sur le contenu de faible qualité !
Une fois que le crawl s’est bien passé, il faut bien faire attention à ce que
les pages qui sont crawlées soient indexées, ne soient pas exclues de l’index. Donc
certainement à ce niveau-là, beaucoup de traitement du contenu dupliqué donc les
pages similaires, on va les traiter avec la balise “canonical”, le DUST aussi –
le fait d’indiquer qu’une page est canonique – également via la balise “canonical”, attention au duplicate externe également. Je rappelle que Google ne
pénalise pas le contenu dupliqué mais qu’il ne va donner la visibilité
qu’à une page s’il en trouve plusieurs similaires, donc faire en sorte que ce
soit la bonne page qui soit indexée et qui ait la visibilité.
Attention au volume de texte : les pages qui ont très peu de volume de
textes peuvent générer un soft 404 – page qui
renvoie un code 200 mais qui sera traitée comme une 404 – donc ce n’est pas bon. Attention aux 404 aussi, je rappelle également que Google ne pénalise pas les sites qui ont beaucoup d’erreur 404, mais que ça fait
du budget crawl et du crawl inutile et des pages qui de toutes façons ne
seront pas indexées. Les balises Hreflang également, si vous avez des sites pour
plusieurs pays, pour que Google indexe bien de façon propre chaque site pour
chaque pays etc. Et puis ensuite l’analyse,
bien sûr, c’est l’optimisation SEO les classiques : les balises Title,
H1-H6, strong, la meta description, les attributs alt sur les images et
c’est bien sûr être le meilleur sur le Web pour répondre à l’intention de
recherche de l’utilisateur. Car c’est ça le SEO : être le meilleur pour répondre
à l’intention de recherche de l’utilisateur !
Choisir sa requête cible, choisir un champ lexical riche et intéressant, faire
de bons ancrage de liens internes, bien intégrer le plus de balises de données
structurées possible, etc., etc., etc. On est bien dans le fait de répondre à une bonne analyse du moteur de recherche.
En gros il faut bien suivre les étapes dans le bon ordre, ne donner à
Google que les pages à crawler, et là dans le cadre de son budget crawl, il va
vraiment faire un focus sur ce qui est intéressant. Ensuite
faire en sorte que ces pages-là soient toutes indexées et évidemment qu’elles répondent à l’intention de recherche de l’internaute. Mais ça n’est pas la peine
de travailler à l’optimisation des pages de faible qualité par exemple.
Suivez bien ces étapes dans le bon ordre et tout devrait bien se passer.
Voilà, je vous souhaite une excellente semaine et je vous dis à très bientôt
pour une nouvelle vidéo Abondance. Merci (et une léchouille de Mila 😉 ) Au revoir !

Leave a Reply

Your email address will not be published. Required fields are marked *