Avant de démarrer ce post, je voulais juste remercier tous mes lecteurs/lectrices qui ont repartagé et réagi sur mon article de la semaine dernière. Après 2 ans de pause, je ne m’attendais à voir tant de réactions ainsi que quelques messages encourageants. Sachez que j’ai été très agréablement surpris et je vous ai tous/toutes lu(e)s avec attention. Donc un gros merci, ça fait toujours plaisir !
Concernant le post du jour, le titre vous rappelle quelque chose ? Si oui, c’est normal, j’avais rédigé un post assez similaire il y a 9 ans. Depuis, les choses ont pas mal bougé dans le monde du référencement et à force de faire de l’analyse de logs et des tests avec (ou sans) ODN, je me suis dit que ça pourrait être sympa de partager mon point de vue mis à jour sur le sujet.
Le SEO vit dans un univers où la patience et l’incertitude sont de rigueur. Mais pour certains actions spécifiques du métier (et en trouvant la bonne façon d’optimiser), les choses peuvent bouger plus vite qu’on ne le pense.
Ce qui suit n’engage que moi et se base sur les résultats d’expériences passées à travers des sites eCommerce (moyens et grands comptes).
Changer le title
Le <title> est – selon moi – toujours l’élément éditorial le plus important en terme d’indexation et de ranking dans les SERP pour un document. Oui, il est possible de ranker pour des mots qui ne sont pas dedans mais le changer renvoie un signal d’évidence bien plus fort aux moteurs.
- Temps d’attente : dans les 3 à 5 jours maximum après l’avoir modifié (changement dans les SERP).
- Gain : % d’augmentation de clics non brandés dans les SERP (15 à 20% dans mon cas) mais aussi un impact sur le CTR.
Optimiser le titre H1
Alors pour être honnête, je n’étais pas ultra chaud à l’idée de refaire des tests sur mes titres “on-page”. Je pensais que c’était un titre plutôt secondaire et qu’on parlait de toute petite optimisation. Et bien figurez-vous que j’avais tort.
- Temps d’attente : 7 à 9 jours en moyenne pour voir des changements/reconsidération des bots.
- Gain : % d’augmentation de clics non-brandés entre 7 et 10% (oui, je sais, ça fait beaucoup pour du H1).
Ajouter des règles dans le fichier robots.txt
L’analyse de logs permet de se rendre compte facilement si on a des patterns d’URLs moisis qui ajoutent du bruit inutile dans le crawl. Il peut s’agir de pages orphelines, vieilles landing pages Paid Search ou tout simplement une belle liste d’URLs ad-hoc avec des paramètres à n’en plus finir. Et lorsqu’on en a vraiment beaucoup, ajouter quelques règles dans le fichier robots.txt permet rapidement d’aider Googlebot à se focaliser sur ce qui est important pour la business.
- Temps d’attente : moins de 24h pour des vieilles URL PaidSearch, approx. 2 jours pour les URLs normales (même si en théorie, cela devrait être immédiat).
- Gain : augmentation de la fréquence de crawls pour les pages clés (6-9%), augmentation du nombre de pages crawlées plus d’une fois qui sont dans le sitemap XML. Pas de % à partager, c’est vraiment du cas par cas spécifique selon les sites.
Intégrer des données structurées dans vos pages
En 2010/2011, intégrer des données structurées sur le site de son client, c’était pas le même défi qu’aujourd’hui. J’utilisais beaucoup les microformats, il fallait remplir un formulaire Google pour les soumettre et attendre plusieurs semaines avant de voir un éventuel changement dans les SERP. Dans le cas contraire, on recevait même un email d’un de leur spécialiste nous expliquant pourquoi notre code n’était pas valide. Le travail était assez fastidieux mais quand ça marchait, c’était vraiment la fête.
Il valait mieux donc écrire du code uuuultra propre dès le 1er jet, histoire de ne pas s’apercevoir 3 semaines après que notre implantation n’était pas correcte.
Aujourd’hui les choses ont changé. Le standard Schema.org est bien implantée, évolue régulièrement et les principaux l’utilisent. Google (et pas que) propose des outils comme celui-ci ou celui-là afin de savoir si 1) le code est bien écrit et 2) il est reconnu par le moteur. Et cerise sur le gâteau, il est possible de soumettre son URL directement depuis GSC et voir si le résultat concorde à nos attentes.
Du coup, plus aucune excuse pour ne pas faire des tests en continue.
- Temps d’attente : 1h à 2 jours (dépendant du schéma).
- Gain : augmentation du CTR de 5 à 25% (non-brand) et de 50 à 80% (brand).
Rediriger les pages dupliquées orphelines actives
L’analyse de logs permet de détecter des contenus dupliqués et là ou c’est encore plus fort, c’est lorsque la duplication du contenu original reçoit des visites depuis les SERP. Généralement, c’est l’occasion d’en profiter pour faire un peu de 301 histoire d’unifier tout ça. Si le coeur vous en dit (et que vous avez le temps), vous pouvez partir à la chasse aux liens externes qui pointent vers la mauvaise version et tenter de les faire changer mais bon courage…
- Temps d’attente : moins d’une semaine (une page active est crawlée plus souvent par les moteurs donc la reconsidération est plus rapide).
- Gain : dans mon cas, c’était du 1 à 2% de visites en plus depuis la recherche organique mais vu l’effort à faire derrière, c’est tout bénef.
Créer des liens internes vers des pages non-indexées
Si vous aimez faire de l’analyse, il est possible de savoir quelles sont les pages de votre site soumises dans le sitemap XML (qui sont donc supposées être indexées) et qui pourtant ne le sont pas. Pour un grand compte, ce sont des choses qui peuvent arriver car parfois, certaines pages sont vraiment situées au fin fond du site.
En réalité, il est compliqué de négocier des liens internes vers ces pages depuis d’autres pages critiques (ex: pages produits) car l’équipe merchandising flippe que ça va impacter l’expérience usager. Dans ce cas, j’aime bien me faire une page pansement à l’arrache qui va linker ces pages profondes pour qu’elles s’indexent et me génèrent du trafic sur la longtail. Et puis s’il y en a qui gueulent sur la présence de cette page, je leur demande de se débrouiller pour m’inclure des liens depuis leur pages produits :p.
- Temps d’attente : 1 à 2 semaines maximum
- Gain : 2 à 3% de visites seo en plus car c’est généralement spécifique (et j’espère que vous n’avez pas trop de pages de ce genre) mais c’est toujours bon à prendre.
Si vous avez lu cet article jusqu’au bout, je suis sûr que vous avez l’impression qu’il en manque. Reste que l’expérience de chacun varie. Par exemple, on entend souvent :
- Ajouter un texte descriptif dans la balise ALT de mes images : ça n’a pas vraiment changé grand chose. Pourquoi ? A mon avis, isoler cette amélioration sans faire une vraie stratégie de référencement pour les images n’a pas l’effet escompté, tout simplement.
- Mettre le fil d’ariane dans des données structurées : c’est facile à faire, Google comprend mieux votre structure et pourtant, c’est loin d’avoir un effet positif sur l’expérience usager dans les moteurs. Faites le test et comparez votre résultat avant/après dans les SERP : vous verrez, une info cruciale sera manquante ;).
PS : oui, j’adore les films d’Alfred Hitchcock mais je me voyais mal remettre Forrest Gump en illustration :p