Le SEO, comme tous les métiers, est pourvu de ses cataclysmes et tornades que l’on peut qualifier comme désastres qui donnent des sueurs froides. Et bien évidemment, la question suivante se pose :
“Comment gérer les catastrophes SEO qui ne sont pas dû à mon travail ?”
Franchement, n’y allons pas par 4 chemins : quand vous vous retrouvez parmi 4 situations sur les 5 évoquées ci-dessous, il y a de quoi devenir rouge de colère, surtout quand les alertes avenantes ont été envoyées à maintes reprises et que l’inévitable se produit.
Ca vous fait chier, ça vous énerve et ça peut générer une belle dose de frustration, surtout quand il s’agit d’un client que vous suivez depuis longtemps (mes chers confrères in-house, je vous soutiens).
Soit ! Reste que maintenant ce qui est fait est fait, il va falloir faire avec et de toute façon, votre employeur/votre client sait que ce n’est pas votre faute.
Ceci étant dit, une solution de récupération va devoir être proposée. Peu importe que celle-ci vous permette de récupérer 10 ou 90% du trafic, vous vous devez de le faire, même si ça vous gonfle.
J’ai listé ci-dessous un ensemble de 5 catastrophes que j’ai pour ma part, vécu plusieurs fois depuis le début de ma carrière en référencement.
1. Le fichier robots.txt mal configuré
J’en vois déjà qui rigolent mais ce problème peut générer une belle catastrophe au niveau du trafic issu de la recherche naturelle. L’avantage de cette catastrophe, c’est qu’elle se règle très facilement. L’inconvénient, c’est que les effets se font sentir peu à peu sur la longueur et que selon la taille du site, il faut aussi quelques temps avant que le trafic revienne à la normal.
Bien qu’un Disallow: / soit meurtrier pour le référencement de votre domaine, il suffit de quelques secondes pour le modifier. Enlevez-le et remplacez le par des interdictions sur des répertoires vraiment inutiles ou au pire, laissez votre fichier robots.txt vide.
Pour info, on peut associer l’indexation des versions de préprod à ce point aussi. C’est le genre de catastrophe qui se répare très vite et facilement.
2. Le site qui tombe et/ou est en maintenance
Là encore il s’agit d’une catastrophe dont l’ampleur peut varier. Un site qui tombe 1h n’a pas les mêmes répercussions qu’un site qui est down pendant 7h ou 3 jours. Bien sûr, c’est une catastrophe pour laquelle vous n’avez normalement pas la possibilité d’agir.
Le mieux à faire, c’est d’anticiper ce problème en vous informant comment sont gérés les sites. Y a-t-il un backup si le serveur tombe ? Si oui, est-ce une réplication exacte du site ? Enfin, pensez à renvoyer des pages avec un code HTTP 503 si vous avez une indisponibilité temporaire, que ça dure 1, 2 ou 8h. Ça permettra d’envoyer un signal aux moteurs pour leur faire comprendre que c’est temporaire et que “Promis, vous allez faire votre possible pour que ça redevienne normal rapidement”.
Quoiqu’il en soit, le mieux à faire est d’informer les responsables au plus tôt de la situation et des conséquences éventuelles si l’indisponibilité persiste dans le temps.
3. Le domaine se fait hacker
Voilà un bel exemple de catastrophe. Du jour au lendemain, vous perdez le contrôle sur le domaine et voilà que toutes vos pages se transforment en contenus pourris ou totalement différent. En clair, le domaine existe mais votre site a disparu.
Là, clairement, vous n’allez pas être le seul à commencer à paniquer normalement vu que ça va impacter tous vos collaborateurs à court terme. Au niveau SEO, les moteurs disposent de critères pour détecter ce genre de choses. Google lui-même a de la documentation sur le sujet (générique certes).
A partir de là, vous avez 2 solutions :
- Soit vous patientez en misant tout sur vos équipes pour que le domaine vous revienne rapidement entre les mains. Si ça se fait, n’hésitez pas à faire une demande de réexamen auprès de Google lorsque tout sera revenu à la normale en expliquant clairement ce qu’il s’est passé.
- Soit, si ça traîne, vous pouvez opter de migrer temporairement(?) tous vos contenus sur un nouveau domaine. Clairement, c’est moche, c’est foireux mais c’est mieux que de ne plus rien avoir du tout. Reste que vous pourrez rediriger en 301 par la suite ces pages vers les véritables URL originales si vous récupérez votre domaine.
4. La suppression d’un grand volume de contenus
Si nous n’avons pas tous la même vision d’une telle action, elle se traduit souvent par une catastrophe d’un point de vue SEO.
En effet, lorsqu’un propriétaire d’un site décide de supprimer une bonne partie de son contenu parce qu’il est “trop vieux” ou alors “plus dans les termes d’un contrat”, ça se traduit souvent comme un raz-de-marée niveau SEO.
Bien souvent, il m’arrive d’avoir à gérer de la suppression massive de contenus car “l’entente avec le partenaire est terminée”. Soit ! Cependant, on ne reste pas inactif et on redirige encore moins vers la homepage toutes les URL supprimées.
La meilleure solution consiste à trouver une alternative à cette suppression. OK, le client supprime tout mais ne veut pas perdre son trafic : on remplace.
On supprime 2560 pages ? A ce moment-là, il va falloir trouver environ 2560 pages qui vont remplacer nos futurs disparues. Quand je dis environ, c’est tout simplement dû au fait qu’on peut remplacer certains contenus par quelque chose de plus recherché, plus dense ou alors tout simplement mis à jour qui suscitera plus d’attention.
Quoiqu’il en soit, il s’agit là d’un travail de longue haleine car il faut réussir à trouver des remplaçants équivalents pour le contenu qui va être supprimé. Néanmoins, bien géré et surtout bien encadrée, cette suppression peut ne pas laisser de trace au niveau trafic. Pour les sources, et bien faites vos recherches. Parfois, il peut y avoir plein de contenus offline à exploiter… Et parfois il faut chercher plus loin.
5. Les changements de domaines/extensions sans redirections
La dernière catastrophe que je souhaite évoquer arrive lorsqu’un client souhaite mettre à jour son site, le changer, le remodeler et que par magie, personne ne vous a dit que le domaine ou l’extension allait changer.
Et Ô malheur, le jour J, vous vous rendez compte que tout a été migré sur un nouveau domaine et bien sûr, aucune redirection n’a été faite.
Dans l’immédiat, clairement c’est la merde car vous n’allez pas récupérer le trafic de votre ancien site, ni l’historique et les performances organiques accumulées (prévoir une perte de 80% du trafic – Cas pratique à l’appui :) ).
C’est à ce moment-là qu’il va falloir être très réactif, monopoliser les ressources techniques et mettre en place des règles de redirections permanentes.
Si la structure du site n’a pas changé, ça devrait être assez simple. Cependant, si en plus de changer le domaine et la CSS, le client en a profité pour revoir toute la structure interne, il va falloir mettre les bouchées doubles pour faire des règles de redirections et trouver les bonnes correspondances.
Alors évidemment, si votre site fait 30 000 pages, vous n’allez pas bourrer le fichier htaccess mais trouver une autre solution… Néanmoins, il faut agir vite car à “chaque jour” sans redirection, c’est la corde Google du pendu qui se rapproche un peu plus de votre site web.
Evidemment, la catastrophe reste la même si un seul caractère change dans l’URL : monsite.ca/recettes/tarte-au-citron.php qui devient monsite.ca/recettes/tarte-au-citron, ça change tout !
Bref, de mon côté, ce sont les 5 catastrophes principales que j’ai pu rencontrer et à un moment donné, il faut bien se rendre à l’évidence que ça nous tombe sur la tête au moins une fois dans notre vie. Prenez-le comme un bon challenge pour enrichir votre expérience.
Si j’ai oublié une catastrophe naturelle du SEO, n’hésitez pas à l’ajouter en commentaire.
Il y a aussi celle-ci qui m’est arrivée récemment :
une ancienne version, placée dans un sous-domaine, non prévue pour être indexée, unique pour des raisons de comparaison et qui … s’indexe et ranke parfois devant le nouveau site.
ZE grosse galère ! La solution : identifier toutes les pages, rediriger les anciennes pages vers les nouvelles et se prendre un taquet comme Dinozzo :
J’ai vécu la situation 1 : lecas du robots.txt qui mettait tout le site en disallow et après avoir corrigé, malgré de bons liens, du ping, des tweets et +1, le site a mis 3/4 jours à repartir …
La situation 2 sur un site perso donc pas grave (oublié de renouveler l’hebergement) => site down pendant plus de 10 jours et ça n’a pas pardonné : le site a perdu toutes ses bonnes positions et maintenant près d’un après, il n’est jamais revenu à ses positions …
Et aussi la situation 5 : très énervante quand on a bien bossé sur un site et qu’on voit genre une semaine après qu’il a changé d’URL et que les 301 béh il y en a pas !!!!
Je rajouterai juste à la catastrophe 1 le cas du no index sur toutes les pages.
Autant les catastrophes de type hacking ou site en rade sont des laits à surveiller sur le feu ; mais quant aux redirections domaines qui se font mal.. là c’est plutôt de la non-préparation, qui pourrait être de l’incompétence !
Les redirections de domaine se travaillent !
Bonjour,
J’ai malheureusement eu à faire à plusieurs reprises avec le cas n°2, mais malheureusement, je ne pouvais rien faire, n’ayant pas accès au serveur.
Du coup, je n’ai pas renouvelé l’abonnement!
Malheureusement je n’ai jamais vécu une seule de ses situations. Je dis malheureusement, car le jour où ca arrivera c’est que je serais référenceur de métier. ^^
@Antonin : Je ne pensais pas qu’un site down pendant quelque jours aurait du mal à reprendre ses postions, surtout un an après …
A ajouter : Le domaine n’a pas été renouvelé :)
Je viens de le vivre il y a un mois :s
Perso j’ai aussi vécu tous les cas et je peux dire que tous contrairement à ce qu’en pense Marc ne peuvent pas toujours être prévu.
Je m’explique un jour je travaille sur un site le client me dit d’aller voir le site en refonte sur une adresse temporaire je vérifie direct que le robots.txt est en Disallow: jusqu’ici pas de souci, le souci c’est que quelques jours plus tard pour faire des tests le développeur a supprimé celui-ci, sans bien sur en parlé,…. Catastrophe imprévisible
Pour moi l’un des pires catastrophes c’est la suppression du contenu.
J’ai vécu le cas c’est très galère surtout que ce n’est pas si facilement repérable si le client omet de vous le dire ^^quand vous lui demandé s’il a fait des modifications sur son site.
Et le Must de la catastrophe pour moi c’est le hack car vous ne savez jamais jusqu’ou le hacker à pu remonter et ce qu’il a pu faire voici quelques conseils :
-> rapatrié le site hacké, faire un scan de celui-ci avec un antivirus pour voir s’il n’a pas utilisé une backdoor à la noix.
-> checké les repertoires d’upload et vérifier les fichiers si vous trouverez des images bizarres, des fichiers textes au milieu de vos images, c’est une faille sur champ textfield
->Regarder le code source de votre page accueil header footer pour voir si un bout de code
n’a pas été ajouté, la c’est galère à voir parfois
-> si possible utilisé un scanner de faille de site web type Nmap ou Retina
-> bien sur changer TOUS les pass, bdd, ftp, nom de domaine, mail, …. mais à la fin uniquement lorsque vous êtes sur d’avoir corrigé la faille et supprimé les éventuelles backdoor, scanner, …
Le plus beau hack vu le mec à réussi a uploader une backdoor avec une checksum remaniée il a ensuite posé un bout de code en display none, qui faisait appel à un include encodé en base 64 et qui affichait une palanqué de liens pas catholique.
La backdoor était protégée par un firedaemon donc dès qu’on a viré la back cela à fait un appel à un pc zombie qui à réinstallé la backdoor quelques heure après via la même faille .
La je peux vous dire dans ce genre de cas si la webagency à pas d’ancien hacker dans son équipe vous allez perdre des cheveux.
Pas faux : je ne l’ai pas encore vécu d’où mon oubli mais ça doit faire mal. Après généralement, il n’y a pas un délai de 10/15 jours si tu oublies de renouveler ? Généralement, ton registar te bombarde de mails d’alertes non ? :)
Pour le cas 3, on pourrait presque le remplacer par “mon site s’est fait penguiné ” !
Pas les mêmes symptômes mais le remède qui consiste à tout migrer sur un autre nom de domaine est parfois le meilleur.
Dans ces 2 cas, c’est l’essence même de ton site qui est affecté, à savoir le contenu. Donc c’est sûr que ça fait très mal. Un site qui tombe, même 3 jours, peut revoir la lumière du jour en supposant que tous les contenus soient conservés. Un site piraté ou qui perd 30% de son contenu sans remplacement, on est d’accord, ça fait mal !
Et le client qui vous fait bosser sur une action de linking assez costaud, et qui quelques mois après modifie le contenu des pages de son CMS (en gardant les URL) avec des textes qui n’ont plus rien à voir et modifie ses menus. Résultat, un écroulement des positions, et le client qui se demande pourquoi il n’apparait plus sur des expressions alors que le site ne parle même plus du sujet…
Bref, les expériences de SEO sont parfois amusantes…
J’ai vécu un de ses cas et j’avoue ça fais mal.Le serveur s’est planté à cause d’un nombre trop important de visiteur en peu de temps.Une belle occasion de me faire du cash adsense gâchée tous simplement
Encore plus pervers que l’agent Disallow (à vérifier aussi pour les images cela dit en passant), le pire de la loose en SEO a plus de probabilités de tomber sur la tête du client: lorsqu’il tombe sur un magicien lui promettant la première page des Serps. Et c’est la saison en ce moment.
J’ai connu et je connais toujours ce genre de problème. Déjà assure toi que le serveur sur lequel tu héberges ton site soit propre : est-ce qu’il y a des sites pourris qui sont hébergés au même endroit ? Est-ce que la sécurité du serveur est bonne ?
Après, c’est sûr qu’il faut être capable de détecter d’où viennent tous les liens pourris et tester l’outil pour désavouer les domaines moisis qui font des liens entrants vers ton site.