Pour ceux et celles qui s’en souviennent, mon serveur s’était fait hacker en début d’année 2012. J’avais reçu une attaque de bots automatiques et autant vous dire que j’avais du tout remettre à zéro (réinstallation des CMS, changements des mots de passes, etc…).

Et puis en mars, rebelote, ma passoire de serveur qui se mange à nouveau une attaque de bots automatiques. Non-seulement ça m’a bien énervé comme il faut mais en plus mon hébergeur faisait un peu la sourde oreille.

Afin de vous éviter d’avoir de mauvaises surprises, je vous donne son nom : il s’agit de Dreamhost. Alors bien évidemment, je suis parti de là le plus vite possible.

A partir de là, il est déjà trop tard et Google avait considéré presque tous mes domaines comme des sites piratés ou qui ne respectaient pas les bonnes pratiques. Pour mémo, les résultats pour mes domaines ressemblaient un peu à ça :

La toute puissance de la sécurité des serveurs Dreamhost

Bien laid, n’est-ce pas ? J’avais eu plein de pages d’erreur 500 générées avec des super title et meta description et j’étais devenu le roi du spam.

Bref, vu que j’avais une alerte dans Google Webmaster Tools, j’ai commencé à modifier certains trucs :

Première tentative

J’ai donc tout réinstallé de zéro, en important ma BDD (non-touchée). Une fois en place, j’ai fait une demande reconsidération auprès de Google en expliquant ce qui m’était arrivé et aussi que je n’avais aucun rapport avec les domaines qui me faisait du « link stuffing ».

Résultat : non-concluant. 5 jours après ma demande considération, j’avais toujours un message m’affirmant que d’après Google, je n’avais pas réglé le problème.

Deuxième tentative

Plutôt que de retenter une autre demande, je me suis dit qu’il fallait que je trouve un moyen de prouver ma bonne foi envers Google.

De ce fait, j’ai commencé à analyser tous les patterns d’URL qui avaient été généré par l’attaque de bots automatiques. Bien sûr, impossible qu’ils disparaissent avec le temps car il y avait des backlinks vers ces fausses pages 500.

Et bien entendu, hors de question que je fasse des 301 de ces fausses pages vers ma home, à moins de vouloir la mort absolue de mon domaine.

Ainsi, j’ai ajouté tous les patterns d’URL foireuses dans mon fichiers robots.txt et j’ai fait ça pour mes 3 domaines.

Une fois la tâche effectuée, j’ai refait une autre demande de considération à Google, mais cette fois-ci en précisant que je ne connaissais pas les domaines A, B et C qui me faisaient du linking non-désiré et que je n’ai jamais tenté de faire d’achat de liens ou d’acquisition de liens artificielle pour mon blog. J’ai également évoqué la modification de mon fichier robots.txt et que j’étais victime d’une attaque de bot (volontaire ou non).

Résultats : concluant : 4 jours plus tard, Google me répond dans le Webmaster Tools que la pénalité a été retirée et ce, sans exception pour chacun de mes sites (domaines et sous-domaines). Par contre, Google m’affiche tout de même un message d’alerte m’indiquant que mon fichier robots.txt bloque des pages importantes de mon site (trop drôle ce Google).

Le mail qui vous donne le sourire aux lèvres...

 Conclusion

On aura beau dire que Google fait ce qu’il veut, il y a des gens en face qui lisent vraiment ce que vous écrivez dans la demande de reconsidération. Je ne sais pas si la modification du fichier robots.txt est une bonne solution mais en tout cas, de mon côté, ça a fonctionné.

Reste qu’il s’agit d’un cas spécifique. Après, si vous faites du backlink comme un cochon vers vos vraies pages, ça risque d’être bien plus délicat et vous vous prendrez un vilain pingouin mérité en pleine face !

 

A lire aussi :