Analyse de la période de rafraîchissement du cache de Google

Si vous me suivez régulièrement, j’avais annoncé que je m’étais fait hacker mon site courant décembre. Résultat : des snippets et des titles complètement pourris pour la grande majorité des posts de mon blog. Je précise également que ce problème a principalement touché les posts des 2-3 dernières années.

Bref, après avoir fait un ménage total sur mon serveur, je me suis dit qu’il serait bon de tenter différentes options afin d’avoir un retour à la normal. Je remercie aussi Nicolas Guillard de m’avoir suggéré l’étude du comportement de Google concernant la période de rafraîchissement du cache de son index.

Grâce à son aide, je vais pouvoir démarrer une autre petite expérience en parallèle de tout ce qui est indiqué ci-dessous.

Nicolas Guillard est un expert dans le domaine du webanalytics mais c’est avant tout un de mes anciens collègues que j’apprécie beaucoup et avec qui il est toujours plaisant d’échanger sur l’analyse web.

Pour en revenir à l’analyse en tant que tel, je précise que ce début d’expérience se fait sans accès à mes logs à cause d’un problème technique chez mon hébergeur… Pas fun, mais faut faire avec !

Le 17 janvier, j’ai soumis un nouveau sitemap via Google Webmaster Tools en augmentant la vitesse de crawl. Environ 12 jours plus tard, j’ai commencé à voir que la plupart des posts récents avaient retrouvé un title et une meta description adéquats dans les résultats Google. Néanmoins, il reste encore pas mal de résultats aux snippets moisis.

Pour plus de précision, je m’aperçois surtout que les posts les plus récents (mois en cours) ont très rapidement retrouvé un snippet normal. Normal ? Oui car ils sont accessibles depuis la homepage… Mais pourtant j’ai quand même fourni un sitemap à Google pour reconsidérer les anciens.

Autre petit test en parallèle : modifier le contenu d’une page pour voir si le cache va être plus rapidement mis à jour. Le test s’est effectué le 2 février 2012 sur le résultat qui répond à la requêtefaire son sitemap“.

On va bien voir si ça va faire changer la situation d’ici quelques jours. Il s’agit là d’un texte à vocation éditoriale permettant de vérifier si la modification du contenu d’une page peut jouer sur la vitesse de mise à jour du cache Google.

Update du 7 février : les changements ont été pris en compte et on permis à Google de modifier son cache car j’ai retrouvé un beau snippet tout propre !

Ca fait plaisir de retrouver un vrai snippet pas spammé...

Update du 19 février : dans le sitelinks de mon blog, j’avais un des liens qui apparaissait encore avec un title moisi de type “Cheap viagra for your friend”. Le 18 au soir, j’ai demandé à Google via le Webmaster Tools de supprimer cette URL.

Le 19 au matin, ô joie, le changement était en place… Rapide ce Google parfois ! Seulement un petit 8h avant de voir la différence.

Bref, les expériences ne sont pas encore terminées mais pour une première partie, c’est déjà pas mal. Affaire à suivre, je vous tiens au courant pour les prochaines expériences.

8 réflexions au sujet de “Analyse de la période de rafraîchissement du cache de Google”

  1. Oui j’avais lu cette histoire de hack, c’est flippant!
    Comment s’y sont-ils pris? Par où sont-ils rentrés? Tu as une idée?
    WP est pourtant censé être difficile à hacker non?

  2. Les modifications peuvent se faire rapidement, surtout pour de la suppression d’URL, mais en ce qui concerne la mise à jour du cache, faut pas rêver, l’envoi du sitemap via GWT ne changera pas grand chose, surtout pour un petit site, même en y changeant les temps de recrawl :) Les deux critères principaux qui détermineront la fréquence de crawl de la page par Google sont le PR et le “dynamisme” de la page. Merci en tout cas de nous faire suivre cette expérience qui reste néanmoins intéressante ! (Je me suis fait hacker mon blog wordpress récemment aussi, sauf que je moi je me suis retrouvé avec une dizaine de pages de phishing à la racine de la plus part des dossiers…)

    Et sinon, niveau perte de trafic et de positions, RAS ?

  3. J’ai installé Crawltracks mais je ne sais pas pourquoi, il y a un souci entre le tag et mon WordPress… Je suis sur le coup.

  4. Mine de rien, ça a quand même pas mal joué dans le cache le fait de resoumettre un sitemap tout en augmentant la fréquence de crawl. Le blog n’est pas gros mais il ne fait pas 4 pages non plus ;). Mais c’est sûr que ça ne suffit pas…

  5. Les hackers ont dû être très actifs en décembre, car notre site s’est également fait hacker… Mais chez nous, les balises méta n’ont pas été touchées : “seuls” quelques virus ont été ajoutés en Javascript dans les pages et ont malheureusement dû infecter quelques internautes… Donc je compatis, c’est vraiment pas rigolo de refaire toutes ses balises et autres Descriptions…

    Mais l’avantage est que tout cela permet de faire des tests très intéressants… Et j’attends impatiemment la suite !

  6. Merci pour ton compte-rendu sur ce test qui apporte pas mal d’éclaircissements quant au rafraichissement de l’index de Google. Cela a du être un bon moyen de garder son sang-froid après une attaque de hackers (C’est bien d’essayer de chercher le bon côté de chaque chose.)

    Val

Les commentaires sont fermés.