A peine rentré de vacances, je n’ai même pas le temps de faire ma veille que j’apprends via le biais d’une connaissance qu’une mise à jour de l’algorithme Google est sur le point de sortir. L’objectif est de rétrograder les sites de mauvaise qualité , en déclassant les sites à la demande, également baptisés fermes de contenus .

Et pour une fois, il semblerait que cette mise à jour soit assez violente. En effet, à ce jour, elle est déjà en ligne sur Google.com (US) et on peut voir certains résultats assez dévastateurs pour la plupart des sites.

S’agit-il de sites web à fermes de contenus ? J’en ai visité quelques uns de cette liste et la réponse est oui. La plupart d’entre eux possèdent des fermes de liens à n’en plus finir et une suroptimisation affolante au niveau des tags.

Maintenant, et pour ne pas changer, Google ne communique pas sur les changements exacts. Du coup, on ne sait pas trop ce que le moteur entend par « sites de mauvaise qualité ».

Certes, le linkfarm semble apparemment une priorité absolue pour cet algorithme mais que dire des sites qui ont des pages d’erreurs 404 à tout va, des pages de contenus uniques mais accessibles uniquement via une navigation excecrable, les sites qui sont suroptimisés ou encore ceux qui possèdent des pages dupliquées en internes sans règle d’indexation (car pour x raison, la structure ne le permet pas)… ?

Si je me bats sans cesse pour éviter la création et la duplication de contenus bas de gamme sur mes sites clients, il arrive néanmoins parfois que pour des raisons business, le site X achète du contenu auprès du site Y et que le site Y achète du contenu auprès du site Z.

Dans ces cas là, le mieux à faire est de poser des conditions seo au niveau du deal que vous faites, afin de ne pas passer pour un gros spammeur… De toute façon, il s’agit là d’un business pour votre entreprise que vous ne pourrez pas empêcher, même si c’est moche pour le seo car… ça rapporte de l’argent.

Le mieux à faire selon moi dans ce genre de situation est d’exploiter proprement et obligatoirement le tag rel=canonical pour le site cible auquel vous vendez du contenu car évidemment, ce dernier refusera d’appliquer du « nofollow,noindex » sur toutes les pages achetées chez vous… Sinon quel intérêt pour lui :).

Je pense (et il s’agit là de mon opinion personnelle) que si la plupart des sites commençaient à utiliser correctement le tag canonical, ça permettrait à Google d’y voir un peu plus clair dans le classement des sites, et ainsi de moins flipper pour son site à chaque mise à jour de l’algorithme Google qui se veut être un guerrier contre le spam :).

Enfin, concernant les fermes de liens, c’est un problème que j’ai évoqué maintes fois sur mon blog quasiement depuis son ouverture, donc je ne m’étonne pas trop que ce genre de sites se fassent « enfin » dégager.