J’ai pu lire hier un très bon article résumant les points essentiels à retenir du SMX West. Vous trouverez ci-dessous un résumé en français des points évoqués avec mon opinion sur chaque point abordé.

Comme on a pu le voir récemment, la mise à jour Panda de l’algorithme Google a commencé à faire un sérieux ménage au niveau des résultats indexés.

1) Bloquer le contenu de mauvaise qualité

Je suis d’accord sur le principe. Entre les sites MFA, les spammeurs et les sites qui regorgent de contenus sans grand intérêt, le ménage doit continuer. Par contre, je ne suis pas d’accord sur le fait qu’il faille appliquer du NOINDEX, NOFOLLOW sur les pages à faible contenu, dans le cas où un site vient d’être lancé…

Depuis quand Google est-il devenu pingre dans son système de crawl ? C’est justement l’évolution du contenu d’un site qui contribue à l’évolution de son propre référencement. Se faire « pénaliser » parce qu’on remplit un site au fur et à mesure, je trouve ça plutôt stupide. En gros, si je fais un petit site vitrine ou portefolio, j’ai intérêt à mettre en ligne avec les contenus finaux.

Des exceptions seront faites pour certains gros sites… Encore une fois, tout tourne autour du fric… On le sait, c’est la réalité, mais c’est moche !

2) Ratio contenu/publicité en ligne

La publicité présente sur un site ne fait pas baisser la qualité du contenu. En revanche, il est possible d’avoir un trop plein (je m’adresse en particulier aux spammeurs qui aiment faire des MFA). Reste que de mon point de vue, il est vital d’avoir un bon ratio liens/contenus/publicité sur les pages clés de son site web. J’exclue bien sur les pages de listes qui comprendront plus de liens que la moyenne…

3) Ralentissement du crawl

Matt Cutt a également mentionné que Googlebot allait diminuer la fréquence de crawl d’un site s’il trouvait celui-ci non pertinent. Je partage également l’avis de l’auteur en vous suggérant de vérifier la fréquence de crawl des pages les plus visitées de votre site et voir si cela change lorsque Panda sera implanté en Europe et Canada. Reste que dans certains cas, notamment un site vitrine, la fréquence de crawl est déjà naturellement basse… Donc pas d’inquiétude ! D’ailleurs en parlant date, le nouvel algorithme devrait arriver dans les autre pays d’ici les prochaines semaines.

4) White Hat cloacking

Le white hat cloacking consite à faire un site pour les utilisateurs et un site pour les moteurs pour des raisons non liées au spams. Par exemple, il peut exister une version flash d’un site et son équivalent en HTML. Google condamne ce genre de pratique, même si l’intention de départ est louable. Mon avis ? Continuez de le faire en vous assurant de bien désindexer la version inaccessible au moteur (flash). Quoiqu’il en soit, Google vous assure qu’il n’y a pas d’exception faite pour ce genre de choses, peu importe la raison donc gare ! Ce qui veut dire ? Faites un site en flash et dites bye bye au SEO.

5) Stop à la duplication de contenus

Entre le cloacking d’URL, la duplication de contenus au sein d’un même sites ou entre plusieurs domaine, Google en a tout simplement marre devoir crawler la même chose. De toute façon, il existe plusieurs façons pour maîtriser le contenu dupliqué (j’en ferai l’objet d’un prochain billet). Pour les impatients, allez voir du côté du tag canonical.

6) Considérer Google comme un nouveau visiteur sur le site

Si la question du contenu différent est revenue sur le tapis (notamment pour un visiteur qui revient sur le site et voit un contenu différent), le plus important est bien comprendre qu’un bot n’exploite pas les cookies. De ce fait, le plus simple pour vous est de vous dire que Google voit votre site web comme le voit un visiteur lors de sa première visite. Si vous doutez encore de cela, n’hésitez pas à exploiter les fonctionnalités Web Developer (extension Firefox) pour désactiver les CSS, les images et le JS de vos pages web.

7) Linkbuilding

J’espérais en apprendre un peu plus mais les bases sont les mêmes depuis plusieurs années. Fais un beau site super intéressant et les gens t’aimeront et te linkeront… Voili voilou !

8) Les liens depuis un communiqué de presse

Voilà ce que j’ai pu lire :

Matt clarified that the links in the press releases themselves don’t count for PageRank value, but if a journalist reads the release and then writes about the site, any links in that news article will then count.

… J’ai rien compris ! Un lien dans un communiqué de presse ne sera pas pris en compte dans la valeur du Page Rank mais si un journaliste lit l’article et écrit quelque chose à partir de cet article, alors ça sera pris en compte. En clair, ça veut dire que si un journaliste exprime son avis sur un communiqué de presse en mettant un lien vers celui-ci, à ce moment là seulement le lien du communiqué de presse sera pris en compte dans le Page Rank du site cible ?

9) Un retweet ou un lien : le mieux ?

Si les tweet sont considérés comme « un signal » dans le ranking seo (merci Google pour la précision), un lien dans un tweet ne compte pas dans l’amélioration du Page rank final d’un site. En revanche, cela peut avoir une incidence sur la recherche en temps réel… La réponse est encore trop floue et je pense que quelques tests supplémentaires s’imposent avant d’assurer quoique ce soit.

De mon côté, je vous recommande d’utiliser un raccourcisseur d’URL qui fait des redirections 301 vers les vraies URL du site (histoire qu’une éventuelle performance puisse passer). Ensuite, si vous souhaitez vous servir de vos réseaux sociaux comme d’un tremplin de visibilité, rendez-le public.

10) Le spam report et la demande de réexamen

« Le spam report manuel (entré par l’utilisateur) a 4 fois plus de poids qu’un spam report automatique »… Bien et en même temps pas bien ! A moins que les concurrents aient un comportement d’adultes, Google risque de recevoir pas mal de spam reports absurdes après cette déclaration… Même si la plupart peuvent très bien concernés des sites évidemment catastrophiques.

Google promet d’être de plus en plus transparent dans tout ce qui touches aux violations des guidelines. Ca fait déjà 2 bonnes années que Google est de plus en plus clair sur ce qu’on a pas le droit de faire. J’ai pu suivre l’évolution du Google Webmaster Help et autant être honnête, il a bien changé durant ces 3 dernières années. Plus de détails, points bien organisés, c’est parfait pour faire un rappel ou annoncer à votre client par A+B qu’il ne faut pas faire certaines choses…

Concernant les pénalités infligées, si c’est fait au niveau de l’algorithme, vous n’avez pas d’autre choix que de corriger vos cochonneries et attendre. Si un ami vous a balancé via le spam report, vous pouvez faire une demande de réexamen. J’ai déjà vécu ce souci sur mon blog et 3 jours après la demande de réexamen, j’ai retrouve toutes mes positions organiques.

A lire aussi :