Compte-rendu en français du SMX West mars 2011 : les 10 points Google à retenir

Share Button

J’ai pu lire hier un très bon article résumant les points essentiels à retenir du SMX West. Vous trouverez ci-dessous un résumé en français des points évoqués avec mon opinion sur chaque point abordé.

Comme on a pu le voir récemment, la mise à jour Panda de l’algorithme Google a commencé à faire un sérieux ménage au niveau des résultats indexés.

1) Bloquer le contenu de mauvaise qualité

Je suis d’accord sur le principe. Entre les sites MFA, les spammeurs et les sites qui regorgent de contenus sans grand intérêt, le ménage doit continuer. Par contre, je ne suis pas d’accord sur le fait qu’il faille appliquer du NOINDEX, NOFOLLOW sur les pages à faible contenu, dans le cas où un site vient d’être lancé…

Depuis quand Google est-il devenu pingre dans son système de crawl ? C’est justement l’évolution du contenu d’un site qui contribue à l’évolution de son propre référencement. Se faire « pénaliser » parce qu’on remplit un site au fur et à mesure, je trouve ça plutôt stupide. En gros, si je fais un petit site vitrine ou portefolio, j’ai intérêt à mettre en ligne avec les contenus finaux.

Des exceptions seront faites pour certains gros sites… Encore une fois, tout tourne autour du fric… On le sait, c’est la réalité, mais c’est moche !

2) Ratio contenu/publicité en ligne

La publicité présente sur un site ne fait pas baisser la qualité du contenu. En revanche, il est possible d’avoir un trop plein (je m’adresse en particulier aux spammeurs qui aiment faire des MFA). Reste que de mon point de vue, il est vital d’avoir un bon ratio liens/contenus/publicité sur les pages clés de son site web. J’exclue bien sur les pages de listes qui comprendront plus de liens que la moyenne…

3) Ralentissement du crawl

Matt Cutt a également mentionné que Googlebot allait diminuer la fréquence de crawl d’un site s’il trouvait celui-ci non pertinent. Je partage également l’avis de l’auteur en vous suggérant de vérifier la fréquence de crawl des pages les plus visitées de votre site et voir si cela change lorsque Panda sera implanté en Europe et Canada. Reste que dans certains cas, notamment un site vitrine, la fréquence de crawl est déjà naturellement basse… Donc pas d’inquiétude ! D’ailleurs en parlant date, le nouvel algorithme devrait arriver dans les autre pays d’ici les prochaines semaines.

4) White Hat cloacking

Le white hat cloacking consite à faire un site pour les utilisateurs et un site pour les moteurs pour des raisons non liées au spams. Par exemple, il peut exister une version flash d’un site et son équivalent en HTML. Google condamne ce genre de pratique, même si l’intention de départ est louable. Mon avis ? Continuez de le faire en vous assurant de bien désindexer la version inaccessible au moteur (flash). Quoiqu’il en soit, Google vous assure qu’il n’y a pas d’exception faite pour ce genre de choses, peu importe la raison donc gare ! Ce qui veut dire ? Faites un site en flash et dites bye bye au SEO.

5) Stop à la duplication de contenus

Entre le cloacking d’URL, la duplication de contenus au sein d’un même sites ou entre plusieurs domaine, Google en a tout simplement marre devoir crawler la même chose. De toute façon, il existe plusieurs façons pour maîtriser le contenu dupliqué (j’en ferai l’objet d’un prochain billet). Pour les impatients, allez voir du côté du tag canonical.

6) Considérer Google comme un nouveau visiteur sur le site

Si la question du contenu différent est revenue sur le tapis (notamment pour un visiteur qui revient sur le site et voit un contenu différent), le plus important est bien comprendre qu’un bot n’exploite pas les cookies. De ce fait, le plus simple pour vous est de vous dire que Google voit votre site web comme le voit un visiteur lors de sa première visite. Si vous doutez encore de cela, n’hésitez pas à exploiter les fonctionnalités Web Developer (extension Firefox) pour désactiver les CSS, les images et le JS de vos pages web.

7) Linkbuilding

J’espérais en apprendre un peu plus mais les bases sont les mêmes depuis plusieurs années. Fais un beau site super intéressant et les gens t’aimeront et te linkeront… Voili voilou !

8) Les liens depuis un communiqué de presse

Voilà ce que j’ai pu lire :

Matt clarified that the links in the press releases themselves don’t count for PageRank value, but if a journalist reads the release and then writes about the site, any links in that news article will then count.

… J’ai rien compris ! Un lien dans un communiqué de presse ne sera pas pris en compte dans la valeur du Page Rank mais si un journaliste lit l’article et écrit quelque chose à partir de cet article, alors ça sera pris en compte. En clair, ça veut dire que si un journaliste exprime son avis sur un communiqué de presse en mettant un lien vers celui-ci, à ce moment là seulement le lien du communiqué de presse sera pris en compte dans le Page Rank du site cible ?

9) Un retweet ou un lien : le mieux ?

Si les tweet sont considérés comme « un signal » dans le ranking seo (merci Google pour la précision), un lien dans un tweet ne compte pas dans l’amélioration du Page rank final d’un site. En revanche, cela peut avoir une incidence sur la recherche en temps réel… La réponse est encore trop floue et je pense que quelques tests supplémentaires s’imposent avant d’assurer quoique ce soit.

De mon côté, je vous recommande d’utiliser un raccourcisseur d’URL qui fait des redirections 301 vers les vraies URL du site (histoire qu’une éventuelle performance puisse passer). Ensuite, si vous souhaitez vous servir de vos réseaux sociaux comme d’un tremplin de visibilité, rendez-le public.

10) Le spam report et la demande de réexamen

« Le spam report manuel (entré par l’utilisateur) a 4 fois plus de poids qu’un spam report automatique »… Bien et en même temps pas bien ! A moins que les concurrents aient un comportement d’adultes, Google risque de recevoir pas mal de spam reports absurdes après cette déclaration… Même si la plupart peuvent très bien concernés des sites évidemment catastrophiques.

Google promet d’être de plus en plus transparent dans tout ce qui touches aux violations des guidelines. Ca fait déjà 2 bonnes années que Google est de plus en plus clair sur ce qu’on a pas le droit de faire. J’ai pu suivre l’évolution du Google Webmaster Help et autant être honnête, il a bien changé durant ces 3 dernières années. Plus de détails, points bien organisés, c’est parfait pour faire un rappel ou annoncer à votre client par A+B qu’il ne faut pas faire certaines choses…

Concernant les pénalités infligées, si c’est fait au niveau de l’algorithme, vous n’avez pas d’autre choix que de corriger vos cochonneries et attendre. Si un ami vous a balancé via le spam report, vous pouvez faire une demande de réexamen. J’ai déjà vécu ce souci sur mon blog et 3 jours après la demande de réexamen, j’ai retrouve toutes mes positions organiques.

Share Button

11 réflexions au sujet de « Compte-rendu en français du SMX West mars 2011 : les 10 points Google à retenir »

  1. LaurentB

    Comme je disais chez l’ami Sylvain, c’est quoi le contenu de « mauvaise » qualité ?
    Google n’est absolument pas capable de jauger la qualité du contenu en tant que tel. Il cherche d’autres signaux qui n’ont rien à voir avec la prose déversée sur une page.

  2. Philippe @ Référencement Web Normandie

    Chut… il ne faudra pas le répéter surtout, hein ? C’est le meilleur article que j’ai pu lire sur le sujet.
    À propos de ton interrogation sur les liens depuis un communiqué de presse je crois que tu as très bien compris.
    Et ça a une certaine logique.
    Google est en lutte concurrentielle avec Bing/Yahoo: ainsi que les réseaux sociaux. Son point de faiblesse et en même temps sa force c’est son index. Celui-ci est spammé depuis des années: il perd en pertinence et en crédibilité. Il lui faut donc le curer.
    Or les annuaires et les sites de CP viennent le polluer (je parle ici de son point de vue) en faisant l’écho seul de l’information qui est déjà présente chez l’éditeur qui publie cette fiche ou ce CP.
    Pour Google ça n’a aucun intérêt de doublonner des résultats et pire, ça lui faire de l’argent du fait que ceux-ci ne sont que très souvent des MFA.
    Il lui faut donc trier le bon grain de l’ivraie : si le contenu est cité par un site d’« autorité » qui reproduit les liens, celui-ci sera jugé utile et les liens seront alors pris en compte.

    Tout cela participe à un « nettoyage » global de son index pour plus de confiance dans la relation entre l’« usager » de Google et le moteur.
    Et, de mon point de vue, c’est une très bonne chose : ça fait des années que les référenceurs jouent avec Google ; ça fait des années que des BH le violente ; ça fait des années que des gamins pognonphiles polluent le Web avec leur MFA.

    Google a sifflé la fin de la récré. Certains vont devoir rentrer en cours et s’appliquer à apprendre à travailler correctement pour le bénéfice de tout le Web.

  3. Photographe mariage Strasbourg

    Moi je trouve que c’est quand m^me pas très cool pour les communiqués de presse.

    En effet, on se fait chier à créer du contenu unique ou original (pas trop spinné ou shaké), on mache le travail à google… De plus, il faut que nous même on désindexe les pages à faible contenu, tout çà pour que M. googlebot se ménage.

    bref, une mauvaise stratégie sur le long terme.

  4. Jean-Baptiste - Formateur Web

    Dans toute cette affaire, Google en edictant de nouvelles règles drastiques fait en sorte de masquer ses difficultés à prendre en compte l’évolution du web. Je me pose vraiment la question du 1er point : Bloquer le contenu de mauvaise qualité, qu’est ce qui va advenir des futurs sites-blogs ne démarre pas sur les chapeaux de roues, que peut-il y avoir de pire que le sandbox déjà existant ?

  5. Daniel Roch

    Ce que j’ai énormément de mal à comprendre et à appréhender avec cette nouvelle mise à jour de Google, c’est la partie sur les communiqués de presse. La définition est trop large : à partir de quel moment peut-on considérer un contenu comme un communiqué de presse ?

    Parce que bon, certains communiqués peuvent tout aussi bien être considérés comme de réels articles ou à l’inverse comme des digglikes…

  6. ramenos

    @LaurentB : c’est clair que « le contenu de mauvaise qualité », c’est la grosse interrogation de notre côté. De mon côté, j’essaye d’abord de penser à l’utilisateur et après on voit.

    Pour moi, un contenu pas top, ça peut être :
    – une page avec répétition d’un même mot clé à outrance (ça existe encore sur des sites qui font parti du top 500 au Canada je vous jure :) ).
    – une page avec un ratio liens/contenu bien pourri.
    – une page au contenu pompé d’ailleurs sans canonical.
    – une page qui possède des liens entrants uniquement depuis une vilaine ferme de liens
    Et j’en passe…

  7. Sylvain

    Très bien ton résumé, merci d’avoir fait une traduction plus complète que la mienne.
    Pour le coup des CP, je dois avouer que c’est pour moi le flou le plus complet. Même si je suis d’accord avec Philippe sur le fond et le besoin de nettoyage plus en profondeur des sites qui à mon sens ne servent pas à grand chose d’autre qu’aux SEO.

    On verra une fois l’ourson passé chez nous.

  8. Stephane

    Je trouve que l’on n’apprend rien de vraiment nouveau… Sauf pour les CP et encore, il semble que des tests soient nécessaires pour se faire une réelle idée.
    La qualité du contenu c’est quoi ? Je suis d’accord avec Laurent, comment un robot peut-il juger si le contenu est bon ou non. Il va seulement voir qu’il y a du contenu et les mots (ou le champ lexical) qui en ressort.

  9. SEO FACTORY GIRL

    « Google en a tout simplement marre de devoir crawler la même chose. De toute façon, il existe plusieurs façons pour maîtriser le contenu dupliqué (j’en ferai l’objet d’un prochain billet). Pour les impatients, allez voir du côté du tag canonical. » Non mais c’est une blague ? Je trouve ça scandaleux. Pas pour moi en tant que SEO, il faut bien qu’on s’adapte à tout, mais pour monsieur-tout-le-monde et son petit site ou son petit blog WordPress. Les choses semblent devenir de plus en plus simples (avec les CMS open source notamment) et à la portée de tous, mais finalement ça devient de plus en plus compliqué d’exploiter ces nouvelles opportunités pour l’utilisateur moyen (enfin j’ai l’impression). Certes, si les gens faisaient des sites Web dans les règles de l’art, nous n’aurions pas de boulot et le coup du Panda sera peut être finalement une bénédiction pour nous, mais ça me paraît malgré tout bien brutal comme procédé. Après, dans l’absolu, le concept de nettoyage derrière Panda me semble le bienvenu, mais ça reste à voir en live.

  10. franck

    super recap. çà faisait longtemps que j’avais prévu de lire à propose du dernier SMX mais j’ai jamais eu le temps; vivement que panda arrive en France, car je trouve certains sites très aggréssifs en matière de linkbuilding par exemple

  11. Seb

    C’est vrai que le coup des liens depuis un communiqué de presse est assez difficile à comprendre . En tout cas, merci pour l’article : clair et concis ! Pas contre, rien de nouveau concernant les microformats et les rich snippets?

Les commentaires sont fermés.