Standards W3C : Google, pas si intelligent que ça ?

C’est difficile à croire pour un moteur qui s’est développé à une vitesse fulgurante, mais Google possède encore de nombreux points faibles en ce qui concerne son suivi des évolutions dans les standards W3C. L’exemple parfait concerne la visibilité des contenus. En effet, Google a tendance à pénaliser les pages ayant du texte caché. Pour cela, il sait détecter les différents trucs CSS pour cacher du texte, même proprement. Et en règle général, il faut s’attendre à de lourdes sanctions (blacklistage de la page).

Malgré les abus, les gens honnêtes existent !

Seulement, tout le monde ne cache pas du texte pour tromper les moteurs de recherche. D’un point de vue design, il est parfois préférable de ne pas afficher ouvertement certains titres mais de les rendre invisible via un style CSS (indentation du texte à -200), en gardant un code propre valide. Cela permet ainsi de ne pas détruire un design en conservant la lecture d’une page web par des malvoyants par exemple. De ce fait, le contenu reste visible, mais hors du champs de visualisation de l’internaute. Malgré tout ce que j’ai pu lire sur le web, ce système reste encore dangereux pour le référencement d’un site web. Certains sites ont de la chance de passer au travers des filets de Google mais celui-ci annonce officiellement sur son guide pour les webmasters que les contenus cachés sont sujets à de lourdes pénalités, peu importe leur but.

Ce débat entre webmasters et référenceurs revient de plus en plus souvent, le référencement prenant enfin une grande importance dans la majorités des acteurs du web.

Une solution miracle ? Pas pour le moment !

Ceci étant dit, que faire ? Envoyer une lettre à Google ? Il y a peu de chances pour qu’elle soit prise en compte. Espérer que Google revoit son algorithme pour prendre en compte cette possibilité ? Je l’espère de tout coeur. Il serait temps que Google sache garder une certaine tolérance en ce qui concerne le texte caché dans une page. Il y a tout de même une différence entre avoir une soupe de mots-clés, un texte de 1000 caractères cachés et avoir 3 ou 4 titres propres dans des balises h1 et h2, invisibles seulement par pur souci visuel…

A ce jour, le problème n’est pas résolu et avec 90% des recherches effecutées sur Google en France, je ne peux que recommander aux webmasters de favoriser le respect des standards W3c, tout en prenant en compte les recommandations de Google, sous peine de rencontrer quelques soucis pour l’indexation de leur site…

13 réflexions au sujet de “Standards W3C : Google, pas si intelligent que ça ?”

  1. Peux-tu citer ta source concernant ce que dit Google ? (“les contenus cachés sont sujets à de lourdes pénalités, peu importe leur but”)

  2. super article mais c’est vraiment très inquiétant vu que mon site utilise de l’ajax et par conséquent j’ai du contenu caché qui s’affiche lors d’un clique sur des liens.
    y’a t-il une solution pour remédier a cela ??

  3. Après discussion avec un webmaster confirmé doué de nombreuses années d’expérience qui n’a jamais rencontré ce problème je me pose cette question, n’y aurait-il pas d’une façon ou d’une autre d’autres éléments qui seraient liés à ces blacklistage compte tenu du fait que le contenu caché n’est pas un motif de blacklistage systématique.

    Quelles sont les techniques de contenu caché qui ont été employées dans les cas de blacklistage ?

  4. Dans mon cas, il s’agissait seulement d’indenter 3 balises h2 à -200 seulement par souci du design. Ces balises contenaient des titres des paragraphes on ne peut plus normaux…

    Encore une fois, Google reste toujours sévère et la question n’est pas sur le fait qu’il faut être webmaster confirmé ou doué mais plutôt sur le fait qu’il serait temps que Google s’intéresse de près aux critères d’accessibilité… Non ? :)

  5. Sur ton lien vers la page de Google, il n’est pas fait d’allusion directe à l’indentation, c’est surtout la quantité de texte qui déplait à Google j’ai l’impression reste juste à savoir si ce qui t’es arrivé est systématique ou non…

  6. Sur ton lien vers la page de Google, il n’est pas fait d’allusion directe à l’indentation, c’est surtout la quantité de texte qui déplait à Google j’ai l’impression reste juste à savoir si ce qui t’es arrivé est systématique ou non…

    Même si je suis d’accord sur le fait qu’il est temps que Google se bouge pour respecter l’accessibilité.

  7. bonjour,

    je crois surtout qu’il est grand temps de descendre le W3C de son piédestal, et de le remettre à sa place, à savoir tout en bas; ce machin est une secte.

    bon, ça c’est fait.

    plus sérieusement, rendre un site accessible… pour qui, pour quoi? combien de visites par an avez-vous de navigateurs texte, sur votre site soi-disant accessible? zéro, nada, rien, évidemment. c’est une énorme blague marketing imaginée par une élite qui a eu peur du skyblog de tata josiane et a cherché à compliquer les choses pour en tirer parti.

    c’est aux navigateurs de s’adapter et de trouver les parades aux erreurs de syntaxe html et autres des webmasters. quant à google et au référencement, testez donc sa seule page d’accueil avec le validator du W3C: plus de 50 erreurs… c’est dire si il s’en tape, le google, du W3C. et JAMAIS un site ne sera favorisé, ni défavorisé, en termes de référencement ni de compatibilité avec les navigateurs: ce serait mettre 99% des pages hors de portée des SERPs, et de tous les internautes; vous imaginez un IE9 ou un Mozilla 3.0.0.0 qui ne rectifierait pas les erreurs communes des webmasters? ça serait la fin de Microsoft, ou pas loin… c’est pour cela que l’on a inventé la compatibilité descendante.

    arrêtons avec ce truc pseudo-élitiste qui n’excite que ceux qui le connaissent, càd personne (parce qu’internet est fait avant tout d’internautes, pas de webmasters hein; sortez un peu, genre une heure par semaine, pour commencer, c’est bien).

    je préfère largement un site non-valide mais qui n’essaie pas de planquer du keyword par çi et par là, et qui utilise une police supérieure à 10px et un minimum de contraste font color/background hein, je trouve ça vachement plus accessible…

    parce que poser la question “google est bête, mon site est valide W3C mais il me pénalise parce que j’ai planqué des keywords” ça me fait doucement marrer.

  8. [edit]je parlais évidemment, dans le premier paragraphe, des visites de navigateurs vocaux, on aura compris.[/edit]

  9. >> plus sérieusement, rendre un site accessible … compliquer les choses pour en tirer parti.

    C’est là où on voit les pro : l’accessibilité ne permet qu’aux agent-utilisateurs de retranscrire les contenus, d’abord en y accédant, ensuite en les analysant et enfin en les proposant aux utilisateurs (avec des rendus différents).

    L’accessibilité n’est pas et ne doit pas être une fin en soi ! ni ne doit répondre à des problématiques du type “pour qui/pour quoi” !
    C’est une simple démarche qui vise à publier correctement le contenu web donc à faire les choses de manière qualitative.

    Et pour rappel, les gens du W3C sont ceux qui ont créer/créent le web.

    >> c’est aux navigateurs de s’adapter … c’est pour cela que l’on a inventé la compatibilité descendante.
    >> arrêtons avec ce truc pseudo-élitiste qui n’excite que ceux qui le connaissent, càd personne (parce qu’internet est fait avant tout d’internautes, pas de webmasters hein; sortez un peu, genre une heure par semaine, pour commencer, c’est bien).

    C’est pour cela que monsieur et madame tout le monde ne devrait pas faire de sites web.
    Or l’exploitation de logiciels voulant faciliter la création de site (Dr**mw**ver, etc.) y est pour quelque chose.

    Or une chose qu’il ne faut pas oublier, sans les normes le web ne serait pas ce qu’il est aujourd’hui.
    Après concernant Google, il ne faut pas confondre ses méthodes d’exploration des contenus (qui nécessite que les contenus soient accessibles) et son interface moteur de recherche (qui certes laisse à désirer techniquement).
    Effectivement, Google exploite les contenus qui ne sont pas publiés correctement mais parce qu’il fait sa sauce lorsqu’ils ne sont pas implémentés selon les standards (comme le fait Mozilla et le fera Internet Explorer 8, car pour rappel la première version de Mozilla était très respectueuse des standards mais ils se sont apérçus que le web n’était pas retranscriptible car mal implémenté !).

    >> je préfère largement un site non-valide mais qui n’essaie pas de planquer du keyword par çi et par là, et qui utilise une police supérieure à 10px et un minimum de contraste font color/background hein, je trouve ça vachement plus accessible…
    >> parce que poser la question “google est bête, mon site est valide W3C mais il me pénalise parce que j’ai planqué des keywords” ça me fait doucement marrer.

    C’est encore là où les gens ne comprennent pas que le véritable nerf de la guerre est la création de contenu ! et non “l’optimisation de la technique”.
    Expression qui ne veut absolument rien dire parce que si on publiait correctement les choses, selon les standards, l’aspect technique ne serait pas travailler : à l’heure actuelle ce qui est réalisé dans ce qui est couramment nommé “optimisation” n’est que le fait de tendre vers les standards !

  10. >>> “C’est là où on voit les pro”

    nous y voilà… c’est exactement l’idée que j’ai développée plus haut: le W3C ne sert qu’à “faire pro”. pour moi, un pro du net, c’est d’abord “quelqu’un qui en vit”, point.

    il faut vraiment être en mal de reconnaissance pour se croire pro sous prétexte qu’on a un petit bouton “W3C valid” sur ses pages.

    un bon site web, c’est un site qui a un bon contenu, original et visité. n’allez pas imaginer que le web a attendu le W3C, vous savez aussi bien que moi que c’est totalement faux.

    la magie du net, c’est JUSTEMENT le fait que le blog de tata josiane soit mis sur le même plan que les “sites pro”, avec les mêmes chances d’être visité, et souvent davantage visité, d’ailleurs.

    pour moi c’est ça l’accessibilité. parce qu’un petit bug d’affichage, une marge un peu plus grande sous mozilla que sous IE, ou une image qui s’affiche à droite plutôt qu’à gauche, ne change RIEN au contenu d’un site (ni à son référencement, d’ailleurs).

    au passage vos pages ne passent pas la validation (9 erreurs): dois-je en déduire que vous n’êtes pas “un pro” et que vous feriez mieux d’ouvrir un skyblog plutôt que de polluer la toile avec vos erreurs de syntaxe?

    http://validator.w3.org/check?uri=http%3A%2F%2Fblog.ramenos.net%2F&charset=%28detect+automatically%29&doctype=Inline&group=0

  11. Nous avons donc une divergence sur l’aspect “pro” effectivement, ce n’est pas pour autant que parce que l’on vit grâce au web que l’on fait les choses bien.

    Etre valide c’est comme être accessible, ce n’est pas le but ultime donc en ayant réellement cette philosophie, on ne communiquera pas dessus.

    Le W3C s’est créé en 94 (5 après création du web) par les mêmes personnes : “To lead the World Wide Web to its full potential by developing protocols and guidelines that ensure long-term growth for the Web”.
    Donc oui le W3C est plus récent.

    Pour le reste plutôt d’accord (l’accessibilité c’est lié au contenu pas à sa mise en forme).

    Enfin, merci de ne pas me confondre avec l’auteur de ce blog. Pour la déduction, il faut plutôt voir que l’outil utilisé ne fait pas bien les choses.

  12. Carole,

    Ayant lu vos commentaires, je ne comprends pas votre colère et votre tendance “extrêmiste”. Un site non valide mais qui fait en sorte de rendre les contenus accessible, je peux comprendre. Mais le W3C n’est pas à mettre sur son “piedestal” comme vous le dites si bien.

    Il s’agit avant d’une association qui a pour but d’unifier les standards. Ou est le mal à ça ? Nulle part. Mais c’est toujours plaisant d’avoir un site propre, que ce soit en référencement, en accessibilité et aussi pour celui qui s’en occupe ou reprendra le relais.

Laisser un commentaire