C’est difficile à croire pour un moteur qui s’est développé à une vitesse fulgurante, mais Google possède encore de nombreux points faibles en ce qui concerne son suivi des évolutions dans les standards W3C. L’exemple parfait concerne la visibilité des contenus. En effet, Google a tendance à pénaliser les pages ayant du texte caché. Pour cela, il sait détecter les différents trucs CSS pour cacher du texte, même proprement. Et en règle général, il faut s’attendre à de lourdes sanctions (blacklistage de la page).

Malgré les abus, les gens honnêtes existent !

Seulement, tout le monde ne cache pas du texte pour tromper les moteurs de recherche. D’un point de vue design, il est parfois préférable de ne pas afficher ouvertement certains titres mais de les rendre invisible via un style CSS (indentation du texte à -200), en gardant un code propre valide. Cela permet ainsi de ne pas détruire un design en conservant la lecture d’une page web par des malvoyants par exemple. De ce fait, le contenu reste visible, mais hors du champs de visualisation de l’internaute. Malgré tout ce que j’ai pu lire sur le web, ce système reste encore dangereux pour le référencement d’un site web. Certains sites ont de la chance de passer au travers des filets de Google mais celui-ci annonce officiellement sur son guide pour les webmasters que les contenus cachés sont sujets à de lourdes pénalités, peu importe leur but.

Ce débat entre webmasters et référenceurs revient de plus en plus souvent, le référencement prenant enfin une grande importance dans la majorités des acteurs du web.

Une solution miracle ? Pas pour le moment !

Ceci étant dit, que faire ? Envoyer une lettre à Google ? Il y a peu de chances pour qu’elle soit prise en compte. Espérer que Google revoit son algorithme pour prendre en compte cette possibilité ? Je l’espère de tout coeur. Il serait temps que Google sache garder une certaine tolérance en ce qui concerne le texte caché dans une page. Il y a tout de même une différence entre avoir une soupe de mots-clés, un texte de 1000 caractères cachés et avoir 3 ou 4 titres propres dans des balises h1 et h2, invisibles seulement par pur souci visuel…

A ce jour, le problème n’est pas résolu et avec 90% des recherches effecutées sur Google en France, je ne peux que recommander aux webmasters de favoriser le respect des standards W3c, tout en prenant en compte les recommandations de Google, sous peine de rencontrer quelques soucis pour l’indexation de leur site…

A lire aussi :

  • Trop d’outils SEO…tue l’outil et le métier de référenceur !Trop d’outils SEO…tue l’outil et le métier de référenceur ! Depuis 5 ans, le métier de référenceur naturel ou seo analyst s'est développé peu à peu, que ce soit en France ou dans le reste du monde. Depuis, une multitude d'outils en tout genre pour […]
  • Les 10 outils les plus utilisés en 2006Les 10 outils les plus utilisés en 2006 Voici la liste des outils que j'ai le plus utilisé en 2006 (voire avant pour certains) : Netvibes : cette page d'accueil sur mesure "à la web 2" est pour moi indispensable et je ne […]
  • 21 ways to ruin your Website21 ways to ruin your Website Everyday, I come across tutorials to create a good website and there are a lot of advice to improve you search engine rankings. But everyday, I can see how many websites are built with a […]