Archives pour la catégorie Référencement

Voir l’ensemble des posts relatifs au référencement naturel et payant sur le blog Ramenos : SEO, Adwords ou toute autre forme de réflexion à propose de l’acquisition de trafic via les moteurs.

Comment se protéger contre la duplication de contenus ?

La duplication de contenus est un problème récurrent, à la fois pour les référenceurs, mais aussi pour les moteurs et indirectement les utilisateurs. Voici 4 points à mémoriser pour se protéger du mieux possible contre ce vilain fléau :

Développer la popularité de son domaine : faites en sorte que votre domaine devienne une référence pour l’internaute. Améliorez votre notoriété auprès de l’internaute… Et vous ferez pareil avec Google. Plus votre domaine est fort, plus ça sera simple puisque les points évoqués juste après se feront naturellement en à grande échelle.

Augmenter son nombre de liens entrants et son Page Rank :  accroître le Page Rank sur les pages clés de contenus qui risquent d’être dupliqués par des acteurs extérieurs reste un plus (oubliez la désinformation sur la mort de Page Rank, celui reste et demeure un critère pour le référencement de vos pages). Enfin, l’augmentation de backlinks vers vos pages clés augmente réellement les chances d’être le mieux positionné dans les résultats, même si d’autres sites vous pompent du contenus.

Développement des trackbacks : si les autres sites font l’effort de mettre des backlinks vers les articles originaux (et non vers la home page), c’est gagné de votre côté. Google est tout à fait capable de percevoir d’où vient la source des contenus puisque chaque contenu « d’origine » sera linké par ses copies… Mais bon, n’espérez pas faire appliquer ça à tout le monde, l’expérience montre qu’il existe de vrais sauvages sur le net.

Exploiter le fichier robots.txt quand c’est possible : dans le cas par exemple où vous avez des partenaires qui reprennent vos contenus éditoriaux. Dans ce cas, rien ne vous empêche dans le deal d’imposer que ces contenus ne soient pas indexées par les moteurs via un bon gros Disallow: /le-repertoire/ et le tour est joué.

Les crawlers Google gèrent maintenant les URL canoniques entre différents domaines

Sorti il y a un peu moins d’un an, l’URL canonique est un moyen pratique pour gérer la duplication de contenus au sein d’un même site. Pour rappel, voici la structure à mettre dans l’en-tête des pages concernées par la duplication :

<link rel= »canonical » href= »http://www.monsite.fr/ma-page-de-reference.php » />

Depuis peu, Google a annoncé que l’utilisation de l’URL canonique est désormais possible entre différents domaines. L’avantage ? Migrer un site sur un nouveau domaine dans le cas où vous n’avez pas la possibilité de faire des redirections 301. Cependant, ne vous méprenez pas. Google indique clairement que si vous avez le choix, faites des redirections.

Dans le cas où vous ne pouvez pas faire de redirections (par exemple si vous migrer du contenu d’un service de blogging vers un vrai domaine), l’URL canonique représente alors une excellent alternative. Quelques règles sont néanmoins à prendre en compte avant de mettre en place un système de « Canonical URL » :

  • Les deux pages ne doivent pas nécessairement être identiques au caractère près.
  • L’URL canonique ne doit pas renvoyer vers la home du nouveau domaine, ça n’a pas de sens.
  • S’il y a possibilité de faire des redirections 301 entre les deux domaines, préférez cette solution (et contentez-vous alors d’utiliser l’URL canonique pour des pages au sein du même domaine).
  • Il n’est pas nécessaire d’utiliser un meta tag robots sur les pages concernées par la canonicalisation, Googlebot sait très bien faire le tri ;).

Informez-vous sur le centre d’aide Webmasters SEO Google

Aussi bête que cela puisse paraître, il existe une partie du centre d’aide Google Webmaster dédiée au SEO. Si le référenceur avisé n’apprendra pas forcément grand chose, ça ne fait pas de mal de prendre quelques minutes pour tout lire, d’autant plus que Google met souvent cette rubrique à jour.

  • Consigne aux webmasters : des conseils sur la conception et le contenu, la technique, la qualité globale des pages et enfin un petit rappel sur les vilaines choses à éviter.
  • Optimisation pour les moteurs : quelques recommandations sur les questions à se poser avant de faire son référencement. Sur cette page se trouve également différents avertissements concernant l’application du SEO en lui-même. Cela rejoint directement le post que j’avais rédigé il y a quelques mois concernant la reconnaissance d’une mauvaise agence SEO.
  • Google présentation : une page qui vous explique les processus d’exploration et d’indexation, tout en donnant quelques bribes sur l’affichage des résultats (pas fou le Google :-) ).
  • Mon site n’est pas bien placé dans les résultats : une vaste page qui revient sur toutes les actions à mener si vous vous apercevez que votre site a subitement pris un coup au niveau de son positionnement global dans les résultats… Ou s’il n’apparaît tout simplement pas.

Il existe d’autres pages, je vous laisse les découvrir par vous-même. Quoiqu’il en soit, ces conseils, loin d’être exhaustifs, ont le mérite d’exister, d’être mis à jour de temps à autre et conviendront parfaitement à toute personne souhaitant s’initier au référencement naturel.

Google : résultats personnalisés pour tout le monde… So what ?

Vendredi dernier, j’ai appris (comme beaucoup d’entre-vous) que les résultats personnalisés Google sont dorénavant appliqués à tout utilisateur, loggué ou pas. Auparavant, il fallait être connecté à son compte Google pour avoir des résultats personnalisés. En outre, n’oublions pas que selon la géolocalisation des individus, ce n’est pas le même Data Center Google qui est interrogé. Travaillant pour des sites qui ont des clients dans toute la France, la personne qui habite Marseille ne voit pas toujours les mêmes résultats que celle qui habite Paris ou Lille et ce, pour une même requête tapée le même jour à la même heure et sur la même version linguistique du moteur.

La standardisation des résultats personnalisés pour tous les internautes ne fait, au final, qu’apporter une couche supplémentaire lors de la recherche d’information. Ainsi, on sait que Google stocke des informations sur votre recherche pendant 180 jours, c’est-à-dire 6 mois. Pendant cette période, pour une même requête tapée, l’internaute voit ses résultats s’affiner selon son comportement vis-à-vis des résultats.

2 points à retenir :

Etudier le positionnement moyen d’un site sur certaines requêtes est toujours possible si vous désactivez la personnalisation de la recherche. En ce qui me concerne, c’est ce que je vais faire car je souhaite garder une certaine neutralité lors de mes recherches… Ceci étant dit, c’est un bon moyen pour continuer d’étudier le positionnement moyen de votre site sur certains mots-clés… Même si l’on se doute que l’intérêt reste limité vu que chaque internaute aura des résultats quelque peu différents.

Ne plus étudier le positionnement des mots-clés comme source principale d’évolution du SEO pour un site web. En effet, il y a deux autres éléments à prendre en compte : le comportement des internautes et l’atteinte des objectifs de conversion. Avec l’insertion d’éléments visuels dans les résultats des moteurs, le mythe du triangle d’or n’est plus vraiment valable dans les résultats de recherche. Il n’est pas rare d’avoir des internautes qui ne se limitent plus aux 3 premiers résultats. Ensuite, tout référenceur soucieux de son travail attache de l’importance au taux de transformation. Apporter du trafic depuis les moteurs, c’est bien. Que ce trafic se transforme pour atteindre les objectifs que l’on s’est fixé, c’est encore mieux.

La globalisation des résultats personnalisés ne fait, à mon sens, que renforcer l’importance du travail d’analyse sur la transformationLe SEO est-il en train de s’orienter davantage vers un métier webmarketing/web analytics ? Sûrement.

Cependant, la partie technique n’est pas à oublier. D’un côté, il faut avoir un site qui respecte les critères de ranking des moteurs, qui soit crawlable et enfin, il faut que les performances en terme de temps d’accès soient bonnes. Lorsque l’on voit la fonctionnalité ajoutée dans le GWT (plutôt bien fichue d’ailleurs), on se doute que les performances d’un site restent un critères à prendre en compte. Tout cela en tenant compte bien sur de l’ergonomie et facilité globale d’utilisation et de navigation…

Enfin, j’ai envie de dire qu’un site bien positionné aujourd’hui devrait, je pense, gardé un bon positionnement moyen dans les résultats personnalisés… Sauf si le contenu du résultat fait fuir l’internaute.

Site performance : la nouvelle option dans Google Webmaster Tools

google-site-performance

Depuis peu, une nouvelle fonctionnalité est disponible sur GWT : Site Performance.

Fonctionnalité intéressante, celle-ci vous permet de savoir en moyenne quel est le temps de chargement de vos pages web lors du passage du robot dessus. En plus de la home, Google estime le temps de 5-6 autres pages (dans mon cas). De plus, vous pouvez savoir, par rapport à l’ensemble des sites inscrits dans Google Webmaster Tools, si votre temps de chargement est bon ou mauvais comparé aux autres sites inscrits.

A partir de là, je me pose deux questions : est-ce que Google est capable de comparer le temps de chargement du site aux vrais sites similaires ? Et surtout, combien de sites sont inscrits sur Google Webmaster Tools en France et dans le monde entier ? Quelqu’un a une idée du nombre ? :)

Enfin, plus bas dans la page, Google vous donne quelques astuces certes génériques mais loin d’être stupide pour réduire le temps de chargement de vos pages.

Note : cette nouveauté fait suite à l’annonce de Matt Cutts concernant la vitesse des sites, qui pourrait être le prochain critère « officiel » de ranking pour Google. Officieusement, on sait tous qu’un site qui cumule les erreurs 500 prend très cher dans le positionnement des résultats Google :-)

[Chiffres] Pourquoi la longtail est-elle si indispensable ?

Ce n’est pas la première fois que j’évoque la long tail sur mon blog (j’en parle aussi ici). Je reviens aujourd’hui sur le sujet pour justement illustrer cette grande importance. Vous trouverez ci-dessous la segmentation du trafic mots-clés depuis les moteurs. J’ai volontairement segmenté selon la logique suivante :

  • Top 100
  • Top 500
  • Top 1000
  • Top 10 000
  • Le reste

Après avoir fait cette segmentation sur quelques sites, j’en ai déduis la répartition suivante (et donc confirmé ce que j’ai pu lire un peu partout sur le web concernant la part en % de la long tail) :

Part des visites par top mots-clés (en %)

Part des visites par top mots-clés (en %)

En terme de chiffres, voici ce que ça donne :

  • Les 100 premiers mots-clés engendrant le plus de visites représentent près de 8% du trafic.
  • Les 500 premiers mots-clés environ 12% du trafic moteur.
  • Les 1000 premiers mots-clés environ 18%.
  • Les 10 000 premiers mots-clés près de 30%.
  • Le reste : 70% !

Ce fameux reste correspond ainsi à la long tail, voire à la très long tail. Lorsque l’on voit que les 10 000 premiers mots-clés apportent près de 30% du trafic moteur total, on ne peut ignorer la long tail. Les chiffres sont, je pense, suffisamment parlant.