Archives pour la catégorie Référencement

Voir l’ensemble des posts relatifs au référencement naturel et payant sur le blog Ramenos : SEO, Adwords ou toute autre forme de réflexion à propose de l’acquisition de trafic via les moteurs.

5 données Webanalytics à exploiter en référencement naturel

Webanalytics et SEO sont deux métiers complémentaires qui partagent des données communes. Vous trouverez ci-dessous un ensemble de 5 données à exploiter, aussi bien en référencement naturel qu’en Webanalytics :

  • Les URL uniques génératrices de trafic entrant depuis les moteurs : information intéressante puisqu’elle permet de suivre facilement l’état d’indexation de vos pages clés.
  • Les domaines externes qui génèrent du trafic entrant : quels sont les domaines externes qui vous génèrent le plus de liens, et surtout de manière régulière ? Cette information est bonne à connaître et à suivre d’un point de vue linking externe entrant.
  • Les nouveaux domaines qui génèrent du trafic chaque mois : il ne s’agit pas là des sites « fidèles » à votre activité mais plus des domaines qui ont généré de manière ponctuelle un nombre de liens entrants limité vers votre site. Il peut parfois y avoir de bonnes surprises…
  • La part des mots-clés qui pointent vers des pages à fort taux de rebond : analyse très importante puisqu’elle va permettre de voir si les efforts réalisés en SEO portent leur fruit… Ou pas. Dans un cas comme dans l’autre, c’est l’occasion de peaufiner ou revoir la structure et le contenu de ces fameuses pages.
  • Les mots-clés les plus tapés qui génèrent des visites à plusieurs pages : lié à l’analyse précédente, il peut être pertinent d’étudier quels sont les mots-clés tapés qui engendrent des visites assez « qualifiées » sur votre site, à savoir des visites à plusieurs pages, voire des visites qui remplissent assez souvent les objectifs de conversions définis.

De toute façon, vu le nombre d’indicateurs disponibles dans les outils, les multiplications sont nombreuses. En cas de manque d’inspiration, un petit tour sur Webkpi devrait vous aider :).

Comment préparer une stratégie de référencement naturel ?

elaborer-projet-seo

La prise en compte du référencement naturel est devenue indispensable lors d’une création ou d’une refonte de site Internet. Ceci étant dit, il est important de bien s’organiser. Faire du SEO pour « faire du SEO », ce n’est pas forcément utile. La méthodologie « condensée » évoquée ci-dessous est une des différentes possibilités pour mener un projet en référencement naturel.

Définir un objectif

Lors de la création du projet, il est vital de se définir un ou plusieurs objectifs. Je veux faire du référencement naturel sur mon site. D’accord, mais pourquoi ? Est-ce que je souhaite avoir un maximum d’inscrits à ma newsletter ? Est-ce que je souhaite vendre le plus possible de produits de type A de la catégorie B ? Est-ce que je souhaite devenir visible sur une thématique particulière ? Tous ces objectifs se valent et il en existe plein d’autres. Votre client (ou vous) doit savoir ce qu’il espère faire avec son site (« Gagner de l’argent » est un bon début mais ça ne suffit pas :) ).

Analyser et exploiter l’existant

Le site existe déjà. A quoi ressemble-t-il ? Quelle est son arborescence ? Y a-t-il un outil d’analyses statistiques déjà implémenté ? Si oui, lequel ? Pensez à aller voir les statistiques afin de voir les forces et faiblesses du site actuel. Analyser les termes sur lesquels vous êtes fort. Si on vous embauche pour faire du référencement naturel, ça ne veut pas forcément dire que le SEO est catastrophique. Quelles sont les données disponibles en base ? Comment puis-je les exploiter ? Est-ce que je possède d’autres types de données qui pourraient m’intéresser ? Il s’agit là d’un préambule à votre stratégie SEO. S’il n’existe pas de site, pensez à ce que vous allez pouvoir exploiter (données publiques et privées).

Faire une analyse sémantique et concurrentielle

Vous devez être capable d’établir différents champs sémantiques tout en leur attribuant un ordre d’importance. Bien entendu, ces analyses de mots-clés sont réalisées en fonction du/des objectif(s) défini(s) au départ. Pour s’aider, vous pouvez utiliser les outils Google, les données existantes sur votre site mais aussi le contenu existant chez un concurrent… Sans oublier d’user en permanence votre bon sens. Une fois les mots-clés définis, vous devez savoir rapidement quels sont les termes sur lesquels votre site est visible et quels sont les termes où votre site est…quasi invisible. Pensez à présenter cela de manière « conviviale » auprès du service marketing ou de la direction par exemple ;).

Élaborer une stratégie pour la partie technique et structurelle

C’est ici qu’il est nécessaire de faire travailler vos méninges. En plus des différentes bonnes pratiques au niveau XHTML / CSS et autre « netlinking interne », il va vous falloir mettre en place une structure ultra pertinente, à la fois pour les moteurs de recherche mais aussi pour les internautes. En effet, n’oubliez jamais que faire du SEO, c’est optimiser vos sites pour les internautes qui viennent des moteurs de Google. Enfin, dites-vous que lorsque vous mettez un projet en place pour du référencement naturel, il doit avoir un caractère évolutif et facilement s’adapter aux besoins.

Suivre la mise en oeuvre et l’évolution du projet

Phase vitale, il faut s’assurer que les développements prennent en compte les différentes recommandations SEO. En attendant, n’hésitez pas à exploiter de manière temporaire le domaine de votre site. Enfin, une fois que tout fonctionne correctement, assurez-vous bien d’avoir implémenté un outil d’analyse statistiques, d’avoir segmenté vos pages pour plus de clarté dans la lecture des stats et puis de développer peu à peu votre réputation internet.

Étudier le comportement des internautes sur votre site, sur les moteurs et dans la vraie vie

Une fois les nouveaux visiteurs acquis, il est important de s’assurer qu’ils atteignent le ou les objectifs fixés à l’origine. Pour cela, vous allez devoir étudier en profondeur leur comportement sur le site. 30% de mon trafic arrive depuis les moteurs, soit ! Mais visitent-ils le site ou repartent-ils aussitôt ? Quelles sont les pages principales qui permettent de remplir mes objectifs ? A l’inverse, quelles sont celles qui sont censée aider l’accomplissement de mon objectif mais qui étrangement possèdent un taux de rebond très élevé ? A vous de les déterminer et surtout de trouver des solutions, solutions qui feront inévitablement évoluer vos projets SEO d’origine (voir « Cycle de travail du référenceur« )

Comment faire pour ne pas suivre les liens javascript ?

La réponse en vidéo :

Je trouve certaines vidéos de Matt Cutts parfois limite. Il dit clairement que le nofollow sera pris en compte s’il est appliqué au sein d’un lien a href contenu dans un Javascript. Quelques mois auparavant, il annonce que l’utilisation de l’attribut nofollow n’est plus pris en compte.

Par expérience, je ne peux que vous confirmer cela. Effectivement, tenter de construire son Page Rank en se fondant là dessus n’est pas la solution.

Plutôt que de s’embêter avec cet attribut qui n’apporte plus grand chose et pollue légèrement l’accessibilité de votre site, pourquoi ne pas vous focaliser sur votre fichier robots.txt ?

D’une manière générale, j’ai presque envie de dire que le nofollow peut s’appliquer aux liens sortants qui sont situés directement sur la home, page clé de votre site. Cependant, pouvez-vous me dire quel est l’intérêt de mettre des liens sortants directement depuis sa homepage si ce n’est pour tuer les visites reçues, le nombre de pages vues par visite et surtout le taux de conversion ?

Bloquer les visiteurs par pays, c’est moche pour vos abonnés et le seo !

bloquer-ip-seo

Il existe plusieurs pour lesquelles l’auteur d’un site bloque l’accès à certains visiteurs issus de certains pays. De mon côté, et cela n’engage que moi, il n’existe pas de raison valable pour le faire. Le web n’a pas (et ne doit pas) avoir de frontières. D’un point de vue SEO, ça n’a bien évidemment aucun intérêt pour plusieurs raisons :

Restreindre la visibilité de son site : des millions de personnes qui ne peuvent pas accéder à votre site pour x ou y raison, ça fait forcément moins de visiteurs potentiels, surtout si votre site est en plusieurs langues. Il n’y a pas qu’en France où l’on parle français ;).

Appliquer une règle peu fiable : bloquer un panel d’adresses IP n’est pas suffisant pour restreindre l’accès de son site. N’importe qui peut maintenant utiliser un proxy pour accéder à une information soi-disant dure à obtenir… D’ailleurs avec Hadopi 2 qui vient de passer, les solutions de proxy vont encore plus se répandre…  Bref ! J’ajoute également que si l’analyse par géographie vous intéresse, cette dernière risque d’être encore plus faussée à cause de l’utilisation de ces fameux proxy. Combien de français passent par un proxy américain pour accéder à certains contenus… ?

Frustrer un visiteur fidèle : pour peu que la plupart de vos visiteurs soient souvent en déplacement, l’interdiction d’accéder à votre site depuis certains pays peut vite en énerver plus d’un… Qui dit frustration répétée dit perte éventuelle d’un internaute fidèle et… c’est moche !

Limite le linking entrant : une personne vivant à l’étranger et appréciant votre site risque difficilement de le relier s’il est accessible depuis chez lui. Sans parler des internautes qui correspondent pile à votre cible mais qui ne pourront vous citer car depuis leur pays, il est impossible d’accéder « naturellement » à votre site.

Bref, je vous conseille de ne jamais faire ça. Si vous souhaitez vraiment qu’un contenu reste privé, mettez des mots de passe ou alors désindexer certaines pages de votre site en configurant le fichier robots.txt à la limite.

Pourquoi s’affoler si le Page Rank disparaît de Google Webmaster Tools ?

Depuis quelques jours, Google Webmaster Tools a subi quelques modifications. Doté d’un nouveau menu « Labos », l’outil propose désormais d’analyser une page et de vous afficher le contenu comme le voit un robot. Assez sympa comme fonctionnalité même si l’on peut obtenir quelque chose de similaire en regardant une page via le cache Google en mode « texte seulement ». Vient ensuite la fonctionnalité de détection de logiciel malveillant sur son site. Par chance, Ramenos Blog n’est pas malveillant (ouf).

Cependant, en plus de ces deux ajouts, j’ai pu remarquer que certains s’affolaient sur le fait que l’indicateur Page Rank n’apparaissait plus dans l’outil (il était auparavant dans la section « Statistiques sur l’exploration »). Je ne comprends pas pourquoi il existe de tels débats autour de ce point. Certes, le Page Rank est un indicateur de performance globale qui peut s’analyser page par page.

S’il s’avère pratique pour détecter rapidement si une partie des performances SEO sont « diluées » sur d’autres pages, le fait qu’il disparaisse de Google Webmaster Tools n’est, selon moi, pas un drame en soi ! J’ai même envie de pousser le bouchon plus loin pour dire qu’au final, on peut tout à fait exercer le métier de référencement naturel sans cet indicateur. Encore une fois, le Page Rank est un indicateur… Parmi des centaines d’autres chez Google. Par expérience, n’importe quel référenceur un tant soi peu honnête pourra vous dire qu’un Page Rank élevé ne signifie pas forcément avoir un bon positionnement.

Certes, on jette un coupe d’œil au Page Rank de son site, son blog et on est tout content d’avoir gagné un petit point de temps à autre. En attendant, ce n’est pas forcément cela qui va faire en sorte que le nombre de visites va s’envoler… :)

Maintenant, dire que le Page Rank va disparaître, c’est un peu fort. Je me trompe peut-être mais je ne vois pas pourquoi Google le ferait disparaître sachant qu’au cours de ces deux dernières années, de lourdes sanctions ont été mises en place auprès de ceux qui essayait de gonfler « artificiellement » leur Page Rank via des moyens peu ou pas recommandables. En ce qui me concerne, je pense surtout que l’indicateur PageRank dans Google Webmaster Tools ne servait pas à grand chose dans son affichage actuel.

Si, en 2004, un bon Page Rank était important lors de la stratégie de référencement naturel d’un site, la situation me paraît complètement différente aujourd’hui. Enfin, le référencement naturel, comme la majorité des métiers du web, évolue, se transforme et nos actions font de même. Si, par nostalgie, le Page Rank représente un indice fondamental pour n’importe quel référenceur, il ne faut pas non plus s’endormir dessus. Pour ma part, je fais du référencement naturel depuis un peu plus de 3 ans et il est clair et net que mes priorités, dans une stratégie de référencement naturel, ne sont plus les mêmes qu’en 2005 ou 2006.

Et vous, qu’en pensez-vous ?