Le référencement naturel en 2010

Le référencement naturel est un métier en évolution permanente. Chaque référenceur le sait, mais on n’applique plus une stratégie SEO en 2010 comme on l’appliquait en 2007 ou en 2004. Le nombre de sites augmente, les algorithmes des moteurs s’affinent et la démultiplication des critères rend plus délicat la visibilité d’un site dans les premières positions Google, notamment sur des requêtes concurrentielles.

Pour 2010, je ne pense pas que le métier de référenceur naturel va devoir être revu dans sa globalité. Il faut toujours garder en tête que vous faites en sorte de rendre plus facilement accessible votre site pour les internautes qui proviennent des moteurs de recherche. En revanche, quelques subtilités non-négligeables sont à noter. Ce qui suit est ma vision personnelle sur les grandes lignes à retenir concernant le métier de SEO pour 2010 :

Optimisations techniques des pages : jusque là rien de nouveau, on continue de faire des beaux templates XHTML avec son title, sa meta description, des URLs crawlables (même si un bon fil d’ariane vaut mieux qu’une URL très longue et pleine de mots-clés), des balises h1, h2 et son netlinking interne qu’on aura défini selon des objectifs précis.  Toujours penser à garder un bon ratio contenus/liens. Bref, la base du SEO est conservée et c’est normal, c’est ce qui permet aux moteurs d’exploiter vos pages.

Cependant, je vous recommande fortement d’appuyer l’accent sur l’optimisation du code des pages, afin d’avoir un temps de chargement des pages optimal (externalisations JS, CSS propres, images compressées…). Pour cela, aidez-vous du plugin Page Speed. Après tout, le critère de temps de réponse pourrait très bien prendre plus d’importance dans les mois à venir, tant les sites parlant d’un même sujet sont souvent nombreux.

Utilisation des Microformats : déjà exploité par Google et ses services, l’utilisation des microformats au sein de votre site s’avère judicieuse pour structurer les données. Je m’adresse ici principalement aux sites qui proposent des données à vocation géographique mais aussi à tous ceux qui proposent des systèmes de commentaires et notations. Pour vous renseigner davantage sur le sujet, allez lire cet excellent article sur les Microformats hReview. Quoiqu’il en soit, Google les reconnaît, les prend en compte et n’est certainement pas contre leur utilisation puisqu’il les utilise lui-même dans la plupart de ses services… Les conséquences d’une bonne utilisation des microformats sont la forme du résultat dans les résultats de recherche.

Linkbuilding et réseaux sociaux : un site propre, bien codé et dont le maillage de liens internes fonctionne, c’est bien. En revanche, si votre site n’est pas populaire, les efforts fournis seront réduits à néant puisque vous serez invisible. Faites-vous connaître, contactez d’autres sites pour promouvoir votre contenu. Laissez-vous interviewer par les grands journaux du web, faites des échanges de visibilité “propres” avec certains sites. Enfin, ne négligez pas les réseaux sociaux qui représentent une couche supplémentaire dans l’accessibilité de votre contenu. Twitter, Facebook, Linkedin, Digg, ces sites là peuvent s’avérer utile, tout dépend de votre contenu et encore une fois de vos objectifs. Par exemple, si vous pouvez éventuellement perdre en pages vues en dupliquant vos news sur Twitter, vous gagnerez en revanche plus facilement en visibilité à travers un réseau spécifique (abonnés, listes, retweet). Bref, ce travail de développement de popularité peut presque être un poste à temps plein selon les entreprises.

Proximité avec les Webanalytics : en effet, faire de l’acquisition de trafic juste pour augmenter ses visites, ce n’est, selon moi, pas suffisant. En revanche, augmenter ses visites dans l’optique d’augmenter le taux de conversion pour l’objectif qu’on s’est fixé, ça commence à devenir être intéressant. Je veux augmenter mon trafic moteur : oui mais pourquoi ? Quelles sont mes pages de destinations ? Comment puis-je faire pour que l’internaute y arrive et “transforme”. Il faut mesurer tout cela, mettre en place des tests. Bref, l’acquisition de trafic moteur doit se faire un objectif de transformation.

Prenons un petit exemple de compte-rendu :

Compte-rendu A :

Les pages xxxx génèrent 5000 visites/jour depuis les moteurs. Voici les requêtes les plus tapées pour y accéder. Nous avons donc augmenté la visibilité du site dans les moteurs.

Compte-rendu A+ :

Les pages xxxx génèrent 5000 visites/jour depuis les moteurs et ressortent sur les expressions que nous avons souhaité mettre en avant. 9% des visites ont engendrées une inscription à la newsletter depuis les pages xxx et 17% ont abouti à des commandes. En revanche, nous avons noté un taux de rebond très élevé sur les pages xxxx-B et xxxx-C, il faudrait voir pourquoi.

Cette deuxième analyse tient compte à la fois de données pour le SEO mais aussi pour mesurer plus en détails ce qui a été mis en place par rapport aux objectifs de l’entreprise. Et encore il ne s’agit là que d’un exemple très simplifié.

7 réflexions au sujet de “Le référencement naturel en 2010”

  1. L’optimisation de base d’un site pour le référencement perdure (technique, éditorial, liens) avec, en effet, une mise en avant intéressante des micro-formats et des réseaux sociaux. Mais, plus que jamais, il devient nécessaire d’analyser l’impact de ces sources sur le trafic et surtout, sur les conversions. A ce titre , le web analytique est un levier indispensable et pas seulement en 2010 (cf. Comment mieux identifier ses visiteurs pour augmenter les ventes ?).

  2. Ok pour 2010, mais il va y avoir encore d’autres changements… And the world goes on. :-)

  3. Et bien j’ai l’impression de passer à coté de beaucoup de chose, je pensais que le référencement naturel était seulement les backlinks que les masters posaient sur leur site ce qui permet à google de savoir si le site tient la route ou pas.

    Merci pour les infos, je dormirai moins bête ce soir.

  4. Bonjour, en effet la vitesse d’affichage d’un site a l’air d’alimenter pas mal de blogs ces derniers temps. Par contre si on regarde la plupart des sites en première page sur les requêtes les plus concurrentielles ( jeux, voyage, crédit, rencontre, … ) avec Page Speed, on s’aperçoit que la quasi totalité des sites sont en dessous de 80/100, parfois même en deçà de 60/100 ! ( 58/100 ) :-x Idem avec de gros sites comme 01net, commentcamarche, clubic, …

    Même si les sites sont moins rapide que recommandé, le fait d’avoir une foule de liens l’emporte sur la vitesse d’affichage.

    Donc je pense que Page Speed n’est valable que sur de petit site qui démarrent, le temps d’avoir 10.000 backlinks ;)

    Enfin bref, à voir à terme…

Les commentaires sont fermés.