Gérer la pagination de son site au niveau SEO

S’il y a bien un sujet pour lequel je ne vois pas tant d’infos, c’est bien la pagination de nos sites. En tant que référenceur ou webmaster, n’avez-vous jamais eu cette problématique concernant la gestion de la pagination ? Et bien moi si, et je pense bien ne pas être le seul.

Lorsque vous êtes propriétaire d’un site qui contient des liste 2, 3 ou même 10 pages, vous n’êtes pas obligés de vous poser la question. Cependant, c’est loin d’être le cas pour tous. Qu’en est-il des sites qui possèdent des listes de résultats à 30, 50, 100 ou même 500 pages ?

Si vous avez envie de voir les résultats, le mieux à faire est de tester par vous-même. Naturellement, vous pouvez aller voir sur les grands sites d’e-commerce, mais la plupart d’entre eux n’ont tout simplement pas de pagination (ou alors ils la traitent en Ajax… pouark !).

Vous trouverez ci-dessous la plupart des tests que j’ai mené depuis mes débuts dans le seo. Chaque test a ses conséquences qui lui sont propres. Je vous le dis tout de suite, il n’y a pas de solution magique mais il me paraît intéressant de partager cela, car ce problème concerne une bonne partie d’entre-nous :

  • Indexer uniquement la première page : je l’appelle aussi la solution du méfiant. Ici, on ne souhaite référencer que la première page et on applique un beau noindex,nofollow sur les pages >1. Perso, je considère cela comme du gâchi car vous n’allez pas exploiter la masse de contenus réelle qu’il y a sur votre site. Et surtout, Google va quand même indexer les autres pages mais elles ne participeront pas à l’amélioration du ranking de la première. Ceci étant dit, aucun risque de duplicate via ce biais !
  • Indexer la première page et suivre les suivantes : une solution que je considère comme viable. En effet, vous indexez la première page mais vous autorisez le moteur à suivre les autres, lui permettant de mieux exploiter les liens qui sont à l’intérieur. C’est aussi une façon d’augmenter proprement la masse de contenus autour d’une thématique.
  • Indexer et suivre les X premières pages : un autre solution alternative. Vous référencez normalement les x premières pages de résultats (3, 5, 10 ?) et vous appliquez un noindex sur les suivantes. Par mon expérience passé, je n’ai pas vu de différence entre cette solution et la précédente concernant les conséquences SEO.
  • Avoir uniquement la première page en HTML, le reste en AJAX : le meilleur moyen de rendre la majorité de son contenu invisible. Pratique et efficace si c’est ce que l’on cherche à faire. Ca ne détruit pas l’expérience utilisateur et c’est transparent pour le moteur. C’est juste qu’au niveau de vos contenus, il ne faudra pas espérer un accès via les pages de résultats pour les contenus plus anciens…

Concernant votre pagination, comment l’affichez-vous ? En fonction de la règle d’indexation choisie, peut-être allez-vous vous orienter vers une solution plutôt qu’une autre ?

Par exemple, si vous n’indexer rien d’autre que la première page, il n’est pas nécessaire de s’embêter à afficher plusieurs chiffres pour la pagination. Un simple <précédent et suivant> fera très bien l’affaire.

  • Le cas “Page précédente” et “Page suivante” : comme évoqué précédemment, c’est un moyen simple de gérer sa pagination. Personnellement, je ne sais pas ce qui marche le mieux entre ce format et le suivant mais plus c’est simple pour l’utilisateur, plus il y a des chances qu’ils l’utilisent. Reste que cela génère moins de liens pointant vers des pages quasi-identiques sur votre page.
  • Le cas des pages numérotées avec un accès direct à la dernière page : la dernière page de résultat d’une liste m’a toujours laissé totalement indifférent. En effet, lorsque vous parcourez une liste de résultats (que ce soit des news, des items, des bien à acheter), on démarre rarement par la fin…. non ? Reste qu’une pagination numérotée donne un peu plus de poids à cette navigation d’un poids de vue moteur car le robot est capable de crawler plus de liens sans devoir passer par des pages intermédiaires supplémentaires… Et un ou 2 niveaux de clics de gagné, c’est toujours ça de pris.

Ceci étant dit, il y a des solutions pour réduire les énormes volumes de pages de résultats : peaufiner l’architecture de vos données : catégories, sous-catégories, sous-sous-catégories, mots-clés associés sont les clés pour réduire le nombre de pages de résultats pour un même sujet.

Étant au SMX, j’en ai profité pour poser la question autour de moi et malheureusement, je n’ai pas obtenu de réponses “nouvelles” par rapport à ce que je vous évoque au-dessus. J’ai également eu la chance de demander directement à Vanessa Fox (elle animait la session à ce moment-là et elle a participé à la création de Webmaster Tools chez Google à l’époque) et de son côté, elle recommande d’utiliser un mix entre mots-clés/sous-catégories couplé à la solution “Indexer la première page et suivre les suivantes évoquée plus haut”.

Et vous, quelles sont vos expériences concernant la pagination ? Vos impressions ? Ce qui a marché le mieux pour vous ?

15 réflexions au sujet de “Gérer la pagination de son site au niveau SEO”

  1. Excellent tout ça. Ça fait longtemps que l’on se pose ce genre de questions ici. L’approche qu’on a choisi pour une version future, est Ajax (bien meilleure expérience utilisateur dans notre cas), et les pages sont quand même bien référencées, puisque diponible sur des pages de catégories, des liens internes entre différentes pages, sitemap html, sitemap.xml, etc etc.

  2. Donc si je suis bien le raisonnement que t’as suggéré la Miss Fox, en fait, tu suivrais les 3-4 premières pages de pagination, et tu rangerais les autres dans des catégories dédiées ?

    Finalement c’est le principes des archives de dotclear en fait non ?

  3. @Loiseau : elle a évoqué le “noindex,follow” sur les pages 2 et +.

    Mais encore une fois, le mieux est de tester par soi-même, ça fait tout de même un petit bout de temps qu’elle ne travaille plus chez Google ;)

  4. il manque un élément à mon avis
    combien de clics doit faire google pour trouver la page 100 ?

    en gros, il faut etre plus malin que ca ;)

    sur la page 1 :
    1 2 3 4 5 6 7 8 9 10 20 30 40 50 60 70 80 90 100 200

    sur la page 10
    1…9 10 11 12 13 14 15 16 17 18 19 20 …. 199 200

    sur la page 100
    1 99 100 101 102 103 104 105 106 107 108 109 110 120 130 140 150 160 170 180 199 200

    sur la page 150
    1 … 149 150 151 152 153 154 155 156 157 158 159 160 …200

    et zou, pour aller, disons à la page 152, google crawle
    page 1 -> page 100 -> page 150 -> 152
    (en 4 clics)

    ok, c’est pas tres beau … je n’ai presenté ici qu’une solution alternative à un eventuel manque de filtres…

  5. Je préconise aussi de renforcer le maillage interne car la pagination peut se transformer carrément en facteur bloquant.
    D’ailleurs, tu m’as devancé sur la publication d’un billet traitant du même sujet. Ca sera l’opportunité de te linker ;-)

  6. Personnellement, cela fait un moment que j’applique la solution “Indexer la première page et suivre les suivantes” sur un site d’annonces immobilières, et cela ne marche pas trop mal par rapport aux objectifs que l’on s’est fixés. Tout dépend en réalité de l’objectif seo du site concerné. Dans le cas d’un site d’annonces, l’objectif prioritaire sera notamment de rendre accessible aux robots un maximum de pages annonces afin que ces dernières soient indexées.

  7. Bonjour Fabien !

    et bien moi je pense que la “dernière page” a un intérêt : elle donne l’age du site ou sa fréquence d’archivage, elle donne ses premiers membres, la première philosophie d’un site… Et pour Google, elle permet de parcourir dans les 2 sens… Je me souviens d’avoir lu une discussion sur la pagination inverse ou la page “2” serait avec l’id le plus haut et la dernière page avec l’id 1 (la première page n’ayant pas besoin d’id), ce qui fait que les anciennes pages ne changent pas ou peu d’URL, qu’elles sont moins crawlées ce qui donne plus de réactivité voire de puissance aux pages récentes, et que si elles sont liées depuis un site externe, le visiteur a de bonnes chances d’arriver sur la bonne page… C’est quelque chose que je n’ai pas encore testé à grande échelle …

    Dans tous les cas, la pagination a par rapport à des segmentations par rubriques/mots clefs le gros défaut que l’ancre n’apporte vraiment rien aux pages…

    Sinon, je suis assez d’accord avec Yannick, Il peut être efficace de faire une pagination à plusieurs points de départ, pour que les pages intérieures du classement soient mieux prises en compte, récemment cette technique a permis de rapidement multiplier les pages indexées d’un site de rencontres….

    Au plaisir de te lire et bonne continuation,
    JP

  8. Peut on m’expliquer l’intérêt d’avoir du contenu non référencé?! lol, c’est totalement contre productif en terme de SEO :/ Le seul contenu ne devant pas être référençable est celui n’ayant pas de lien direct avec les mots clefs de l’activité, les pages doublons ou celles avec trop peu de contenu. Il existe différentes techniques de paginations afin de maintenir en avant les pages profondes.

  9. Je me suis posé la même question lors de la refonte de l’un de mes gros sites, il y a quelques mois. Et j’ai fait le même constat, il n’y a que très peu de sujets sur le net qui aborde cette problématique. Pourtant, c’est super important, amha, pour le SEO d’un site.
    Personnellement, j’ai fait la chose suivante :
    – Catégories principales
    — Sous-catégories
    ——- Tags très spécifiques
    ——- Petite pagination
    —————– 1 er page en index,follow
    —————– Autres pages en noindex, follow

    Avec cette formule, je suis passé d’une 50aine de pages de résultats par catégorie à en moyenne 3 pages de pagination par sous-catégories et 3 à 4 tags d’une seule page. Je suis assez satisfait de cette architecture.

    Par contre, je ne sais toujours pas comment la déclarer sur ma page d’accueil de façon optimal pour les visiteurs et moteurs de recherches sans mettre un gros pavé de liens et dans le but de limiter le nombre de clics pour accéder aux pages profondes.

    Coté Google Analytics, cette nouvelle architecture a fait gagné 1 clic pour accéder aux pages profondes.

  10. Bonjour

    Pour ma part, j’ai également choisi d’indexer uniquement la première et de suivre les suivantes, mais en utilisant une structure interne “finie” et intégralement indexée (catégories + tags, qui ne se recroisent pas bien évidemment)

    Les pages d’archive (au sens WordPress du terme : catégories, tags) sont elles également gérées de cette manière (1ère page en index,follow, suivantes en noindex,follow) – nb : modifs faites à la main sous WordPress (avec affichage d’une description pour chaque taxonomie, plus title et meta description spécifiques)

    J’ai ajouté également un maillage interne des articles entre eux, sans compter les liens “manuellement” réalisés d’un article à l’autre.

    Par contre j’ai viré tout ce qui touche à l’aspect chronologie (pages d’archives par année, mois, etc.) et “auteur” (puisque je suis seul sur mon blog : aucun intérêt)

    Aujourd’hui, 100% de mon sitemap est indexé et surtout, catégories comme tags apparaissent dans Google, dans l’ensemble très bien positionnés :)

  11. Arkanys dit: “je ne sais toujours pas comment la déclarer sur ma page d’accueil de façon optimal pour les visiteurs et moteurs de recherches sans mettre un gros pavé de liens et dans le but de limiter le nombre de clics pour accéder aux pages profondes.”.

    Il est vrai que le problème se pose lorsque qu’on souhaite que certaines pages profondes soient bien positionnées et bénéficient d’une ancre de liens optimisés. Le nuage de mots clés peut être une solution

  12. Quelle solution préconisez vous alors ? Le faite de définir les futures pages en no-index ? Finalement, le no-index ne pas pas indexer les pages mais permettra l’indexation des liens présent dans les pages tout de même ?

    J’ai pu lire dans certains blog de SEO qu’il est bon de mettre un rel=”canonical” pointant vers la première page dans les autre page de la pagination. Qu’en pensez-vous ?

    Et autre sujet de réflexion, est-ce qu’il faut placer des meta desc sur les autre page de la pagination car cela peut générer du duplicate également ( ou alors pas du tout vu qu’elles sont placées en no-index ? )

  13. Salut à tous,

    Une solution alternative qui n’a pas été évoquée peut être également mise en place, elle permet de trouver un juste milieu entre ergonomie et SEO.

    Imaginons une page list avec 100 produits (sans pagination). On va charger les 100 produits sauf qu’en CSS (avec un overflow:hidden) on va venir “cacher” les 70 derniers produits. On a donc 30 produit à l’écran, pendant que le navigateur charge les 70 autres. Pour afficher la suite des produits, on passe par un bouton “afficher XX produits”, “afficher YY” ou “afficher tous les produits”.

    C’est sûr que le temps de chargement est plus long et que mettre du contenu dans une cachée c’est pas top, mais ça a au moins le mérite de bien mailler et de faire exister ces liens dans le code.

    So ?

  14. Bonjour à tous,

    De mon côté, je m’apprête à utiliser les balises rel=”next” and rel=”prev”, en complément du noindex,follow.

    A tester…

    Laurent

  15. J’ai pour ma part également choisi le noindex + follow des pages de listing 2 et +.

    Pour améliorer la navigation/crawl horizontale, je suis passé par la mise en place de taxonomies persos, ça me permet de bien classer pour les utilisateurs des articles faisant partis d’un grand ensemble. C’est un peu chiant à mettre en place mais je suis assez content du résultat :)

Les commentaires sont fermés.