S’il y a bien une erreur stupide mais qui est constamment répétée sur la plupart de mes sites clients, c’est l’indexation des environnements de préprod. Vous savez, les fameux staging.monsite.com ou encore prd.monsite.com, sans compter le célèbre preprod.monsite.com.

Comme moi, malgré de précieuses recommandations auprès des équipes techniques/gestion de projet, vous avez vécu ce problème lorsque le chef de projet vous dit que l’environnement de préprod est accessible sans mot de passe et depuis l’IP de l’entreprise.

Et comme moi, vous vous êtes aperçu qu’il ne savait pas vraiment de quoi il parlait puisque l’URL était accessible de partout… Bref !

Il existe 3 façons efficaces de ne pas indexer votre environnement de préprod.

1) Restriction par user/mot de passe

Le plus efficace, contre tout type d’accès. Faites en sorte que l’accès à la préprod nécessite de remplir un champ avec un nom d’utilisateur et un mot de passe. Dès que c’est entré, le site s’affiche. De cette façon, aucun risque que Google crawle et indexe la duplication.

2) Restriction de l’adresse IP

Autre moyen possible, restreindre l’accès par adresse IP. En mettant uniquement l’IP de votre entreprise, le site sera accessible seulement depuis les machines qui ont cette ip. Pas de risque à ce que Google vous indexe également, mais pensez à vérifier que la restriction est bien appliquée à une seule IP… J’ai déjà vu des surprises.

3) Ajout d’une meta robot

Vous vous fichez que n’importe qui puisse voir la préprod et que les moteurs passent dessus ? Soit, mais pensez à mettre au moins des balises pour restreindre l’accès aux robots :

<meta name= »robots » content= »noindex, nofollow »>

De cette façon, on interdit aux moteurs de suivre et indexer la page dans les résultats de recherche. La meta tag permet de le faire efficacement. Truc pratique, ça vous permettra de vérifier quelques points directement en ligne, comme par exemple la validation de l’implantation de microdata à grande échelle.

Le truc qui ne fonctionne pas : le fichier robots.txt

En revanche, ne comptez pas sur votre fichier robots.txt pour interdire l’accès de votre préprod aux moteurs.

User-agent:*
Disallow: /

Google va quand même indexer vos pages et ça va être… Sale. Bref, laissez tomber le fichier robots.txt si c’est pour éradiquer la préprod des résultats des moteurs.

Si vous me lisez régulièrement, n’hésitez pas  replonger la tête dans les contenus du blog relatifs au fichier robots.txt. Vous connaissez l’efficacité de ce fichier, non ? Bref, ce rappel, bien qu’un peu « SEO beginner » m’a paru nécessaire car j’ai encore vécu récemment ce genre de souci pour l’un de mes clients.

Pourquoi je vous dis tout ça ?

A votre avis, qui se charge de lister les URL indexées de la préprod pour les faire rediriger par la suite en 301… ? C’est bibi ! Mais plus sérieusement, c’est surtout du temps et de l’argent perdus inutilement pour vous, comme pour le client. Pensez à mettre votre spécialiste SEO au tout début du projet.