Google aime de moins en moins qu’on le sollicite via un logiciel

J’ai remarqué, depuis près de 15 jours, que Google blacklistait plus facilement une IP si on l’interrogeait via un logiciel de relevé de positionnement. Il m’arrive de me servir de ce genre d’outils et depuis peu, pour le même volume de requêtes, il m’arrive facilement de me faire bannir mon adresse IP (temporairement). »C’était déjà le cas » vous allez me dire. Je le sais, mais l’algorithme du moteur semble être bien plus exigeant qu’auparavant sur ce point.

Si je n’ai eu aucun souci ces 12 derniers mois, il semblerait que Google soit ainsi moins enclin à répondre aux requêtes émanant de ce type de logiciels (même en temporisant). Il semblerait que le souci se pose si l’on décide de ne pas se limiter aux 20 premiers résultats…

Quoiqu’il en soit, c’est assez embêtant car faire un relevé de positionnement à la main, ça risque d’être long. :)

Quelqu’un d’autre a eu aussi ce genre de problème ?

6 réflexions au sujet de “Google aime de moins en moins qu’on le sollicite via un logiciel”

  1. J’ai fait l’expérience de ce blacklistage, car j’ai utilisé l’API Google pour un projet d’IA quand j’étais étudiant.
    j’ai un peu foiré mon code avec pas mal de boucles et du coup j’ai été blacklisté et avec moi toute l’école vu que nous avions tous la même IP…

    Enfin sur le coup j’ai pas dit que c’était de ma faute bien évidement ^^

  2. J’ai eu le tour il y a quelques jours, avec l’extension goldorank , j’avais fait de rapides tests de positionnement pour un site sur certaines requêtes. Au bout de quelques tests, blacklistage de l’ip. Donc il a fallu redémarrer la box :) Rien de grave mais bon, c’est vrai que sur le coup, on ne fait pas le fier.

  3. Les logiciels de suivi de positionnement devraient proposer des interrogations distribuées sur plusieurs IPs. Il me semble que c’est en projet pour SeeURank (ou bien est-ce fonctionnel ?)

  4. Salut. Je suis « un peu » au courant de ce genre de problématiques :-)

    Ce que je peux te dire, c’est que les mesures prises par Google pour combattre les robots qui scrutent leurs résultats sont de plus en plus nombreuses et restrictives (notamment depuis un an). Chaque requête sur leur moteur a un cout en terme de calculs pour eux, et il est légitime qu’ils se protègent.

    Du coup, même en se limitant aux premiers résultats et en espaçant le temps entre chaque requêtes (ce qui peut devenir interminable quand on a beaucoup de mots!), cela devient vite fastidieux.

    Après, il existe toute une méthodologie dans la récupération des résultats qui permet de limiter ces effets. Et cela constitue la plus-value de chaque outil de suivi de positionnement ;-) (même si les utilisateurs finaux ignorent pour la plupart cette problématique de blacklistage…)

  5. Bonjour ramenos,
    J’ai fait un rapport de positionnement il y a deux semaines sur une assez grosse liste de mots clés en passant par le proxy de ma société et bizarrement moins d’une heure après j’ai remarqué que toute recherche sur google.fr via le navigateur nécessitait pour l’utilisateur de remplir un catcha.
    Quelques heures après, tout est revenu dans l’ordre….

  6. J’ai remarqué exactement la même chose depuis quelques semaines, même en me limitant à une profondeur de 20 réponses et en temporisant ! Et comme dans ma boite on n’a qu’une seule IP sortante, mes collègues (dont la plupart ne connait rien au web) passent leur vie à croire qu’ils sont devenus des virus :>

Laisser un commentaire