web-dev-qa-db-fra.com

Quoi d'autre puis-je tester lors du dépannage d'un problème d'extraction dans la console de recherche Google?

Au cours des deux derniers mois, je n'ai pas pu récupérer les pages de mon site dans la console de recherche Google.

(Le message d'erreur indique "Temporairement inaccessible")

Voici les causes possibles que j'ai rencontrées et la façon dont j'ai essayé de les tester.

* La page n'existe pas. (Je ne pense pas que ce soit cela car la page est visible par tout visiteur non-bot.)

* Googlebot est bloqué par mon fichier robots.txt. (Je ne pense pas que ce soit le cas car la seule entrée de ce fichier est User-agent: *)

* Googlebot est bloqué par mon hébergeur. (Je ne pense pas que ce soit le cas, car j'ai consulté les statistiques de trafic de bot et Googlebot a réussi à explorer le site.)

* Le chargement de la page prend trop de temps et crée une erreur de dépassement de délai. (Je ne pense pas que ce soit le cas. Certaines de mes pages sont véritablement lentes, mais, à titre de test, j'ai également téléchargé de petites pages html, essentiellement vierges, qui se chargent en une demi-seconde. Elles ne seront pas récupérées. non plus.)

Bien que ne variante de cette question a été posée ailleurs sur le site , la réponse suggérée - qu'il s'agit d'un problème temporaire dans Google Search Console - ne s'applique pas dans ce cas car le problème a été persistant pendant huit semaines dans mon cas.

Si vous voyez une erreur dans la logique de test ci-dessus, merci de me le faire savoir. Sinon, si vous pouvez penser à un autre angle sous lequel je devrais aborder cette question, je serais curieux. Merci!

1
user2258740

Ce qui est assez clair, c’est que cela ne concerne vraiment que l’outil Fetch de GSC.

La page d'aide de Google nous indique que l'erreur "Temporairement inaccessible" se produit lorsque:

  1. Récupérer car Google ne peut pas récupérer votre URL car le serveur a mis trop de temps à répondre.
  2. Ou Récupérer car Google a annulé votre récupération, car trop de requêtes consécutives ont été adressées au serveur pour différentes URL.

Cela peut donc se produire lorsque Googlebot n'est pas en mesure d'extraire votre URL donnée en raison d'un délai d'attente maximal, du blocage d'IP, de la page bloquée dans le fichier robots.txt, de la page bloquée avec l'attribut noindex ou de la défaillance du serveur d'hébergement.

Comme indiqué au numéro 2, il arrive souvent que Google lui-même limite le nombre de requêtes à votre serveur, aussi utilisez-le moins. Si aucune des raisons ci-dessus n’est en jeu, donnez-lui un peu de temps avant d’utiliser à nouveau l’outil d’extraction et ne l’utilisez pas trop lorsque vous le ferez, et j’espère que cela résoudra le problème.

Veillez également à ne pas inclure la valeur précédente/dans vos URL, car celle-ci est déjà incluse dans Google et peut entraîner une double demande.

2
garth