Google Crawler génère 520 erreurs par jour. Je vais obtenir environ 50-100 de ces erreurs dans un site Web de 60.000 liens internes.
Le problème, c’est que mes liens ne présentent aucun problème que je puisse creuser pour le résoudre. Par conséquent, lorsque je clique sur une erreur d'URL et que j'utilise la fonctionnalité Fetch as Google, l'URL est analysée et indexée normalement sans aucun problème.
Des indices pour commencer le dépannage de celui-ci?
Merci
J'ai trouvé cet article sur cloudflare.com qui pourrait aider:
En outre, je vous conseillerais de retirer temporairement votre site Web d'un service de mise en cache tiers (tel que cloudflare), de l'exécuter pendant une semaine et d'observer les journaux de votre serveur pour voir si quelque chose d'inhabituel se produit. En outre, testez-le plusieurs fois sur webpagetest.org pour voir si les temps de chargement sont acceptables.
Obtenez également un outil qui analyse tous les liens de votre site pour s’assurer qu’ils sont tous valides. J'utilise Xenu Link Sleuth (trouvé à l'emplacement http://home.snafu.de/tilman/xenulink.html#Download ).
Une fois que les choses sont acceptables, essayez à nouveau cloudflare et si vous obtenez toujours l'erreur HTTP 520, alors il y a un problème avec leur service et/ou avec votre compte sur leur service. Dans ce cas, vous devez les contacter directement à propos du problème.