Mon site n'a pas encore été exploré et il est actif depuis (XX) jours ou n'a pas été analysé à nouveau (XX) jours. Pourquoi cela prend si longtemps et comment puis-je l'accélérer.
(Créé pour le grand nombre de questions que nous avons vu flotter à propos de la fréquence d'analyse, qui semblent toutes varier très peu d'un thème à l'autre et qui ne peuvent pourtant pas être strictement dupées avec une autre question, car une petite partie est différente )
La première chose à retenir est que ce qui peut sembler être un taux d'analyse lent peut ne pas être nécessairement lent et que, lorsqu'il s'agit de taux de taux d'analyse, les concepts tels que lent perdent tout leur sens.
Tout d’abord, avant de pouvoir explorer un nouveau site, Google doit savoir qu’il existe. Google obtient cette information d'un certain nombre de sources, y compris ...
Lorsque le nouveau site est identifié, il est placé dans une file d'attente pour être analysé par l'un des robots d'exploration de sites Web Googlebot de Google. À partir de ce moment, le temps que cela prend peut varier de quelques heures à quelques jours, voire davantage, en fonction d’un certain nombre de facteurs exclusifs que Google n’a pas publiés.
Une fois que le site a eu son exploration existante, il est maintenant dans l'index de Google et peut être recherché, il sera également régulièrement réexploré.
Cette déclaration est souvent faite lorsqu'un site n'a pas été redéfini, de quelques jours à quelques semaines. Si votre site n'est pas encore réexploré, cela ne signifie pas que Google vous a oublié. Pour les sites plus récents, les sites qui ne changent pas énormément et les sites que Google n'a pas jugés très fiables, le taux d'analyse varie souvent toutes les 2 semaines ou plus. Le but est de ne pas gaspiller de ressources lors de la réanalyse d’un site auquel de nouveaux contenus auraient éventuellement été ajoutés entre-temps, ainsi que de ne pas surcharger inutilement le site Web. La fréquence des réanalyses augmente et diminue progressivement en fonction des résultats des analyses précédentes. Si Google effectue une nouvelle analyse après deux semaines et trouve un grand nombre de nouveaux contenus et que le nouveau contenu est jugé de haute qualité, il est plus probable que le prochain intervalle d'analyse soit plus rapide. Cependant, ce n’est pas une règle absolue et comme pour la plupart des choses à faire avec Google et les autres moteurs de recherche, la qualité est primordiale, puisqu'un site analysé chaque semaine à un moment donné peut trouver la fréquence d’exploration réduite si la qualité du contenu sur le site est évalué comme n'étant pas raisonnablement élevé ou la fréquence de changement du site est relativement faible.
La première chose que je vais dire est de pas essayer de faire quoi que ce soit avec l'intention d'accélérer le processus d'analyse de votre site. En vous concentrant de manière réaliste sur l'amélioration de votre site du point de vue de l'utilisateur final et en continuant à augmenter le contenu de qualité sur votre site, vous augmenterez le taux de crawl par rapport aux techniques malhonnêtes.
La première étape consiste à s'inscrire à Google Webmaster Tools. Utilisation de GWT si Google tente d'analyser votre site et ne peut le faire pour une raison quelconque ou s'il existe un problème à résoudre concernant votre site, c'est le premier endroit où un avis sera émis. En utilisant cet outil, vous pourrez également voir quand votre site a été indexé pour la dernière fois, combien de pages de votre site ont été indexées et d’autres mesures telles que celles qui peuvent être utiles dans l’exercice de vos fonctions de webmaster.
Si vous soumettez une page avec Google Search Console (avec ses liens directs), Googlebot est généralement très efficace. Avez-vous reçu un message de Google dans la console GSC? Les seuls cas que j'ai rencontrés depuis plusieurs années étaient dus à une pénalité due au spam, à la dissimulation, à un historique "lourd" du nom de domaine ... ou à une page canonique vers la même page (et blanche) dans l'ensemble des pages. Il y a aussi des cas avec un "noindex" sur chaque page ou le fichier robots.txt avec interdire, mais je présume que ce n'est pas le cas ici.