C'était au début de 2018, il y a presque deux ans, quand j'ai pris sa retraite, un tas de pages de mon site n'était plus nécessaire/pertinent/maintenu/etc. Je l'ai fait en retournant un statut HTTP de 410. À ma surprise, GoogleBot continue de revenir à ces pages à intervalles très réguliers, juste pour obtenir 410 ans encore et encore et encore. Pour 2 ans. J'ai vérifié et ces pages ne sont plus dans l'index, mais je suis curieux de savoir pourquoi le robot pense toujours que la page "pourrait" être disponible? Est-ce que quelqu'un connaît un bon blog/une bonne discussion qui explique comment 410 ans fonctionnent vraiment?
Une fois que GoogleBot trouve une URL de travail, elle jamais l'oublie. Il reviendra toujours pour la ramper périodiquement. Peu importe le statut qu'il revient. Peu importe que cela a toujours des liens avec elle ou non. J'ai des URL qui ont été une redirection permanente pendant 15 ans. Googlebot les rampe toujours de temps en temps.
La logique semble être que les anciennes URL sont occasionnellement ressuscitées. Googlebot pourrait aussi vérifier parfois. Le nombre de liens dans l'URL détermine la fréquence à laquelle il va être rampé. Si vous parvenez à supprimer chaque lien interne et externe à l'URL, il sera basculé beaucoup moins fréquemment.
GoogleBot a même un mode d'analyse spécial pour les anciennes URL sans liens. Parfois, je trouverai GoogleBot demandant des centaines de telles anciennes URL de mon site au cours d'une journée. Lorsque GoogleBot est dans ce mode sanitaire, il semble ployer les URL par ordre de longueur. Les URL les plus courtes sont rampa en premier.
Cela ne devrait pas être rien à craindre: