web-dev-qa-db-fra.com

Est-il bon de mettre X-Robots-Tag pour 410 pages qui sont toujours dans l'index de Google?

Google indexe toujours 410 pages qui ont été mises en œuvre il y a 2-3 mois. Ces pages auraient dû disparaître à ce moment.

Alors, devrait-il être logique d'implémenter X-Robots-Tag: Noindex, Noarchive tout en ayant le statut 410 http?

Quelle est votre suggestion?

3
Sanjay Kumar

Non, ce n'est pas nécessaire. Comme John Mueller a dit dans Webmasters central

De notre point de vue, à moyen/long terme, un 404 est le même qu'un 410 pour nous. Donc, dans ces deux cas, nous supprimons ces URL de notre index.

Il est normal que Google explore de temps en temps ces URL:

Nous allons encore revenir en arrière et revérifier et nous assurer que ces pages ont vraiment disparu ou peut-être que les pages sont revenues vivantes.

Si ces pages sont toujours indexées, c'est peut-être parce qu'elles n'ont pas beaucoup de popularité et que Googlebot ne les explore pas très souvent. Attendez ou utilisez Outil de suppression d'URL pour accélérer le processus.

3
Emirodgar

Regardez vos fichiers journaux - Googlebot a-t-il visité 410 pages depuis qu'elles deviennent 410? Si oui - attendez, sinon - créez un plan du site contenant seulement 410 pages et téléchargez-le dans la console de recherche.

1
Evgeniy

Il n'est pas nécessaire d'utiliser X-Robots-Tag: Noindex,Noarchive. Google supprime automatiquement 410 pages de son index dans les heures qui suivent leur exploration. (Par rapport à 404 pages, cela donnera un délai de grâce de 24 pour voir si elles reviennent.)

Google aurait généralement exploré et désindexé une page 410 dans les 2-3 mois.

  • Vérifiez que ces pages ne sont pas [~ # ~] pas [~ # ~] interdites dans robots.txt . Si Google ne peut pas explorer la page, il ne peut pas voir l'état 410. (Certaines personnes interdisent les pages du fichier robots.txt pour essayer de les supprimer, mais le fichier robots.txt sert uniquement à bloquer l'exploration. Google peut toujours indexer les pages interdites s'il les a explorées auparavant ou sur la base de liens externes.)
  • Utilisez l'outil Supprimer les URL de la Google Search Console pour supprimer individuellement les URL restantes. ( documentation )
  • S'il y a trop de pages pour en envoyer une à la fois, créez-en un sitemap temporaire et ajoutez-le à Search Console .
  • Sinon, essayez d'attendre encore quelques mois. Googlebot va éventuellement explorer à nouveau toutes vos pages, mais si les pages ne contiennent aucun lien de n'importe où, cela pourrait prendre six mois entre les analyses.
1