Google indexe toujours 410 pages qui ont été mises en œuvre il y a 2-3 mois. Ces pages auraient dû disparaître à ce moment.
Alors, devrait-il être logique d'implémenter X-Robots-Tag: Noindex, Noarchive tout en ayant le statut 410 http?
Quelle est votre suggestion?
Non, ce n'est pas nécessaire. Comme John Mueller a dit dans Webmasters central
De notre point de vue, à moyen/long terme, un 404 est le même qu'un 410 pour nous. Donc, dans ces deux cas, nous supprimons ces URL de notre index.
Il est normal que Google explore de temps en temps ces URL:
Nous allons encore revenir en arrière et revérifier et nous assurer que ces pages ont vraiment disparu ou peut-être que les pages sont revenues vivantes.
Si ces pages sont toujours indexées, c'est peut-être parce qu'elles n'ont pas beaucoup de popularité et que Googlebot ne les explore pas très souvent. Attendez ou utilisez Outil de suppression d'URL pour accélérer le processus.
Regardez vos fichiers journaux - Googlebot a-t-il visité 410 pages depuis qu'elles deviennent 410? Si oui - attendez, sinon - créez un plan du site contenant seulement 410 pages et téléchargez-le dans la console de recherche.
Il n'est pas nécessaire d'utiliser X-Robots-Tag: Noindex,Noarchive
. Google supprime automatiquement 410 pages de son index dans les heures qui suivent leur exploration. (Par rapport à 404 pages, cela donnera un délai de grâce de 24 pour voir si elles reviennent.)
Google aurait généralement exploré et désindexé une page 410 dans les 2-3 mois.