Lorsque les URL n'existent plus sur mon site, je donne une page et émet un statut HTTP 410 (l'erreur GONE).
J'ai créé un script qui permet à mon co-administrateur d'ajouter et de supprimer des images du site. Lorsque les images sont supprimées, cette page d'image générera une page d'erreur et renverra un code d'état HTTP 410 au navigateur. Les sitemaps sont mis à jour pour refléter les modifications.
J'ai aussi chaque ensemble de pages avec la métabalise noarchive de robots comme ceci:
<meta name="GOOGLEBOT" content="NOARCHIVE">
<meta name="ROBOTS" content="NOARCHIVE">
Chaque jour, lorsque je visite les outils pour les webmasters, je reçois un nombre aléatoire d'URL d'erreurs pointant toutes vers les pages de photos.
Bien que Google ait correctement indiqué qu'il renvoie 410 le code d'état, les URL apparaissent toujours dans les outils pour les webmasters, même si le co-administrateur a supprimé les pages de photos via le script et donc tous les liens du site vers les URL concernées, ainsi que toutes les références aux sites. Les URL concernées des sitemaps sont supprimées.
J'ai également remarqué que plus Google signalait d'erreurs sur mon site (que les codes d'état soient 404 ou 410) et moins j'en faisais avec adsense.
J'ai également configuré googlebot pour faire un maximum de 10 requêtes par seconde (curseur complètement à droite).
Que puis-je faire pour réduire les chances de Google de voir les URL d'erreur nouvellement générées à la suite de la suppression de mauvaises images du site, afin que je ne voie pas les 410 codes de statut dans les outils pour les webmasters?
Vous ne pouvez pas forcer Google à analyser/réanalyser votre sitemap instantanément.
Une fois que Google a indexé l’une des pages Web de votre site Web, elle commence à explorer encore et encore, c’est-à-dire qu’ils explorent les pages Web à partir de leur propre base de données indexée. à partir du plan du site, même à partir de votre site Web auquel vous avez accédé, alors que les pages pourront toujours explorer Googlebot.
Normalement, Googlebot explore souvent les pages 404 car il pense que le webmaster sait que cette erreur est rencontrée dans son tableau de bord Webmaster; il est donc possible qu'il le corrige un jour. Ainsi, il parcourt souvent 404 pages. dans des cas spécifiques.
Je pense que non disponible après les balises méta , est la bonne solution pour votre site web.