Duplicate possible:
Comment supprimer des URL du moteur de recherche Google
En bref, il y a environ 1 000 URL à supprimer de l'index Google dès que possible, il y a environ une semaine. Au cours de cette période, les opérations suivantes ont été effectuées:
Le site Web avait toujours un fichier robots.txt (en direct depuis plusieurs années), je l'ai récemment mis à jour pour interdire l'URL nécessaire. Cependant, c'est ce que je vois dans Google Outils pour les webmasters (URL/Intégrité bloquées) , notez "jamais téléchargé".
J'ai essayé de resoumettre via 'Fetch as Google', qui est censé résoudre le problème, ainsi que deux demandes de suppression du fichier robots.txt dans le cache, ce qui n'a eu aucun effet (il y a plus de 48 heures).
Google frappait de temps en temps un 302 du fichier robots.txt qui se désignait à cause d'un RewriteRule mal écrit, mais un 200 après, cela a maintenant été corrigé, cela aurait-il été significatif?
Conformément à la documentation de suppression à la demande de Google Recherche personnalisée , j'ai également essayé de soumettre un plan Sitemap avec des dates d'expiration rétroactives pour les URL concernées.
Cela aura-t-il un effet? +/-?
Enfin, j'ai parcouru les statistiques d'exploration et identifié les URL présentant le plus grand nombre d'impressions. J'ai également demandé leur suppression manuellement à l'aide de l'interface de suppression des URL individuelle standard dans Google Webmaster Tools. Mais, évidemment, cela prend beaucoup de temps et ne couvre pas toutes les URL concernées, et je crois (d'après la documentation) que le nombre de soumissions ici est limité.
Y a-t-il des techniques évidentes qui me manquent ici ou des solutions probables à mon problème avec robots.txt?
Vous devez utiliser votre compte d'outils pour les webmasters pour soumettre une demande de suppression , ennuyeux, vous devrez le faire une à une fois ou un répertoire à la fois, le temps de réponse habituel étant de 48 heures, selon mon expérience.
L'utilisation de robots.txt empêchera Google d'indexer de nouvelles URL, mais ne supprimera pas les anciennes de l'index . Il semble également y avoir d'importants problèmes pour obtenir Google. reconnaître les nouveaux fichiers de robots et les sitemaps - ce n'est pas chose facile à faire sauf si vous êtes un site à trafic important.
Si vous possédez le domaine, il ne devrait pas y avoir de problème, mais si les liens se trouvent sur un autre domaine, vous devez justifier la suppression et utiliser le outil de suppression d'URL publique .