Par accident, j'ai laissé Google indexer de nombreuses pages indésirables. Maintenant, je les ai ajoutés pour interdire dans robots.txt.
Google supprimera-t-il complètement les pages après avoir vu que les robots ne sont pas autorisés? Veuillez noter que j'ai beaucoup de pages à supprimer manuellement ces pages dans les outils pour les webmasters de Google.
Le moyen le plus sûr d’extraire ces pages de l’index est de l’utiliser dans la section HTML head:
<meta name="robots" content="noindex" />
Parfois, Google indexe certaines URL (mais pas le contenu) malgré le Disallow
dans robots.txt . Voir mon réponse à cette question pour plus de détails.
Selon le volume d'URL à supprimer, cela peut prendre des semaines, voire des mois, Google n'aime pas simplement supprimer rapidement des pages, car cela laisse un certain temps au cas où le webmaster aurait commis une erreur. Vous devez donc être patient ou simplement les supprimer à l'aide de l'outil.