Je développe une application AngualrJS et, comme il n'est pas facile de l'optimiser pour les moteurs de recherche, je la publie et laisse Google indexer la page en enregistrant une "propriété" dans leur "console de recherche" pour afficher les résultats et améliorer la page. . La page a été indexée avec succès et Google affiche les résultats de la recherche.
Maintenant, je souhaitais à nouveau supprimer la page du public pour terminer le projet. Je voulais donc que Google l'enlève des résultats de la recherche. Cependant, cela ne semble pas être facile.
Tout d'abord, j'ai ajusté le robots.txt pour refuser toute indexation. Même après que Google ait vérifié le nouveau robots.txt, les résultats de la recherche étaient toujours visibles.
Ensuite, j'ai essayé d'installer temporairement des suppressions d'URL dans leur console de recherche. Ils ont été acceptés, mais les URL n'ont pas été supprimées.
Ensuite, j’ai configuré le site de sorte que Googlebot n’obtienne plus aucun accès au serveur. Il reçoit 404 pour chaque URL demandée. C'est le cas depuis près de 4 semaines, mais Google affiche toujours les résultats de recherche.
Il y a deux semaines, j'ai supprimé la "Propriété" de la console de recherche de mon compte Google et le fichier HTML de validation de la racine Web de Google (googlexxxxxxxxxxxxxxx.html - eh bien, Googlebot recevra 404 de toute façon), mais ils affichent toujours les résultats de la recherche ...
Comment faire en sorte que Google supprime rapidement et complètement mon site de tous les résultats de recherche?
Google indexe de nombreux sites qui n'ont pas de compte dans la console de recherche. La suppression de la propriété de la console de recherche n'a pas d'incidence sur le fait que Googlebot explorera votre site et l'inclura dans l'index de recherche.
Si vous n'autorisez pas l'analyse via robots.txt , Googlebot ne pourra jamais voir que ces pages sont au nombre de 404. Google doit pouvoir analyser ont supprimé le contenu.
Une fois la suppression temporaire effectuée, autorisez à nouveau l'analyse pour permettre à Googlebot de voir les erreurs 404. Google devrait explorer toutes vos pages d'ici quelques semaines. Les pages sont supprimées après 24 heures lorsque Googlebot détecte une erreur 404. Si Google ne peut pas analyser et voir les erreurs 404, il peut inclure indéfiniment des URL dans l'index de recherche.
Au lieu de signaler 404 erreurs uniquement à Googlebot pour tenter de supprimer les pages, vous devez indiquer explicitement à Google que vous ne souhaitez pas que les pages soient indexées. Pour ce faire, vous devez inclure les balises meta noindex des robots dans la section head de chaque page:
<meta name="robots" content="noindex">
Une fois que vous avez inséré ces balises, vous pouvez laisser Googlebot explorer votre site en toute sécurité. Aucune partie de celle-ci ne sera affichée dans le moteur de recherche.
Pour accélérer le processus sans index de toutes les URL de votre site, Google utilise une directive Noindex:
dans robots.txt . Changez votre fichier robots.txt en:
User-Agent: *
Noindex: /
Même si vous faites cela, vous devrez ajouter les balises méta noindex car, selon Google, le fichier Noindex robots.txt est expérimental et peut disparaître à tout moment.