Lorsque j'ai soumis mon site Web à Google pour la première fois, le fichier robots.txt de mon site Web empêchait les moteurs de recherche d'extraire l'URL. Ainsi, chaque fois que j'entre dans le domaine de mon site Web pour vérifier sur Google, la description s'affiche sous la forme "Une description de ce résultat n'est pas disponible pour cette raison le fichier robots.txt du site ". Mais maintenant, j'ai modifié mon fichier robots.txt pour permettre aux moteurs de recherche d'explorer le site Web. Comment puis-je forcer Google à analyser de nouveau la description de mon site Web?
Utilisez la fonction Soumettre à l'index de l'outil Extraire en tant que Google pour réanalyser vos URL.
Demandez à Google d'analyser et d'indexer votre URL
Cliquez sur Soumettre à l'index, puis le statut d'une extraction récente et réussie dans la table des extractions.
Sélectionnez Analyser uniquement cette URL pour envoyer une URL individuelle à Google pour une nouvelle analyse. Vous pouvez soumettre jusqu'à 500 URL individuelles de cette manière dans un délai de 30 jours.
Sélectionnez Explorer cette URL et ses liens directs pour soumettre l'URL ainsi que toutes les autres pages vers lesquelles cette URL renvoie pour une nouvelle exploration. Vous pouvez soumettre jusqu'à 10 demandes de ce type dans un délai de 30 jours.
Cliquez sur Soumettre pour indiquer à Google que votre demande est prête à être traitée.