Je souhaite supprimer plusieurs URL sur mon site Web (développé sous ASP MVC). Toutes ces URL ont le format www.example.com/planning/xxx
J'ai déjà changé le code pour que ces URL 301 soient redirigées. J'explique que cela indiquerait aux robots de supprimer la page de leur index.
Maintenant, lorsque je consulte la console de recherche Google, je vois de nombreux fichiers 404 logiciels qui correspondent à ces URL.
Pourquoi Google les a-t-il considérées comme des soft 404 alors que je faisais une redirection permanente donc avec le statut 301? Ces URL sont-elles vraiment supprimées de l'index Google? (Je ne pense pas, car beaucoup d'entre eux se trouvent toujours dans les résultats de Google.) Existe-t-il un meilleur moyen de supprimer plusieurs URL? La modification du fichier robots.txt pour ajouter Disallow: /planning
sera-t-elle utile ou empêchera-t-elle uniquement Google d'indexer de nouvelles URL sans supprimer celles qui existent?
Merci
Je souhaite supprimer plusieurs URL sur mon site Web (développé sous ASP MVC). Toutes ces URL ont le format suivant: www.monsite.com/planning/xxx. J'ai déjà adapté le code pour rediriger 301 et indiquer aux robots supprimer la page de leur index ...
Un 301 est une erreur. En fait, vous avez taquiné les robots parce que vous leur avez fait croire qu'un bon contenu à indexer se trouve à l'URL définie par l'en-tête HTTP d'emplacement (si vous en avez fourni un).
Maintenant, lorsque je vérifie les WebMasterTools, je vois beaucoup de soft 404 qui correspondent à ces URL.
C'est la façon dont le robot dit que vous les taquinez. Vous avez émis une redirection vers une URL que les robots considèrent comme une page d'erreur. (même si le statut HTTP renvoyé est 200).
J'ai donc quelques questions à se poser: pourquoi Google les a-t-il considérées comme une soft 404 alors que je fais une redirection permanente avec le statut 301?
Une redirection signifie un changement vers une nouvelle URL. C'est l'URL résultante qui compte et, dans votre cas, c'est une URL qui génère un fichier 404 logiciel.
Les Soft 404 sont des pages contenant du texte que les robots considèrent comme de vraies erreurs, mais elles sont "Soft" car l'en-tête HTTP ne renvoie pas le statut 404. il renvoie plutôt un statut 200 (succès).
Ces URL sont-elles vraiment supprimées dans l'index Google (je ne pense pas, car bon nombre d'entre elles sont toujours trouvées par Google)? Existe-t-il un autre moyen (un meilleur moyen :)) de supprimer plusieurs URL? Peut-il être utile d’adapter le fichier robots.txt avec un objet Disallow:/planning ou empêche-t-il uniquement d’indexer sans supprimer l’index existant?
Le meilleur moyen de supprimer les URL consiste tout d'abord à répertorier toutes les URL dont se plaint Google dans les outils pour les webmasters que vous ne prévoyez jamais de transformer en pages réelles, puis à répertorier toutes les URL contenant du code à rediriger vers les pages d'erreur. .
Ensuite, lorsque quelqu'un demande une URL sur la liste, retourne une page avec le code d'erreur 410 qui représente GONE. Cela signifie que la première ligne des en-têtes http doit commencer par HTTP/x.x 410
(où x.x est la version que vous utilisez, qui est probablement 1.1).
Je pourrais vous donner le code Apache et le codePHP si vous en avez besoin, mais je ne suis pas sûr que cela fonctionne avec la configuration de votre serveur.