J'ai un robots.txt avec le texte suivant:
User-agent: *
Disallow: http://tests.compkerworld.com/report_question_error.php?question_id=*&url=*
Sitemap: http://tests.compkerworld.com/sitemap.xml
Mon sitemap.xml, qui est généré automatiquement, contient toutes les URL, même celles interdites à l'aide de robots.txt.
Je n'ai pas de problème si les moteurs de recherche explorent toutes les pages, mais je veux savoir si une telle entrée créera un quelconque conflit pour les robots d'exploration.
Une autre question: la syntaxe ci-dessus pour refuser est-elle correcte?
Apparemment Google non ne les analysera pas et les signalera comme bloqués dans Google Webmasters Tools . Si ce message d'erreur, qui n'affecte pas votre classement, vous gêne, vous devrez supprimer ces pages de votre sitemap.