L'URL de mon site est: www.hackinguniverse.org
Depuis quelques jours dans l'outil Google Webmaster, un message indiquant "Certaines pages importantes sont bloquées par le fichier robots.txt" s'affiche.
Mon fichier robots.txt est:
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: http://www.hackinguniverse.org/feeds/posts/default?orderby=updated
Maintenant pour d'autres informations - j'ai hébergé ce site sur blogger. J'ai également d'autres sitemaps où je n'avais inclus que "/ Search" dans Disallow, comme dans ce fichier robots.txt. Mais ces sites sont ok. Je veux dire qu'aucun message ne s'affiche sur ceux-ci. Alors pourquoi reçois-je ce message disant que j'ai bloqué une page importante via robot.txt?
Vérifiez la date de téléchargement sur le fichier de robots, il pourrait faire référence à une ancienne version du fichier.