J'ai site-shop et la plate-forme a créé un sitemap.xml automatiquement. Mais dans la console de recherche Google, il y a une erreur parce que robots.txt ressemble à ceci:
User-agent: *
Disallow: /my/
Disallow: /cart/
Disallow: /checkout/
Sitemap: sumki5.ru/sitemap-shop.xml
Crawl-delay: 5
User-agent: Yandex
Disallow: /my/
Disallow: /cart/
Disallow: /checkout/
Crawl-delay: 5
Sitemap: sumki5.ru/sitemap-shop.xml
Host: sumki5.ru
Est-ce normal? Cela peut-il poser problème pour le référencement?
L'URL du sitemap doit être absolu . Dans votre cas, il manque le https://
. Changer la ligne à:
Sitemap: https://sumki5.ru/sitemap-shop.xml
Et Google cessera de se plaindre dans la console de recherche.
Si vous ne résolvez pas le problème, Google ne pourra pas accéder à votre sitemap. Ce n'est pas nécessairement un désastre. Les fichiers Sitemap ne sont pas nécessaires pour un bon référencement. En fait, ils n’aident vraiment pas du tout. Ce qu'ils font, c'est vous donner un aperçu supplémentaire de votre site dans Google Search Console. Voir: Le sitemap Paradox