J'ai un site e-commerce www.beyondtime.in
. Je surveille en permanence l'exploration de Googlebot sur mon site Web et mon compte de webmaster. Dernièrement, j'ai trouvé deux problèmes que je n'ai pas compris.
1.) Les Google Bots n’explorent que www.beyondtime.in/telecom.php
lorsque l’URL n’est même pas valide. Que faut-il faire pour permettre à Google d'explorer également d'autres pages du site Web?
2.) La deuxième question concerne le compte Google Webmaster, où j'ai soumis mon sitemap avec 227 URL. De ce nombre, seuls 156 ont été indexés. Aucune des images de mon site Web n'a été indexée par Google.
Vos images ne sont probablement pas indexées car vous bloquez le bot dans votre fichier robots.txt pour explorer le répertoire /images .
À première vue, j'ajouterais également une ligne User-agent: * au-dessus de la ligne Autoriser:/.
Ajoutez aussi la ligne
Sitemap: http://www.beyondtime.in
dans votre fichier robots.txt (pour permettre à davantage de moteurs de recherche de le détecter).
Vérifiez bien vos outils pour les webmasters (sous la section Statut> URL bloquées) et ne rien bloquer.
Vous avez un faible (très faible) nombre de backlinks jusqu'à présent (comme vérifié par Opensiteexplorer . Cela, combiné à un trafic faible, peut entraîner une lente indexation de all vos pages.Une vérification rapide avec cet outil d'araignée SEO donne de bons codes d'état.
Un BIG Le problème que je vois est que presque toutes les pages ont une directive rel = canonique qui renvoie à la page d'accueil. Cela se lit comme "Presque chaque page est une copie de la page d'accueil, donc ignorez-la (la page avec la référence canonique).
(Si tout cela est corrigé, je vérifierais si mon sitemap.xml répertorie toutes les pages et si les pages autorisent l'indexation et le suivi).