J'ai ajouté mon URL à Google http://www.google.com/addurl.html
J'ai ajouté une balise meta avec description et mots-clés
Je l'ai ajouté à Google Master Tools et j'ai envoyé le plan du site.
Il n'y a pas de robots sur mon site
Mais quand je crée le sitemap.xml automatiquement avec http://www.xml-sitemaps.com/ ou d’autres outils, ils ne trouvent pas toutes les pages!
Existe-t-il de meilleurs outils, comment puis-je résoudre le problème?
Vous faites les bonnes choses. Continuez votre bon travail et ne vous énervez pas trop. Si vous l'avez bien fait, le googlebot viendra. En attendant, considérez ce produit gratuit: http://www.vigos.com/products/gsitemap/ ... Je ne suis pas un annonceur pour eux. Je viens d'utiliser le produit.
Il génère un plan du site parfait. Une fois que c'est terminé, vous devrez faire des ajustements manuels et supprimer des choses que vous ne voulez pas voir spider. En outre, comprendre le Google Sandbox. Voici un article sur le référencement que j'ai écrit il y a quelque temps:
Le problème: J'entends beaucoup de gens demander pourquoi ils ne sont pas encore répertoriés dans Google, et je voulais proposer une publication qui dissipe toute confusion. est passe. Il n’ya plus de doute sur l’existence de Google Sandbox, qui a vu le jour en mars 2004 dans le but, entre autres, de réprimer les sites Web pour SPAM.
Les symptômes: En gros, si votre site Web est relativement nouveau et que vous vous situez dans Yahoo, MSN et autres, mais pas sur Google, vous êtes pris dans le "Google Sandbox", auquel il est fait référence dans d'autres termes tels que "Google Time Delay" ou "Google Age Delay". La plupart se réfèrent à lui comme "Google Sandbox", cependant.
Qu'est-ce que le "Google Sandbox"? Il s'agit d'une période probatoire au cours de laquelle votre site Web a été extrait. Googlebot indexera votre site Web, mais ne vous répertoriera pas immédiatement. Ne panique pas! Les choses vont bien se passer, même si vous ne pouvez vraiment rien faire pour sortir du bac à sable ou l'éviter. Certaines personnes suggèrent de placer votre site sur un sous-domaine d'un ancien domaine approuvé, puis de mettre en place une redirection 301 vers votre nouveau site Web après que Google a indexé le sous-domaine.
mais en créant le sitemap automatiquement avec ce site http://www.xml-sitemaps.com/ et d’autres, il n’atteint pas toutes les pages!
Je suppose que la question est "Pourquoi toutes les pages de mon site Web ne sont-elles pas indexées par les moteurs de recherche (ou spécifiquement Google)?"
Le simple fait de soumettre votre site Web aux moteurs de recherche ou de fournir un sitemap XML ne signifie pas que toutes vos pages seront garanties pour être explorées et/ou indexées ou incluses dans leurs résultats de recherche. En notifiant les moteurs de recherche de votre site Web et toutes vos pages disponibles, vous leur donnez la possibilité de rechercher et d'analyser votre contenu. Mais ils ont le dernier mot sur l'opportunité d'inclure et comment classer votre contenu. Le meilleur moyen d’influencer ceci est d’obtenir des liens de qualité pointant vers vos pages (page d’accueil et pages internes). Plus la qualité des liens est élevée, plus le nombre de pages indexées sera élevé et meilleur sera leur classement. (Et pour aller un peu plus loin, si vous faites du bon travail avec vos liens internes, vos pages bien classées peuvent aider à soutenir d'autres pages de votre site Web).
Il doit y avoir des liens vers les pages quelque part dans votre site. Le générateur de sitemap commence à la racine et suit tous les liens des pages, et ainsi de suite jusqu'à épuisement de tous les liens. S'il n'y a pas de liens vers la page, elle ne sera pas trouvée.
Vous pouvez ajouter manuellement les entrées au fichier XML pour créer un sitemap complet.
Vous pouvez également créer une page statique sur votre site avec les liens pour permettre au générateur de sitemap de les rechercher s'il n'existe aucune raison valable de créer un lien vers celles-ci.
fichier txt via le compte Google pour les administrateurs Web et le placer dans le domaine racine. Il permettra aux robots d'exploration de Google de parcourir votre contenu. Si vous utilisez un système de gestion de contenu, vous pouvez créer un plan Sitemap XML avec certains plug-ins disponibles.
Nous sommes en 2012, vous n'avez pas à soumettre votre site Web aux moteurs de recherche. Google est un registraire et sait quand de nouveaux sites Web sont enregistrés. S'ils décident de vous ramper, c'est une autre affaire.
Google ne prête aucune attention aux méta-mots-clés et modifie souvent la méta-description qu'ils affichent dans les résultats de recherche en fonction de la recherche exécutée.
Vérifier votre site Web et envoyer des sitemaps est une bonne chose. La plupart des outils de génération de sitemap gratuits ont des limites.
Si vous n'utilisez pas de CMS avec un outil de génération de sitemap intégré, 19,99 $ pour la version illimitée de http://www.xml-sitemaps.com/standalone-google-sitemap-generator.html est ça vaut vraiment le coup. Il va explorer toutes vos pages.
Si vous avez envoyé un sitemap à Google et que vous ne bloquez pas de robots. Alors il n'y a pas de problème. En d'autres termes, vous devez être patient et attendre que Google explore, indexe et mette en cache les pages de vos sites Web.
Essayez Xeu's Link Sleuth , c’est un outil bien meilleur que les cartes de site xml, et il peut générer des listes de liens de style sitemap.