Depuis octobre 2015, Google est en mesure d'explorer les sites ajax automatiquement (les recommandations faites dans les anciens articles comme celui-ci sont officiellement obsolètes).
Mais je n'arrive toujours pas à faire reconnaître à Google les nouvelles pages. Ma page d'accueil, www.example.com
, contient des liens vers des pages telles que www.example.com/?pageID=1234
Les liens vers ces pages existent sur www.example.com
sous la forme de javascript capturant l'événement .on('mousedown', function() {})
sur certains éléments et le faisant à un niveau élevé:
//1) load some further html with jquery:
$('#div').load("aPage.html")
//2) update the url history and document title
window.history.pushState("string", "Title", "?pageID=" + pageIDVariable);
document.title = titleOfPageVariable";
//3) Push a new page into google analytics...
ga('set', {page: '/?pageID=' + pageIDVariable,
title: titleOfPageVariable});
Mais après avoir été en ligne quelques instants, googling example.com ne renvoie rien d’autre que ma page d’accueil. À l’aide de la console de recherche Google pour les webmasters, la section "Rechercher un trafic -> Analytique" affiche 0 impressions, 0 clics, etc. Google n'a donc rien à faire. t n'a pas encore indexé ces pages (ce qui est également confirmé dans le rapport d'index dans les outils pour les webmasters).
Attendu que Google Analytics affiche les pages que j'attends (sous Comportement -> Contenu du site -> Toutes les pages).
Y at-il quelque chose de fondamentalement faux avec ma configuration? Ou peut-être que ce n'est qu'une question de temps avant que Google ne commence à indexer des pages individuelles.
Je n'ai défini aucun "paramètre URL" dans les outils pour les webmasters de Google, car je ne pensais pas que c'était nécessaire dans ce cas.
La première chose à vérifier est de s’assurer que Google peut réellement accéder à vos fichiers CSS et javascript. Ils ont besoin d'un accès pour pouvoir voir ce que javascript et CSS font réellement à la page lorsque des liens sont cliqués. Pensez-y comme si quelque chose que le navigateur de l'utilisateur final a besoin d'accéder doit également être accessible par Google. De nombreux sites ont encore du contenu statique bloqué dans leur fichier robots.txt, de sorte que les fichiers de script et les feuilles de style ne sont pas indexés.
La deuxième chose à vérifier est si des erreurs sont générées dans votre console javascript. Bien que le script puisse fonctionner dans le navigateur si des erreurs sont générées, celles-ci peuvent être à l'origine d'un problème avec les robots d'exploration.
Vous dites après avoir été en direct pendant un petit moment, mais vous ne définissez pas combien de temps il faut. Google peut prendre de quelques heures à plus de 2 semaines pour redéfinir un site. Si vous avez un plan du site, vous pouvez le mettre à jour et le soumettre à nouveau pour mettre en file d'attente une nouvelle analyse. Une fois cette opération terminée, ce sont les principaux algorithmes de mise en file d'attente de Google qui en décideront. Une autre option consiste à effectuer une extraction en tant que Google pour voir comment Google affiche les pages et à essayer d'extraire quelques pages déclenchées par javascript. Votre code indique que vous transmettez les paramètres d'URL à l'adresse lorsque vous utilisez le javascript. Par conséquent, je suppose que vous pouvez également détecter ces URL dans votre javascript si quelqu'un accède à cette page spécifique plutôt que d'y accéder via un lien. Essayez d’y accéder de la même manière et voyez si la page a l’air prévu, avec le contenu correct affiché et aucune erreur générée.