Je suis nouveau dans le monde des webmasters et j'essaie de préparer mon site pour le référencement. Il fonctionne sur javascript (AngularJS) et j'ai configuré tout ce dont vous auriez besoin pour que les robots d'exploration puissent lire le site. J'ai la balise <meta name="fragment" content="!">
et également configurer le hashbang afin qu'il sache où placer la partie "escaped_fragment" et lire mon code javascript.
Actuellement, dans ma console de recherche Google, je peux récupérer et afficher correctement la page d'accueil de mon site, mais chaque fois que j'ajoute d'autres fragments pour vérifier que Google peut les lire, elle ne fait que revenir en arrière et capturer le contenu de la page d'accueil.
Est-ce que quelqu'un sait comment faire pour que Google lise mes autres pages?
Si vous jetez un oeil à https://webmasters.googleblog.com/2015/10/deprecating-our-ajax-crawling-scheme.html dont Google a publié en octobre 2015 le AJAX crawling standard a été amorti. Tant que vous n'empêchez pas Googlebot d'explorer vos fichiers CSS et Javascript, il pourra alors interpréter le contenu de votre contenu AJAX et pourra l'explorer comme s'il s'agissait d'un contenu statique normal sans avoir besoin de faire quelque chose de spécial à l'URL avec des fragments de hachage.