Le React SPA est configuré pour extraire dynamiquement le contenu d'un serveur basé sur l'URL. Il existe un fichier index.html situé dans un répertoire qui achemine le contenu correct à partir des demandes de page. Les URL sont configurées pour ressembler à ceci: http://www.example.com/articles/#/title1 . Un plan de site, situé à exemple.com/articles/sitemap.txt, a été soumis avec toutes les URL au format approprié. À partir d'une semaine, seule la page/articles a été indexée.
Dans l'environnement particulier déployé, les règles de réécriture ne peuvent pas être modifiées.
"Fetch and Render as Google" dans la console de recherche ne semble pas fonctionner avec les URL contenant un #.
Google devrait pouvoir indexer votre contenu géré par AJAX. À compter du 14 octobre 2015, Google a déprécié sa AJAX Crawling Proposition qui avait été faite en 2009, à l'époque où Googlebot était incapable de comprendre les objets dom générés par javascript sur la page. Depuis lors, Googlebot a été amélioré et peut interpréter la page comme le ferait tout navigateur Web moderne. Google a mis à jour son Technical Webmaster Guidelines pour refléter ce changement et recommande désormais de ne pas interdire à Googlebot d’explorer les fichiers CSS ou JS de votre site.
La récupération et le rendu en tant que Google peuvent ne pas fonctionner comme prévu, à moins que le javascript serve votre code HTML au navigateur par le biais d'une connexion AJAX, il devrait fonctionner pour Googlebot.
Vous pouvez voir plus d'informations sur la dépréciation du AJAX Crawling Scheme à l'adresse blog du webmaster de Google .