j'ai essayé de chercher sur Internet cette question et comment Firebase gère l'indexation et comment le propriétaire du contenu fonctionnant sur un hébergement Firebase peut influencer l'analyse de Google bot.
Personnellement, je gère un site Web construit avec Polymer + Firebase comme base (essentiellement un SPA) avec environ 150 visiteurs par semaine et mon site Web propose une navigation commune avec 5 liens:
Aussi la page des projets s'est imbriquée
Google a beaucoup plus indexé que mon site Web et les résultats actuels sont similaires à Google.
/ projets/intérieur/[[id]]/[[nom-de-projet-intérieur]])
Revenons donc à ma question: Comment puis-je influencer le bot Google pour qu'il interdise l'exploration de sites spécifiques? Il suffit de simplement télécharger le fichier robots.txt ou le plan du site avec d’autres fichiers, comme je le ferais normalement avec un hébergement commun?
Merci!
Oui, vous pouvez bloquer l'accès à des URL spécifiques avec la règle robots.txt. Si la page contient une adresse URL réelle et unique et que Google l'indexe, il n'a pas d'importance qu'il s'agisse d'un SPA et, par défaut, les liens sont chargés sans actualisation de la page.
Disallow: /projects/interior/
doit correspondre à /projects/interior/[id]/[name]
mais pas à /projects/interior
Vous pouvez tester les règles du fichier robots.txt avec la console de recherche Google pour vous en assurer.