Je crée donc un blog sans serveur et je suis préoccupé par les problèmes d’indexation qui peuvent survenir en fonction de la configuration. Je connais assez bien le concept et les détails techniques de l'indexation, mais je m'inquiète de la manière de s'assurer que les robots d'exploration parviennent à des articles.
Je souhaite créer une page d'accueil qui accédera à DynamoDB et accédera à un tableau indiquant l'emplacement de stockage des articles (et d'autres métadonnées), puis créant des fiches sur la page d'accueil pour chacun des articles.
Maintenant, le problème (si je comprends tout correctement) est que, lorsque je crée un index XML du site, Google ne verra pas les liens vers les articles car ils sont placés par programme dans la page. Les liens ne sont pas contenus dans la page HTML "intacte" (le js n'a pas encore rempli la page).
Cela signifie que les araignées n'atteindront jamais mes articles, ce qui est évidemment mauvais si vous voulez que vos articles soient vus.
Mes questions consistent en:
Cette présomption de ma part est-elle correcte? Y a-t-il un moyen de contourner ceci? Je ne veux pas avoir à mettre à jour continuellement le code HTML de ma page d'accueil chaque fois qu'il y a un nouvel article. Comment les autres blogs maintiennent-ils toujours ces liens en vie? Ils DOIVENT avoir à alimenter leur contenu par des fonctionnalités, en particulier pour les blogs qui existent depuis longtemps et qui contiennent des centaines ou des milliers d'articles.
Google exécute JavaScript et devrait donc restituer et indexer vos pages sans problème, à moins que vous ne fassiez quelque chose d'anormal avec votre JS.
Cependant, pour les autres moteurs de recherche moins sophistiqués, vous devrez pré-afficher votre contenu côté serveur pour qu'il soit disponible dans votre code HTML brut. Il n'y a pas d'autre moyen de contourner le problème.