Je travaille sur un projet de site Web d'entreprise en tant que responsable SEO.
Ils utilisaient déjà Angular.js mais je leur ai demandé de passer à SSR (rendu côté serveur) car les robots de Google n'étaient pas en mesure de restituer les pages, de suivre les liens et qu'il y avait d'autres problèmes énormes d'indexation/référencement.
Ils sont convaincus de fournir la version SSR du site Web uniquement aux robots Google, Bing et autres principaux robots des moteurs de recherche, en les identifiant par le biais d'un agent utilisateur.
La raison pour laquelle ils ne choisissent que les robots pour recevoir la version SSR est limitée par les ressources du serveur. Comme vous le savez, la SSR nécessite une énorme quantité de ressources serveur car le contenu de l'application est rendu sur le serveur, pas sur le client.
Ils n'accepteront pas de passer prochainement à la version SSR pour les robots des moteurs de recherche et les utilisateurs réels.
Je veux mettre cela au débat et demander gentiment si vous avez une expérience similaire et le résultat.
N'hésitez pas à demander plus d'informations.
Cordialement, Shayan Davoodi ~
Voici ce que Pierre Benneton de SEOchat a trouvé pour répondre à ma question de Fournir des sites Web optimisés pour les recherches et axés sur la recherche (Google I/O '18) .
Dans cette vidéo, John Muller a déclaré qu'il était juste de faire ce que nous avions fait pour que le contenu SSR soit destiné aux robots des moteurs de recherche.
Servir une version différente aux bots est un gros non-non. Cela va à l'encontre des directives de Google et risque de vous causer des ennuis. Voir connexe: Est-il tricher de servir différentes versions du même contenu aux utilisateurs et aux robots d'exploration?
Retournez à Angular, utilisez le prérendering et rendez toutes les URL conviviales pour les moteurs de recherche (sans hashtags): https://geoffkenyon.com/angularjs-seo-crawling/