web-dev-qa-db-fra.com

Est-il trompeur de servir différentes versions du même contenu aux utilisateurs et aux robots d'exploration?

J'ai un modèle "intelligent" pour mon site web. Pour les utilisateurs humains, le serveur restitue le contenu de la page lors du hit initial, mais les pages suivantes sont chargées comme un SPA. Pour un robot, chaque page est rendue sur le serveur comme dans un site "normal". Pour les deux, le résultat final est le même. Puisque cela pourrait avoir une conséquence sur le référencement, est-ce considéré comme de la triche?

Modifier:

Ce que je fais est presque comme ça https://github.com/spikebrehm/isomorphic-tutorial

5
Alexandre

Traiter Google et les autres robots comme des utilisateurs

Vous devez toujours traiter Google de la même manière que vos utilisateurs. Je peux comprendre les avantages d’une expérience transparente en n’ayant pas à quitter la page actuelle, mais en bénéficiant des avantages SEO de la présence de plusieurs pages. Il existe de nombreuses méthodes permettant à un site Web de fonctionner de cette manière sans avoir à détecter les robots d'exploration ni à les traiter différemment.

Le problème le plus important concerne les backlinks

Le principal problème de votre visage est le référencement par backlink lorsque les utilisateurs ne reçoivent qu'une page, ce qui signifie qu'un utilisateur peut ne pas être en mesure de copier le lien de la page sur laquelle il se trouve, ce qui affecte à la fois l'expérience utilisateur et le référencement.

Différentes méthodes

Il existe différentes méthodes compatibles avec Google à partir du chargement de scripts JS qui chargeront la page vers laquelle l'utilisateur souhaite se rendre, puis le servir avec un chargeur pouvant donner l'impression d'être insensible. L'autre méthode acceptée par Google est le hashbang. en utilisant Schéma Ajax Googles . Il convient de noter que les utilisateurs du site utilisant la méthode compatible Google Ajax devraient être en mesure de renvoyer leur lien vers ce qu'ils recherchent. Donc, servir une jolie URL en utilisant hashbang et une URL laide pour Google, mais surtout, les pages doivent être accessibles par Google! Donc, si vous voulez que les URL sans hashbang soient indexées, vous utiliserez canonical qui ressemblerait à ceci sur vos urls de hashbang: <link rel="canonical" href="http://example.com/not-hash-bang-url" />

2
Simon Hayter

Il est contraire aux directives de Google de proposer différentes pages aux utilisateurs. L’ancien responsable du webspam, Matt Cutts, en a parlé dans une vieille vidéo de webmaster.

0
Matt Sells