web-dev-qa-db-fra.com

La suppression de certaines bibliothèques lorsque des robots visitent la page Web affecte-t-elle le référencement?

J'ai inclus jquery et bootstrap principalement pour l'expérience utilisateur. Lorsque j'ai vérifié la vitesse de mon site sur PageSpeed ​​de Google , il m'a recommandé de supprimer ces bibliothèques pour augmenter la vitesse de lecture des pages.

Maintenant, si je supprime ces bibliothèques de façon permanente, je compromettrais la fonctionnalité responsive du site Web. J'ai donc décidé de garder une vérification côté serveur pour confirmer si un bot ou un navigateur visitait ma page Web. Si un navigateur visitait la page Web, j'inclurais les bibliothèques et si un bot visitait ma page Web, je n'inclurais pas les bibliothèques.

Est-ce la bonne façon? Cela affectera-t-il le référencement? Existe-t-il un autre moyen de réaliser cela?

Je pose la question parce que si je le fais de cette façon, le rendu du bot et celui du navigateur seront différents (bien que le contenu du texte et les autres contenus restent les mêmes). Est-ce cloaking?

J'ai trouvé la question " bloquer le contenu pour certains utilisateurs et le montrer à Google pour l'indexation affecte le référencement " mais cela ne répond pas totalement à ma situation.

2
Raja Mukherjee

Certaines personnes utilisent robots.txt pour bloquer les éléments css et javascript de Googlebot et ici, vous allez le cacher d'autres techniques (éventuellement en vérifiant leur agent utilisateur ou leur adresse IP), mais Google n'aime pas cela . Cela affecte sûrement le référencement.

Bootstrap contient trop de codes CSS que vous n'utiliseriez peut-être pas du tout. J'ai récemment utilisé bootstrap et lorsque je fais des audits de site via chrome dev outils, cela signifie que 90% des fichiers CSS ne sont pas utilisés. du tout sur mon site web, alors pourquoi devrais-je les charger? Ensuite, je supprime ces codes CSS inutiles de mon fichier bootstrap. La même chose s’appliquera aussi à Jquery.

Alors optimisez votre framework, supprimez les éléments inutiles et hébergez-le sur votre propre serveur. Si votre site est minimal et ne nécessite pas plus de CSS, vous pouvez directement le mettre en tête, ce qui vous aidera à gagner du temps pour demander un autre HTTP demande au serveur.

1
Goyllo

La clé pour charger javascript rapidement est de le charger si nécessaire et sans bloquer le rendu de la page.

Tromper l'outil de vitesse de page avec une vérification côté serveur est stupide. cela n'améliorera pas l'expérience de votre site sur les utilisateurs finaux, ni google bot normal ne sera dupe, en fait, cela pourrait avoir un impact négatif sur votre classement sur l'index mobile, car la page n'est plus réactive.

le meilleur conseil est d’examiner les techniques de chargement efficace de js et d’optimiser le site avec requirejs ou un chargeur de module similaire pour js à la demande.

1
Squiggs.