Est-il possible de bloquer mes fichiers javascript dans le fichier robots.txt, ou cela peut-il nuire au référencement de mon site Web?
Après la mise à jour de Panda 4 (mai 2014), le blocage des fichiers css et js tuera votre référencement.
Il y a une belle étude de cas ici qui montre à quel point cela peut nuire au référencement:
https://yoast.com/google-panda-robots-css-js/
De nos jours, Google souhaite voir vos pages de la même manière que les utilisateurs. Il est donc important de lui laisser voir vos scripts et feuilles de style côté client.
Vous n'indiquez pas la raison de le faire, alors la réponse générale est non.
Les fichiers JavaScript ne sont généralement pas explorés. Les moteurs de recherche savent qu'ils sont présents, mais ils ne les utilisent généralement pas, car ils ne contiennent aucun contenu destiné aux utilisateurs. Il n’est donc pas nécessaire de le faire du point de vue des moteurs de recherche/robots.
Du point de vue des utilisateurs normaux, cela n’a aucun sens car les utilisateurs n’utilisent pas le fichier robots.txt et s’ils veulent vérifier vos fichiers JavaScript, ils peuvent y accéder directement après avoir vérifié votre code.
En ce qui concerne la question spécifique, non, cela ne nuira en rien à votre référencement, car c’est en principe une règle à laquelle personne ne ferait attention.
Cela pourrait vous affecter gravement si vous faites une erreur et bloquez un dossier qui contient du contenu, mais si vous ne commettez pas cette erreur, il n’ya ni avantage ni inconvénient.