web-dev-qa-db-fra.com

E.preventDefault on link empêche-t-il l’exploration de la page?

J'ai quelques liens dans la navigation sur la page d'accueil qui mènent à de nouvelles pages. Lorsque je clique sur le lien, je veux empêcher d'aller sur cette page (e.preventDefault()), et au lieu de charger cette page dans une fenêtre popup avec ajax. Les utilisateurs JS handicapés accéderaient à la page à partir du lien. Cela peut-il nuire au référencement de quelque manière que ce soit? Ces pages seraient-elles explorées?

2
user2406735

Les pages seront trouvées et très probablement explorées . Vous n'êtes pas loin de la vérité si vous supposez que les bots n'utilisent pas Javascript.

Un robot fonctionne de la manière suivante:

  1. Accédez à une page Web et obtenez son contenu
  2. Obtenez toutes les informations de la page, telles que les mots clés et tous les autres contrôles de référencement.
  3. Obtenir tous les liens internes et externes de la source
    • Par lien, allez à l'étape 1.

Il prend la source, pas la page que l'utilisateur voit. Certains robots exécutent du javascript, mais cela ne les empêchera pas de rechercher et d'explorer les URL.

Si vous voulez que les robots ne suivent pas les URL d'une page, il y a NOINDEX (dit: Ne pas indexer cette page) et NOFOLLOW (indexez cette page, mais ne suivez pas les URL. Plus d'informations sur le robots meta .

Une autre option consiste à utiliser robots.txt , un petit fichier texte dans lequel vous pouvez ajouter des URL à des pages que vous ne souhaitez pas utiliser. indexer. Cela dépend de la confiance qu'ils l'écouteront (mais le font le plus souvent).

4
Martijn