Je gère un site de boutique en ligne créé par un autre collègue, qui a été mal créé depuis le début. En raison de la structure, de la pagination et des fonctionnalités du navigateur de l'utilisateur, combinées au manque de directives de méta-robots pour "noindex" sur certaines pages, il s'est retrouvé avec plus de 20 000 pages indexées dans Google.
Je travaille actuellement sur une restructuration du site Web, afin de respecter toutes les directives du référencement, et d'éliminer de nombreuses fonctionnalités de navigation afin d'éliminer des tonnes de pages dupliquées et inutiles.
Cependant, effectuer des redirections en bloc 301 des URL supprimées peut (probablement entraînera) des erreurs 404 selon les instructions du webmaster de Google. De plus, si je supprime les pages des liens internes du site Web, je devrai désindexer manuellement les pages une à une dans les outils du webmaster, car le robot d'exploration n'y aura pas accès, ce qui lui permettra de lire les directives noindex et de le mettre à jour à temps.
Par exemple :
www.example.com/products
- contient une liste de produits, paginés jusqu'à la page 2000+www.example.com/products/a
- contient la liste des produits commençant par la lettre A, paginés d'environ 30 pageswww.example.com/products/b
- vous obtenez le point.également:
www.example.com/products/most-viewed
- une liste des produits les plus consultés (les mêmes produits - paginés à 2000+www.example.com/products/top-rated
- les mêmes produits, paginés à 2000+Comme vous pouvez le voir, il y a énormément de contenu dupliqué. J'essaye de le réparer. Donc, je mets en œuvre rel = next et prev pour la pagination, mais je veux aussi supprimer certaines pages inutiles, par exemple le produit de navigation par ordre alphabétique. Afin de désindexer le example.com/products/A
, B
, etc.
Devrais-je:
a. Éliminez-le complètement des liens internes, puis demandez manuellement une suppression de l'URL pour chaque lien dans les outils pour les webmasters?
b. Conservez-le sur le site Web et utilisez des robots méta pour ne pas indexer ces pages? Je vais devoir le laisser ici jusqu'à ce que le robot d'exploration puisse le localiser et mettre à jour toutes les pages en conséquence.
c. Supprimez-le des liens internes du site Web, mais ajoutez les méta-robots noindex/follow, mais au lieu de les désindexer manuellement, je devrais les ajouter à l'URL. plan du site et soumettez-le à Google pour que le robot les connaisse toujours et l'explore pour lire la directive noindex ... même s'ils ne sont plus liés au site Web.
d. 301 rediriger vers la page de produits ou la page d'accueil. Mais de nombreux gros envois directs vers une seule page ou une page d'accueil poseront des problèmes et Google pourra les traiter comme 404 en réalité. Plus d'infos ici https://moz.com/blog/save-your-website-with-redirects Si je devais rediriger chaque page vers une autre page, ce serait quelque chose, mais j'essaie de le supprimer. beaucoup, beaucoup de pages.
Quelle serait l'approche logique?
by another colleague, that was badly created from the start
mes plus sincères condoléances:)
Le point principal à considérer est de savoir si les pages dont vous voulez vous débarrasser ont des liens EXTERNES. Ceci devrait être la base de votre décision de les 301 ou 404:
La procédure devrait ressembler à:
si vous VOULEZ avoir de tels sites, comme exemple.com/product category1 /, c'est-à-dire pour les utilisateurs, laissez la première page indexée et non la pagination.
Remarque: rel prev next va dans la tête et n'a rien à voir avec l'indexation. ils ne sont que pour ramper.
Pour la restructuration des sites Web de commerce électronique, peut-être pas à la même échelle que la vôtre, je ferais ce que Evgeniy dit ci-dessus. Ce que je voudrais aussi faire, du point de vue du référencement, est que si vous avez des liens de spam, de mauvaise qualité ou douteux pointant sur l’une des pages vers 404, utilisez une réponse 410 à la place. Une fois que Google vous explorera plusieurs fois, il Je vais ignorer les mauvais liens vers ces pages. Cela a fonctionné ou moi beaucoup de fois à bon escient. De plus, vous n'avez pas besoin de 301 pages (/ A ou/B, etc.) qui ont besoin de 301's (j'ai l'impression que c'est ce que vous faites, pardonnez-moi si je me trompe), utilisez htacess ou l'équivalent de réécriture de ce que vous faites. la technologie que vous utilisez pour le faire par répertoire. En plus de l'expérience utilisateur et de la qualité de votre site Web, vous souhaitez simplifier au maximum l'exploration de Google. Par conséquent, j'éviterais si possible de ne pas supprimer d'URL/index de GWT afin de maintenir votre sitemap xml aussi léger que possible.