web-dev-qa-db-fra.com

Devrais-je empêcher les moteurs de recherche d'indexer des pages de profil utilisateur vides? Si oui, combien de contenu suffit-il à l'indexation?

Je développe un site Web social pour les lecteurs de livres, avec des pages de profil utilisateur publiques. Pour chaque utilisateur, plusieurs pages sont disponibles:

  • La page utilisateur principale (à propos de moi, de la dernière activité, ...)
  • Plusieurs pages de liste de livres:
    • Bibliothèque personnelle
    • Liste de souhaits
    • Liste de lecture
    • ... et plus

J'ai déjà près de 10 000 utilisateurs enregistrés, dont beaucoup ont peu ou pas d'activité.

Je sais que Google ne peut pas indexer des millions de pages de profil utilisateur dès le premier jour , et je ne souhaite pas qu'il indexe les pages inutiles contenant essentiellement le nom d'utilisateur et "Cet utilisateur n'a aucune activité". Google n'est pas disposé à indexer plusieurs de mes pages pour le moment, et j'aimerais pouvoir lui donner un indice quant aux pages pertinentes.

Devrais-je empêcher explicitement Google d'indexer les pages de profil vides ? Je pensais à une méta-balise noindex, follow robots, qui indiquerait en principe à Google qu'il est correct de récupérer les liens de cette page, mais que son contenu n'a pas beaucoup de valeur.

Je sais que Google ne trouvera pas comme par magie des pages de profil vides si elles ne sont liées à aucun endroit (et je ne ferai pas l'erreur de les placer dans un sitemap); Cependant, je suis davantage préoccupé par les profils "presque vides": quelqu'un rédige une seule critique, sa page de profil est liée à la page du livre, et tout à coup GoogleBot trouve sa page de profil presque vide et ses pages de liste de livres entièrement vides. Je ne veux pas qu'il les indexe jusqu'à ce qu'ils contiennent du contenu .

Est-ce une bonne idée de fixer une limite inférieure au contenu de la page (par exemple, une page de bibliothèque personnelle contenant au moins 10 livres ou une page de profil avec un assez long à propos de moi et une activité à afficher), et seulement permettre explicitement aux bots d'indexer ces pages?

2
Benjamin

Vous pouvez gérer cela de différentes manières.

1. Utilisation de robots.txt

Disons que votre site web est: exemple.com

Et le profil utilisateur est:

Structure 1: Profil bien conçu

 - example.com/user/user1 => Main Profile
 - example.com/user/user1/other-page => Other Page

Structure 2: Profil de base

Vous pouvez créer différentes structures d'URL comme:

- example.com/minuser/user1 => Basic Profile 
- example.com/minuser/user1/other-page => Basic Other Page

Vous pouvez créer une condition, par exemple: si l'utilisateur a 5 cases cochées, la structure 1, la structure 2 (non recommandé pour le calcul au moment de l'exécution).

Remarque: lors de la conception de l'algorithme, vous devez penser à beaucoup de choses.

BLOC: Vous pouvez bloquer/minuser en utilisant le fichier robots.txt.

2. Utiliser la balise méta noindex

Comme discuté ci-dessus, vous pouvez essayer ceci mais ne pas paraître propre à l'utilisateur.

Avertissement

À lire sur le problème du bloc noindex vs robots.txt ici: https://support.google.com/webmasters/answer/93710?hl=fr

1
TopQnA