Je développe un site Web social pour les lecteurs de livres, avec des pages de profil utilisateur publiques. Pour chaque utilisateur, plusieurs pages sont disponibles:
J'ai déjà près de 10 000 utilisateurs enregistrés, dont beaucoup ont peu ou pas d'activité.
Je sais que Google ne peut pas indexer des millions de pages de profil utilisateur dès le premier jour , et je ne souhaite pas qu'il indexe les pages inutiles contenant essentiellement le nom d'utilisateur et "Cet utilisateur n'a aucune activité". Google n'est pas disposé à indexer plusieurs de mes pages pour le moment, et j'aimerais pouvoir lui donner un indice quant aux pages pertinentes.
Devrais-je empêcher explicitement Google d'indexer les pages de profil vides ? Je pensais à une méta-balise noindex, follow
robots, qui indiquerait en principe à Google qu'il est correct de récupérer les liens de cette page, mais que son contenu n'a pas beaucoup de valeur.
Je sais que Google ne trouvera pas comme par magie des pages de profil vides si elles ne sont liées à aucun endroit (et je ne ferai pas l'erreur de les placer dans un sitemap); Cependant, je suis davantage préoccupé par les profils "presque vides": quelqu'un rédige une seule critique, sa page de profil est liée à la page du livre, et tout à coup GoogleBot trouve sa page de profil presque vide et ses pages de liste de livres entièrement vides. Je ne veux pas qu'il les indexe jusqu'à ce qu'ils contiennent du contenu .
Est-ce une bonne idée de fixer une limite inférieure au contenu de la page (par exemple, une page de bibliothèque personnelle contenant au moins 10 livres ou une page de profil avec un assez long à propos de moi et une activité à afficher), et seulement permettre explicitement aux bots d'indexer ces pages?
Vous pouvez gérer cela de différentes manières.
1. Utilisation de robots.txt
Disons que votre site web est: exemple.com
Et le profil utilisateur est:
Structure 1: Profil bien conçu
- example.com/user/user1 => Main Profile
- example.com/user/user1/other-page => Other Page
Structure 2: Profil de base
Vous pouvez créer différentes structures d'URL comme:
- example.com/minuser/user1 => Basic Profile
- example.com/minuser/user1/other-page => Basic Other Page
Vous pouvez créer une condition, par exemple: si l'utilisateur a 5 cases cochées, la structure 1, la structure 2 (non recommandé pour le calcul au moment de l'exécution).
Remarque: lors de la conception de l'algorithme, vous devez penser à beaucoup de choses.
BLOC: Vous pouvez bloquer/minuser en utilisant le fichier robots.txt.
2. Utiliser la balise méta noindex
Comme discuté ci-dessus, vous pouvez essayer ceci mais ne pas paraître propre à l'utilisateur.
Avertissement
À lire sur le problème du bloc noindex vs robots.txt ici: https://support.google.com/webmasters/answer/93710?hl=fr