J'essaie de trouver la bonne stratégie pour différencier le contenu que je souhaite voir apparaître dans les résultats de recherche et le contenu que je ne trouve pas. J'ai trouvé des exemples dans lesquels un site a un contenu unique, qui a une valeur de classement, et il choisit de ne pas le mettre dans les résultats de recherche.
MOZ Open Site Explorer en est un exemple. Il s'agit d'une analyse de référencement gratuite d'un site Web. Leur page sur stackoverflow pourrait être une bonne cible pour le référencement, mais ils ont choisi de ne pas l'autoriser (via robots.txt). C'est la page elle-même: https://moz.com/researchtools/ose/links?site=stackoverflow.com&filter=&source=external&target=page&group=0&page=1&sort=page_authority&anchor_id=&anchor_type=&anchor==french=site= =
Quelles sont les bonnes raisons de prendre une telle décision du point de vue du référencement? Si vous ajoutez une page, cela signifie-t-il que d'autres pages risquent de perdre leur classement?
Il y a plusieurs raisons de garder le contenu en dehors des moteurs de recherche:
Google Panda Algorithm est utilisé pour identifier plusieurs de ces types de contenu et pénaliser des sites Web complets qui en sont dotés.
Leur page sur stackoverflow pourrait être une bonne cible pour seo
C'est discutable. Sur la page vers laquelle vous créez un lien, je ne vois que des chiffres et toute une série de liens. Est-ce que je chercherais vraiment sur Google pour "analyser" le site de quelqu'un ou aller directement à l'outil dédié?
Mais je pense que le principal "problème" lié à l’autorisation de Google d’explorer cette page est qu’elle résulte d’une recherche arbitraire. Il existe un nombre infini de possibilités et potentiellement un nombre infini de pages à explorer.
https://example.com/links?site=<anything>