Ainsi, un site a inbound links
dans beaucoup de pages importantes et ces liens ont URL parameters
. Ces paramètres d'URL sont essentiellement utilisés uniquement for tracking purposes
, comme dans le cas d'Amazon qui renvoie à son logo: http://www.Amazon.com/ref=nav_logo
Chaque page liée peut avoir différents paramètres d'URL en fonction de l'emplacement de ces liens (en-tête, pied de page, barre latérale, dans le contenu, etc.).
Et les pages (qui sont liées par une utilisation de paramètres d'URL) ont canonical tags
avec des URL pointant sur les pages d'origine sans paramètres d'URL, mais le fait est que il n'y a probablement pas liens directs sur l'ensemble du site vers ces pages sans paramètre d'URL .
Maintenant, je voudrais to preserve crawl budget
et voici les options que j'ai:
Ainsi, , si je bloque leur analyse afin de préserver le budget d'analyse, Google ne pourra pas voir les URLs canoniques et le seul moyen d'informer Google sur les pages canoniques est le sitemap.
Mais, sans que Googlebot puisse analyser les URL en direct sur les pages et leur apparence, il ne sera pas en mesure de suivre les liens et de leur attribuer un poids, une autorité et une pertinence par rapport à ces pages. Est-ce exact?
Quel est le meilleur scénario pour moi de laisser les liens rester avec les paramètres d'URL tout en obtenant tout le poids/l'autorité nécessaire alors que le budget d'analyse est également optimal?
Mais, sans que Googlebot puisse analyser les URL en direct sur les pages et leur apparence, il ne sera pas en mesure de suivre les liens et de leur attribuer un poids, une autorité et une pertinence par rapport à ces pages. Est-ce correct?
En théorie, oui, mais mon interprétation personnelle de la présence de liens retour sur des pages qui ne sont pas accessibles aux moteurs de recherche est qu’ils jouent un rôle mineur. Ils ne possèdent pas tous les pouvoirs de liaison qu'ils pourraient avoir lorsqu'ils étaient accessibles, mais en même temps, je ne pense pas qu'ils soient complètement ignorés.
Quel est le meilleur scénario pour moi de laisser les liens rester avec les paramètres d'URL tout en obtenant tout le poids/l'autorité alors que le budget d'analyse est également optimal?
C’est un sujet classique de: autorité de liaison vs budget d’exploration. Ce sont toujours difficiles (et amusant!).
Un référencement axé sur la création de liens vous indiquera de rechercher une autorité de liaison.
Un référencement technique vous indiquera de choisir un budget d'analyse.
J'aime penser à moi comme à un référencement global. Je recommande donc une combinaison (si c'est une option - je ne connais pas l'étendue de ce problème) qui nécessite un travail manuel, mais si vos backlinks vers ces pages sont suffisamment puissants, je suppose que cela en vaut la peine:
Faites moi savoir si vous avez des questions.
Je vous recommande d'utiliser l'option Outil de paramétrage d'URL dans la console de recherche . Pour chacun de vos paramètres de suivi, ajoutez-le à l'outil et réglez-le sur "N'affecte pas le contenu de la page (par exemple, le suivi de l'utilisation)".
Lorsque vous indiquez à Googlebot qu'il s'agit de paramètres passifs, Googlebot analyse généralement une seule URL avec une valeur de paramètre spécifique. Si le paramètre peut être supprimé et que Googlebot trouve un lien vers l'URL sans le paramètre, il préférera généralement omettre complètement le paramètre et la valeur. Ensuite, les algorithmes de Google peuvent affecter tout le poids de tous les liens entrants à ce paramètre.
Si vous souhaitez contrôler la valeur du paramètre de suivi qui apparaît dans les résultats de la recherche, vous pouvez utiliser le balise de lien rel canonique dans vos pages pour spécifier la manière dont vous souhaitez que les moteurs de recherche indexent la page. L'utilisation de liens canoniques rel n'empêchera pas les bots d'explorer de nombreuses URL en double, mais cela consolidera le lien et vous permettra de choisir celle que vous souhaitez indexer.