J'essaie d'éviter le contenu en double sur un site Web en bloquant la pagination via robots.txt, mais il s'avère que l'URL n'a pas de paramètre passé dans l'URL que je peux simplement bloquer, c'est juste un nombre. Exemple:
/category/sub-category/product/
/category/sub-category/product/1
/category/sub-category/product/2
/category/sub-category/product/3
Dans l'exemple ci-dessus, les URL se terminant par 1, 2 et 3 correspondent à la pagination. Une idée sur la façon dont je peux les bloquer? Je ne veux pas simplement bloquer tous les numéros, car ce n'est pas une solution idéale.
Si vous avez un contenu en double possible avec votre pagination, l’idée n’est pas de bloquer les URL de pagination avec robots.txt, mais de simplement définir la balise rel="canonical"
pour vos différentes URL.
Pour vos quatre URL, définissez cette balise dans votre section <head>
:
<link rel="canonical" href="http://www.example.com/category/sub-category/product/"/>