Je viens d'explorer mon site Web dans Screaming Frog et j'ai environ 6 000 URL internes et 4 000 URL externes. Ensuite, j'ai regardé dans GSC et j'ai vu que Google indexait 50K pages.
Comment est-ce possible?
Les pages diffusant du contenu en fonction de paramètres ne sont pas nécessairement un problème pour Google, sauf si elles contiennent essentiellement du contenu en double.
Il existe plusieurs façons de gérer cela:
Noindex: Ajoutez une balise sans index aux pages de résultats qui servent ce contenu dupliqué ou interdisez l'araignée dans le fichier robots.txt. Cela demandera à Google de ne simplement pas inclure ces pages dans leur index. Vous pouvez suivre cela avec une instruction manuelle via Google Search Console pour supprimer ces pages de l'index (bien qu'elles disparaissent après un court instant, de toute façon).
https://support.google.com/webmasters/answer/93710?hl=en
rel = "canonical": Spécifiez à Google que ces pages sont essentiellement des copies d'une autre page en utilisant la balise meta rel = "canonical", afin que Google comprenne que ces pages doivent être considérées comme simplement une autre URL pour accéder aux mêmes données qu'ailleurs.
https://support.google.com/webmasters/answer/139066?hl=en
Outil de paramètres d'URL: Google Search Console comprend un outil de paramètres qui vous donne la possibilité d'expliquer vos paramètres et de vous assurer que Googlebot comprend quels paramètres conduisent à du contenu en double. Cela peut être plus utile si vous avez des valeurs d'ID de session non standard stockées dans des variables GET dans l'URL. https://support.google.com/webmasters/answer/6080548?hl=en