Les derniers mois, j'ai remarqué un comportement étrange dans les outils pour les webmasters de Google.
Bien que je fournisse un plan Sitemap valide pour mon site Web, qui est normalement traité et sans aucun problème de Google, alors que le nombre de pages Web soumises augmente constamment (30,923 pages), les pages indexées n'augmentent plus (26.819 pages depuis la fin janvier). ).
En vérifiant les statistiques du robot, tout semble normal et il n'y a pas d'erreur d'analyse.
La page Web n'a pas changé de manière significative ces derniers mois.
Quelqu'un a remarqué un problème similaire et une suggestion possible?
Bienvenue dans le monde de Google. Si vous envoyez un sitemap, le nombre de pages indexées ne semble jamais correspondre au nombre soumis dans Google Webmaster Tools. C'est comme ça depuis des années. Je ne sais pas pourquoi, mais je peux vous en dire autant. Google semble appliquer un algorithme qui gère la vitesse à laquelle les pages sont extraites d'un sitemap. Plus il y a de pages dans un sitemap, plus vite il est utilisé À l'approche de la fin, il ralentit de plus en plus. Je soupçonne qu’il s’arrête presque entièrement sur le nombre total de pages, ce qui donne au moins l’apparence que le plan du site complet n’est pas indexé. Et c'est peut-être le cas. Il se peut que le nombre de pages extraites chaque jour du plan Sitemap atteigne un nombre si bas que les dernières pages (souvent mesurées en milliers) prennent beaucoup de temps. Pour mon site, cela peut aller de 2000 à 4000, ce qui semble être exactement ce que vous vivez.
Un autre élément à prendre en compte est que le plan du site est lu et que toutes les entrées sont placées dans la file d'attente pour être extraites. Lorsque Google ralentit l'extraction des pages du plan Sitemap, d'autres pages jugées importantes, découvertes par d'autres moyens, fonctionnent bien dans les recherches, etc., sont placées en haut de la file d'attente et font partie du mélange. Par conséquent, si Google ralentit à environ 1 000 à 2 000 pages extraites chaque jour, le nombre de pages restantes du plan Sitemap diminue chaque jour, ce qui laisse la place à d'autres éléments de la file d'attente.
La soumission de contenu avec un plan Sitemap ne garantit pas qu'il soit indexé, bien que ce soit une aide pour l'explorer, entre autres choses.
La duplication est un motif courant d’inadéquation entre ce qui est soumis et celui qui est indexé: plusieurs versions de pages sont soumises ou les pages sont uniques, mais Google estime qu’elles ne sont pas suffisamment uniques pour justifier leur indexation.
Vous pourriez essayer:
nofollow
, etc. (Google Webmaster Tools recevra des notifications d'avertissement si, par exemple, robots.txt
bloque l'accès). .Je pense que c'est un problème du côté de Google.
Je conserve un tableur surveillant les statistiques de mon sitemap GWT sur un site et j’ai constaté le même comportement. Le nombre de pages indexées le 20 janvier était différent du nombre de fois où j’ai vérifié le 10 janvier. C’est presque toujours tous les jours ou quelques jours que j’ai vérifié les trois dernières années et demie, mais depuis le 20 janvier, le nombre n’a pas changé, même si le nombre de pages soumises a augmenté et j'ai même ajouté un autre sitemap.
Comme vous, tous les autres indicateurs semblent normaux, et le site est un site assez dynamique, volumineux et bien indexé (plus de 100 000 pages) qui, jusqu’aux trois derniers mois, n’avait jamais eu le même nombre de pages indexées pendant plus de une semaine.
Je me demandais s'il s'agissait d'un bogue, mais je ne trouvais personne sur Internet qui en parlait et comme j'ai souvent vu différents aspects de GWT temporairement ralentis ou obsolètes, je m'attendais toujours à ce qu'il se corrige automatiquement T'ai regardé plus loin. Je suppose que cela n’affecte pas tout le monde ou que nous en aurions déjà entendu parler ailleurs (bien que tout le monde puisse le confirmer si vos numéros indexés ont ont changé depuis la mi-janvier), mais je pense que vous ' Nous avons fourni la preuve que c’est plus que moi.