Il y a beaucoup de documents utiles sur mon site Web et nous savons que Google est déjà assez intelligent - que si le document sert l'objectif du visiteur, il le répertorie directement dans le SERP sans indiquer la page à partir de laquelle il a été lié. .
Cela causerait une perte de revenus si le visiteur ne visitait pas nos pages Web.
Est-il possible d'empêcher Google d'inscrire les documents directement dans le SERP?
Je vois qu'il y a X-Robots-Tag: noindex pour empêcher Google d'indexer des documents. Mais je souhaite que Google indexe les documents afin de connaître leur importance et d’en accroître la pertinence.
Question similaire: Comment empêcher un fichier PDF d'être indexé par des moteurs de recherche?
Pour empêcher Google d’indexer vos documents mais de laisser les bots explorer ces documents (à des fins de référencement), vous pouvez insérer les lignes suivantes dans votre . Htaccess (si vous le souhaitez. utiliser Apache en tant que serveur Web). Cela donnera du poids à Google d'indexer vos pages Web et non vos documents.
<Files ~ "\.pdf$">
Header set X-Robots-Tag "noindex"
</Files>
Avec ces lignes, vous appliquez un filtre sur tous les fichiers .pdf
de l’ensemble du site Web en utilisant X-Robots-Tag
dans l’en-tête HTTP. Ceci est n article de Google pour comprendre comment cela fonctionne.