J'ai WP site Web avec plusieurs pages de destination de campagne créées avec Page Builder. Toutes les pages de campagne sont sous/campaign/donc les URL sont toujours de type http://example.com/campaign/some-landing-page Maintenant, je voudrais noindex par défaut toutes les pages dont url contient/campaign/mais je n'arrive pas à comprendre comment faire cela avec Yoast SEO. J'ai réussi à noindex toutes les pages via les paramètres Yoast mais je veux seulement noindexer celles avec/campaign /
Il semble y avoir plusieurs moyens pour y parvenir, mais aucun ne fonctionnera simplement, car chaque environnement est différent.
Selon votre situation particulière, vous pouvez utiliser l'une des options suivantes.
Ajoutez "noindex" dans le fichier robots.txt
Utilisez le fichier robots.txt et ajoutez les directives pour interdire tout sous /campaign/
, comme suggéré par Kristian Svensson.
Ajoutez "noindex" à des catégories spécifiques dans functions.php
Selon Yoast, vous pouvez définir noindex
pour la page de catégorie elle-même, mais il n'est pas possible de définir noindex
pour tous les articles de cette catégorie.
Toutefois, si /campaign/
est une catégorie, ajoutez l'extrait suivant dans votre fichier functions.php , si vous y avez accès:
function add_noindex( $content ) { if( is_single() && in_category(array(value))) { return '<meta name="robots" content="noindex, nofollow">'.$content; } else return $content; } add_filter("the_content","add_noindex");
Et remplacez value
par l'ID de la catégorie ou le nom de la catégorie (entre guillemets). Séparez plusieurs catégories avec une virgule.
Ajoutez "noindex" à des catégories spécifiques dans header.php
<?php if (is_single() && in_category(array(457))) {
echo '<meta name="robots" content="noindex, follow">';
} ?>
Remplacez 457
par l'ID de catégorie de /campaign/
, s'il s'agit d'une catégorie.
Basé ceci fil de Github .
Malheureusement, je ne vois pas ce qui est possible avec Yoast à moins que vous ne définissiez manuellement chaque page sur noindex manuellement.
Toutefois, si vous avez accès à la racine de votre site Web avec FTP ou à un gestionnaire de fichiers sur votre serveur Web, vous pouvez le faire très facilement avec un fichier robots.txt. Dans ce fichier, vous pouvez donner à Google bot et à d'autres moteurs de recherche des instructions sur ce qu'ils sont autorisés (ou non autorisés) à explorer et à indexer.
Pour empêcher tous les robots d'indexer tout le contenu du dossier/campaign /, vous devez ajouter les éléments suivants:
User-agent: *
Disallow: /campaign/
Enregistrez-le et testez-le dans votre console de recherche Google (si vous en avez un). C'est tout.