J'ai un site Web (blog WordPress, domaine personnalisé .NET, hébergé en Allemagne) que j'ai envoyé via les outils Baidu Webmaster, via tous les outils disponibles, c'est-à-dire la soumission directe de l'URL, Sitemaps et l'extrait JavaScript qui Auto-soumet de nouveaux liens. Pour toutes les soumissions manuelles, il n'y a pas eu d'erreurs et rien n'indique aucun problème - sauf que cela ne sait tout simplement pas du tout. Tout fonctionne bien sur Google et Bing cependant.
La page utilise HTTPS (crypterons) et il y a une redirection automatique à HTTPS en place, mais aussi loin que j'ai compris la documentation qui devrait être correcte, et à nouveau, le rapport sur HTTPS n'a également indiqué aucun problème avec le certificat. En outre, la page est accessible sans VPN, donc je ne soupçonnais rien de mal sur ce front.
Y a-t-il de bons pointeurs sur la façon de commencer à déboguer cela?
robots.txt
:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Whoa Boy, cette approche et Baidu ne joueront pas bien du tout ....
1) Vérifiez si le domaine est bloqué par le "grand pare-feu" avec https://fr.greatfire.org/analyzer . Si oui, désolé, il y a quelque chose de "désagréable" et vous aurez probablement votre site bloqué à nouveau, peu importe ce que vous faites pour essayer de contourner les censeurs. Mais sinon:
2) Voir si le domaine est accessible via des clients situés à la Chine avec http://www.webkaka.com/webcheck.aspx . Sinon, essayez de refléter le site sur un CDN chinois et utilisez le CCTLD de Chine pendant que vous y êtes. Si vous obtenez un tas de 200, alors:
3) Assurez-vous que le robotler peut rendre votre page correctement en masquant comme Baidubot. Une page pratiquement vierge en raison d'un faible rendu sera arrêtée avant d'être indexée, même il passe les rapports d'outils "en quelque sorte. Utilisez A Chrome Extension ou https://technicalseo.com/tools/fetch-render/ . S'il a l'air vraiment génial, alors retirez autant de JavaScript, Ajax, Quel que soit l'expérience "riche" Tech Web que vous utilisez. S'il passe, alors:
4) Essayez de pousser vos URL à Baidu via leur API. Ce n'est pas facile.
J'ai eu le même problème lors du lancement d'un site pour un client là-bas. Lors de la soumission de n'importe quel site à Baidu, il s'attend à un site entièrement chinois hébergé en Chine. Si vous ne pouvez pas fournir une version mandarine entièrement traduite pour votre Wordpress site, essayez d'ajouter ceci à votre HTML:
<META HTTP-EQUIV="Content-Language" CONTENT="ZH">
Placez la balise Meta ci-dessus sur l'une de vos pages HTML/PHP, elle permet à Baidu de savoir que vous avez un site chinois qui est une exigence en fonction de leurs directives communautaires et de soumettre à nouveau votre site.
Bonne chance!
Je n'ai pas spécifiquement traité ce problème, donc je "pense à voix haute" alors que j'écris ceci:
Je n'ai jamais été particulièrement préoccupé par Baidu, mais ma compréhension est que c'est un site de médias sociaux chinois, donc :
Si rien de ce qui précède ne semble viable, je dois poser quelques autres questions de suivi :
hreflang
?Si contempler ce qui précède ne convient pas à vos besoins, avez-vous examiné d'autres moyens de promotion (programmatiques et manuels) tels que :
Dernier point mais non le moindre :
Modifiez votre fichier robots.txt
Ce n'est probablement pas probablement une mauvaise idée de supprimer des références WordPress tel que wp-admin
de ton robots.txt
fichier. Je crois WordPress indique automatiquement les moteurs de recherche de ne pas ramper wp-admin
Avec une directive "Noindex" (qui pourrait être une en-tête HTTP, plutôt qu'une balise méta).
Et même si ce n'est pas le cas, voulez-vous vraiment votre robots.txt
Fichier pour annoncer au monde que vous avez un site Web en cours d'exécution WordPress?
Ne me trompez pas, j'adore WordPress et la plupart de mes sites Web l'utilisent, mais c'est la popularité en tant que CMS permet également d'annoncer publiquement les vulnérabilités du point de vue de la sécurité.
Essayer robots.txt
User-agent: *
Allow: /