Je lutte actuellement pour résoudre un problème issu d'un proxy inverse. Nous utilisons un proxy inverse de page.example.com à example.com/page/. Le contenu d'origine du sous-domaine est généré à partir de Unbounce.com et attaché au sous-domaine.
Problème: nous voulons que le sous-domaine soit transféré dans un sous-répertoire pour des raisons de référencement. Le proxy inverse fonctionne très bien et transporte correctement le sous-domaine dans le sous-répertoire. Notre problème actuel est que le page.example.com est toujours indexé dans Google. Nous aimerions installer les redirections 301 pour autoriser uniquement l'indexation du sous-répertoire. Parce que nous n'avons pas d'accès direct au contenu de page.example.com, je ne peux pas mettre en place de fichier htaccess pour rediriger ce trafic. Unbounce charge également en fonction du "trafic", et le proxy inverse casse leurs informations de suivi.
Ils nous ont dit que si nous mettions les 301 en place, leurs informations de suivi devraient transmettre à la nouvelle structure d'URL et fonctionner à nouveau.
Si quelqu'un pouvait me diriger dans la bonne direction, ce serait fantastique.
Vous n'avez pas besoin de déplacer un sous-domaine vers un dossier pour des raisons de référencement. Le contenu sur les sous-domaines peut parfaitement fonctionner du point de vue du référencement. Voir: Les sous-domaines aident-ils/font-ils du mal au référencement?
Vous ne pourrez pas émettre de redirections 301 à partir des pages proxy. Votre proxy a besoin de ces pages en état de fonctionnement pour pouvoir fonctionner correctement. Si vous aviez page.example.com
émis une redirection 301, votre proxy inverse ne pourrait plus accéder au contenu.
Vous avez plusieurs solutions possibles:
page.example.com
et que celles-ci pointent vers example.com/page
, alors Google fera le bon choix. Vous diriez à Google qu'il existe un contenu en double et que l'URL préférée est le sous-répertoire. Contrairement aux redirections 301, les balises méta n'empêcheront pas votre proxy inverse de fonctionner correctement.xyzzy.example.com
et inversez le proxy à partir de là. Alors le page.example.com
serait 404 et tomberait de l'index de Google. Vous devrez peut-être traiter le même problème à l'avenir, car Google finira par trouver le nouveau sous-domaine également.robots.txt
sur le sous-domaine pour empêcher Google de l'explorer. Vous devez toujours autoriser le proxy inverse à analyser le sous-domaine. Les pages finiraient par tomber la plupart du temps hors de l'index. Vous pouvez implémenter le fichier robots.txt en même temps que le changement de sous-domaine. Dans ce cas, Googlebot n'indexerait pas le nouveau nom de sous-domaine.