J'ai passé une demi-journée à implémenter la génération html côté serveur pour les pages modales en fonction de leur proposition ( lien ), mais il semble que la fonctionnalité Fetch as Googlebot des outils pour les webmasters ignore complètement le fragment d'URL.
J'ai vérifié que la fonctionnalité _escaped_fragment_
fonctionnait sur mon serveur ( exemple ), mais lorsque je soumets une URL du type /#!/recipes
, le Googlebot récupère simplement /
. .
Il n'y a pas de confirmation récente que cela fonctionne et, honnêtement, cela ne me surprendrait pas si on venait de les laisser tomber en silence sans même éditer les documents.
Ça marche. Je l'ai utilisé récemment. Mais je ne serais pas surpris s'il existe des expressions régulières qui valident l'entrée d'URL et n'autorisent pas certains caractères valides normalement non-URL tels que #!
.
Oui, vous pouvez dire que ce sont des caractères valides à utiliser, mais probablement pas lorsque la récupération telle que Google a été écrite. Au moins dans des circonstances normales. Il n'a peut-être pas été mis à jour pour une bonne raison. Normalement, la validation des entrées est effectuée immédiatement dans votre code pour des raisons de sécurité. Il se peut que Google se préoccupe de la sécurité.
C'est ce que j'ai vu. Les pages soumises en utilisant fetch en tant que Google font l'objet d'un suivi quelques jours plus tard au moins. Cela peut aller jusqu'à 2 semaines. Il est préférable de permettre à Googlebot de faire son travail. Je n'aime pas faire une recherche en tant que Google, sauf si je veux tout de suite insérer une page dans l'index. Et je le fais juste quelques fois par an. Sinon, je n'utilise jamais fetch en tant que Google pour les pages existantes. J'attends juste.