web-dev-qa-db-fra.com

Comment les sites Web immobiliers comme les pages Zillow Host pour chaque adresse de leur base de données?

Je me demande comment les recherches Google sur presque n'importe quelle adresse postale renvoient une page Web Zillow.

La façon dont mon site Web fonctionne actuellement est la suivante:

Lorsqu'une requête est entrée dans la zone de recherche, une page spécifique à cette requête est générée (de la même manière que Zillow a des pages pour n'importe quelle adresse, où la présentation de page est fondamentalement la même mais diffère par rapport à l'entrée de recherche).

À titre d'exemple, voici des liens vers deux adresses aléatoires trouvées via Google:

  1. https://www.zillow.com/homedetails/665-Cedar-Lake-Ln-Clinton-NC-28328/116257128_zpid/
  2. https://www.zillow.com/homedetails/711-Santa-Cruz-Dr-Keller-TX-76248/29236359_zpid/

Ici, le contenu de la page ne diffère que par rapport aux informations de leur base de données spécifiques à l'adresse de recherche. Prix, emplacement, etc.

Mon problème est que, à partir de maintenant, mon site Web ne génère ces pages et des URL dynamiques (www.domain.com/search_input) que lorsque la recherche est effectuée sur mon site. Si je souhaite que la même page (www.domain.com/search_input) apparaisse lorsque "search_input" est entré dans une recherche Google, que dois-je faire?

Zillow at-il généré le contenu de toutes les adresses de leur base de données, puis hébergé chaque page, ce qui représente des millions de pages avec Google les récupérant de la manière habituelle? Ou y a-t-il un moyen d'accueillir à la place une seule page avec votre mise en page de base? Par le biais d'une recherche Google/Bing/etc, la page ne serait alors modifiée que par rapport aux informations liées à la recherche et l'URL serait www.domain.com/search_input, comme si elle était générée sur mon site Web.

Je suis assez nouveau dans le développement Web et il s’agit de mon premier projet dans lequel je dispose d’une base de données d’informations de recherche trop volumineuse pour que je puisse créer manuellement le contenu de chacun. Même si j’écrivais un script pour générer toutes ces pages, il serait alors question d’héberger un nombre aussi important et je ne suis pas vraiment sûr de ce que cela impliquerait.

Toute aide serait appréciée!

-Scott

1
scott_det

Comme pour toute autre détection de page dans Google, cela se fait par le biais de liens. Zillow n'héberge pas chaque adresse sous forme de page, mais utilise un modèle de page unique et une base de données d'adresses. Afin de permettre à Google de les détecter, il existe deux méthodes utilisées par les différents sites pour effectuer quelque chose de similaire. L'une consiste à créer un index de toutes les adresses via une série de liens afin que les moteurs de recherche puissent le détecter à l'aide de méthodes d'analyse standard (c'est ce que Zillow semble faire).

L’autre méthode (utilisée par quelques sites similaires ici en Australie) consiste à utiliser des fichiers Sitemap, regroupés par région géographique, et à les lier via un fichier d’index Sitemap régénéré régulièrement (de toutes les 3 heures à 3 heures). toutes les 24 heures) puis soumis à Google ou même simplement laissé en place jusqu'à ce que Google réindexe le site et détecte les sitemaps mis à jour.

J'ajouterai une note indiquant que certains sites utilisent les deux techniques pour renforcer la fiabilité de la détection. Vous devez toujours vous assurer que si le lien existe ou si l'entrée du plan du site existe, l'adresse (la page) peut être consultée à ce lien et ne le fait pas. échouer avec une erreur 404.

1
Chris Rutherfurd