Construire des liens authentiques est difficile, si vous avez un seul domaine qui fait tout par rapport à plusieurs domaines spécifiques, il sera plus facile de créer un site Web. En disant cela, Google favorise-t-il un site Web de niche par rapport à un site Web géant?
Par exemple, je souhaite créer un domaine comportant plusieurs sites Web exécutés en tant que sous-répertoires. De cette façon, je peux générer plus de liens vers mon domaine à partir d'autres sites. Je veux avoir un sous-site qui couvre les films, les sports et les jeux vidéo. Tous les 3 sont des catégories très diverses et la plupart du temps non liées.
Si j'écris un commentaire pour batman. Sera-t-il plus susceptible de figurer dans les résultats de recherche si le site est un site de film dédié? C'est à dire.
www.everything.com/movies/batman-review
www.movies.com/batman-review
Ceci est un scénario, mais que se passe-t-il si le sous-site était lié à un créneau? Donc, si je veux faire un site de fans de films pour Batman, Superman et plusieurs autres films. Est-ce que cela fonctionnerait mieux dans mon domaine de film?
J'espère que cela n'a pas d'importance, car le contenu de la page elle-même devrait être tout ce qui compte, mais je ne sais pas si Google utilise le créneau du site Web en tant que facteur. Si la niche est tout, alors ce n'est pas vraiment un site de niche, mais techniquement, c'est comme si j'utiliserais un multisite WordPress qui utilise des sous-répertoires au lieu de sous-domaines.
D'accord. Il y a plusieurs choses à considérer ici. Du point de vue de Google, vous pouvez facilement comprendre pourquoi Google prend certaines de ses décisions. Je vais couvrir juste un peu de cela.
Tout d'abord, les humains ont des capacités cognitives étonnantes qui vont bien au-delà de ce que tout ordinateur peut faire. Même Watson ne peut même pas s'approcher de l'intelligence contenue dans notre esprit subconscient et les programmeurs ne peuvent que coder ce qui est réalisé à partir de notre esprit conscient. C'est un processus très lent.
Donc, pour les ordinateurs, ils ne peuvent faire que ce que nous leur disons en fonction de ce que nous réalisons ou apprenons. Il n'est pas possible qu'un ordinateur puisse faire ce que l'esprit humain peut faire. Les ordinateurs dépendent fortement des processus que nous créons.
Les moteurs de recherche ont parcouru un long chemin et utilisent des sciences et des techniques bien établies pour faire leur travail. Une grande partie de ce qui est nouveau concerne la manière dont ces sciences et techniques sont utilisées. Les ingénieurs de recherche deviennent très intelligents ces jours-ci.
Il y a encore des limitations. Google préfère qu'un site traite d'une chose ou de quelques choses similaires. Vous et moi savons que ce n’est pas tout à fait pratique. Cependant, du point de vue des moteurs de recherche, en utilisant les technologies disponibles, il est difficile de comprendre ce qu’est un site si les sujets abordés sont les voitures, les glaciers et la glace polaire, ainsi que les échecs pour les aveugles. Les moteurs de recherche veulent faire correspondre les intentions de recherche. Cela nécessite une compréhension détaillée de votre contenu.
Sémantique. En utilisant la sémantique, il est difficile de comprendre le lien entre un site très diversifié et une requête de recherche. Cependant, un site sur les vitriers, les glaces polaires, la climatologie, la géologie, etc. devient plus facile à comprendre. Ces sujets sont liés.
N'oubliez pas que la recherche est divisée en deux processus principaux. Création d'un index de moteur de recherche et satisfaction d'une requête de recherche. Le seul lien entre les deux est l'index. Aussi détaillée que soit la recherche, imaginez que vous puissiez uniquement communiquer entre les deux fonctions via une base de données aussi vaste et complexe. C'est une tâche très difficile.
Ne laissez pas RankBrain passer inaperçu. La sémantique a toujours été utilisée pour la requête de recherche, cependant, RankBrain a probablement été spécialement développé pour tirer le meilleur parti du potentiel sémantique en constante évolution de l'index en constante évolution des moteurs de recherche. Au fur et à mesure que la complexité de l'index augmentait, le moteur de requête de recherche ne suivait pas aussi rapidement. Entrez RankBrain.
Avant Google, le monde des moteurs de recherche consistait en correspondance de termes et analyse de probabilité pour déterminer quelles recherches correspondaient à quels sites. Pendant un certain temps, c'était aussi bon que possible et pouvait faire un travail juste. Google a reconnu que cette méthodologie était limitée et qu'une science bien établie, la sémantique, améliorerait considérablement les chances d'une correspondance pertinente bien au-delà des méthodes actuelles.
Jusqu'à aujourd'hui, la sémantique est une partie importante de la recherche avec différents degrés de mise en œuvre. Google est clairement le leader. mais qu'est ce que ça veut dire?
Cela signifie que les index de terme ne sont plus utilisés directement ou exclusivement. Même l'index de terme original de Google qui permettait la recherche sémantique a été remplacé ou remplacé par un index plus actuel. Cela ne signifie pas que les termes ne sont pas indexés. Cela signifie toutefois que la méthode d’indexation principale repose sur une analyse sémantique et des matrices et non sur les termes spécifiques figurant sur quelles pages. La sémantique concerne principalement la linguistique. Sur la fin la plus simple, il s'agit de sujets.
Si un site a des sujets trop divergents, la notation sémantique du site sera diluée. Les moteurs de recherche ne sont pas en mesure de compartimenter divers sujets, mais ils peuvent très bien comprendre des sujets connexes.
Comme les moteurs de recherche ne sont pas cognitifs, ils dépendent fortement des ontologies. Les ontologies sont des bases de données conceptuellement simples pouvant représenter des dictionnaires, des thésaurus, des liens de faits, des sujets spécifiques, des relations, etc. Pour certains sujets, des ontologies spécifiques ont été créées pour ce sujet. La science médicale est un excellent exemple. Par exemple, des ontologies pour la maladie et le diagnostic existent. Aussi pour les sciences de l'anatomie. Ces ontologies peuvent être utilisées pour comprendre le contenu. De même, wikidata.org est une ontologie basée sur Wikipedia et est également utilisée.
Permettez-moi de vous rappeler que les moteurs de recherche ne peuvent pas comprendre plus que ce que les humains peuvent dire. L'ontologie est le principal mécanisme de communication utilisé pour communiquer l'intelligence humaine à un moteur de recherche. Je tiens également à vous rappeler que cela ne peut être fondé que sur ce que les humains peuvent retirer de notre esprit conscient. En cela, les moteurs de recherche sont limités et le seront toujours. Cependant, ces limitations deviennent de plus en plus petites et varient rapidement.
Si vous avez prêté attention au graphe de connaissances/au coffre-fort, vous avez peut-être remarqué qu'il grandissait par sujet. Cela est dû au fait que des ontologies spécifiques sont utilisées pour construire le graphe de connaissances par décalages. Ceci est un indice du fonctionnement interne de Google. Pourquoi? Parce que nous savons que Google n'utilise pas uniquement la sémantique linguistique pour satisfaire les besoins de la recherche, mais une sémantique basée sur les liens de fait qui constitue également le graphe de connaissances. Ce processus a été appelé moteur de réponses. Pourquoi est-ce important à savoir? Parce que l’importance de la sémantique et de la recherche d’effets est évidente.
Aucune page n'existe dans le vide. Ni un site. Bien que je comprenne le sentiment que chaque page doit être classée individuellement et que chaque page possède son propre PageRank qui ne doit pas confondre le problème, aucune page ne peut exister par elle-même à la recherche. Les pages, et même les sites, ont des relations et ces relations sont importantes. Les relations hiérarchiques entre les pages existent à la fois sous forme de chemin physique et de lien vers une page. De même, les relations entre les sites et les pages existent via des liens entrants et externes. Ce qui n'est pas vu, ce sont les relations sémantiques entre des sujets similaires et le contenu de l'index sémantique.
Il devient important qu'un site traite d'un sujet ou de quelques sujets connexes. La raison est simple. Vous renforcez les performances au sein de l'index des moteurs de recherche. En fait, la focalisation sur l’actualité et la discipline linguistique deviennent très importantes.
C’est là que les sous-domaines ou les sites de niche s’intègrent.
Tous les sujets ne vont pas bien se comporter. Il est clair que certains sites basés sur les tendances seront toujours performants, mais il existe un risque de manquer de profondeur thématique. Par exemple, quelle sera la profondeur d'un site sur les célébrités par rapport à un autre site? Nous pouvons le voir pour les sites de référencement qui suivent les rubriques de titre avec d’autres sites sans contenu approfondi. Ces sites travaillent principalement pour les sujets de tendance. Si le site ne fait pas autorité ou s'il est bien conçu, il ne sera probablement pas performant du tout.
En outre, tous les sujets non liés aux tendances ne fonctionnent pas bien. La raison en est simple. Le sujet peut ne pas être trop intéressant, trop archaïque, très technique, cibler un public spécifique, cibler un petit créneau, etc. Tous les sites n'apprécieront pas les liens ni le trafic de recherche en retour d'effort. Cela ne signifie pas que ces sites n'ont aucune valeur. Loin de la vérité.
Les moteurs de recherche existent en tant qu'entreprise. Malheureusement, cela signifie qu'ils sont biaisés en matière de tendances, de commerce électronique et de tout autre sujet qui profite au modèle commercial et ignore en grande partie les autres sites. Ces dernières années, il est devenu de plus en plus difficile de trouver du travail scientifique dans tous les blogs basés sur les tendances. Ceci est particulier à certaines niches telles que le référencement. C'est malheureux.
Les moteurs de recherche sont très conscients des marchés et de la marque. Il est difficile de concurrencer les sites faisant autorité existants, même lorsque ceux-ci ne sont pas aussi bons. Obtenir une récompense pour votre travail nécessite un marketing constant. Cela nécessite également de faire monter les enchères.
Cela peut signifier plusieurs choses.
Par exemple, augmenter la valeur sémantique d'un site. Plus on écrit avec soin sur un sujet en détail, plus on risque d'avoir des minuties. Ce détail d'actualité peut renforcer la notation sémantique du site et de la page. Là où cela a de la valeur, c'est que même pour des recherches simples, le score sémantique sera plus fort que les sites qui ne présentent pas de compétences. La notation sémantique prend en charge plusieurs aspects de la recherche, notamment la force du sujet, l'expertise tirée de la base de données de liens de faits, le niveau d'éducation, le niveau de lecture, l'intention correspondante, etc., et même l'intention sociale. Cependant, aller loin dans des domaines tels que l'expertise et le niveau d'éducation peut signifier que l'intention correspondante devient un auditoire cible plus fin. De plus, il y a des fuites. Par exemple, si vous êtes politiquement libéral, votre position restera inchangée malgré votre prudence. C’est là que l’intention sociale entre en jeu. Les moteurs de recherche marquent pour cela. C'est une partie du paysage sémantique.
S'il vous plaît, comprenez également qu'une portée étroite peut signifier une haute autorité.
Il y a tellement de choses qui entrent dans le champ du sujet qu'un livre entier peut facilement être écrit. Mais sachez ceci. La portée du sujet est importante.
Jusqu'à une période récente, Google était plutôt intéressé par des sites beaucoup plus vastes. Une des raisons pourrait être le simple fait que plus de pages offrent plus d'opportunités de recherche. Jusqu'à ce que Google décide que certains sites de grande taille étaient nuisibles à l'expérience utilisateur, tels que le marketing d'article, les sites de référencement professionnel, les annuaires de liens, Google a fait un peu de figure et semble cibler les sites volumineux qui correspondent à certains marchés. considéré comme étant principalement un contenu de faible qualité.
Cela va de pair avec l'utilisation de la sémantique pour diviser le paysage Web en segments de marché. Dans ces segments, vous pourrez peut-être trouver de bons sites et de mauvais sites. Google passe l'appel. Cependant, le nombre de pages est une métrique de déclenchement avec la vitesse de création de contenu qui était autrefois une métrique plus positive. Ce déclencheur indique que votre site peut nécessiter des métriques supplémentaires pour être évalué en termes de qualité, par exemple.
D'un autre côté, sur certains marchés, tels que les sites whois, certaines attentes se manifestent quant au nombre de pages et tout site non conforme peut être considéré comme n'étant pas concurrentiel.
Pour le reste d'entre nous, il y a un juste milieu. Trop de pages de contenu pour un sujet particulier peuvent signifier une dilution sémantique ou une duplication du contenu du sujet et des thèmes. Trop de pages peuvent indiquer de ne pas concevoir le contenu des sites de manière légère et stratégique.
L'inverse est également vrai. Trop peu de pages manquent de potentiel de recherche et peuvent indiquer qu’un sujet n’est pas couvert de manière adéquate ou exhaustive.
Il ne s'agit pas nécessairement du nombre de pages. Il s'agit de l'efficacité des pages que vous avez. Trop peu de pages pour certaines rubriques du site peuvent signifier que le site sera inefficace. Trop la même chose. Il est partiellement défini par le marché, le sujet et la sémantique. Mais pour certains, un site à une seule page est tout à fait approprié et fonctionnera bien.
Si vous vous trouvez dans un sujet ou sur un marché qui n'est pas ciblé, ou si votre site n'est pas inutilement volumineux souvent à cause d'une forme d'automatisation, des pages thématiques bien rédigées et ciblées peuvent signifier davantage d'opportunités de recherche. Trop peu de pages moins de possibilités. Mais tout cela dépend fortement du sujet, du créateur de contenu et du marché. La réponse quant à savoir si un grand est plus efficace sur un site plus petit n'est pas binaire ou globale. C'est complexe et dépend de plusieurs facteurs. Ce n'est pas l'un ou l'autre. C'est une question d'efficacité globale.
Une des choses que je ne peux pas vous dire est où vos sujets s'inscrivent dans votre schéma de contenu. Vous devez utiliser votre expérience pour cela. Cependant, voici ce que je veux vous assurer que vous comprenez. La recherche est un processus mécanique et, pour que votre site fonctionne bien, vous devez reconnaître ce fait et y adhérer de manière raisonnablement éduquée. Vous devez faire face à la réalité sur le terrain et ne pas entrer dans un monde théorique. La théorie est belle, mais pas pratique. Pas à la recherche.
Construire un site sémantiquement significatif est la clé. Vous avez raison de créer des liens entrants (de retour). Cela semble presque impossible. Google a raison de penser que les liens naturels sont les meilleurs. La raison en est que ces liens sont sémantiquement significatifs. Google vous donne un indice précieux. L'argument selon lequel les liens entrants importent peu est désormais vrai et faux.
Les liens comptent encore beaucoup. Cependant, la relation entre le scoring sémantique et les liens entrants est beaucoup plus étroite que jamais. Il est possible de créer un site qui effectue de bonnes recherches si le site est bien fait. Les liens ajoutent à cela. Cependant, les liens ne peuvent plus l'emporter sur la signification actuelle. Pourquoi? L'utilisation de liens et de sémantique permet à Google de discerner plus facilement la qualité d'un site. La troisième étape du tabouret est la manière dont un site fonctionne dans les pages de résultats du moteur de recherche (SERP). Mais c'est un sujet séparé pour un autre jour.
Réponse courte - De nos jours, les grands ou les petits sites peuvent bien se classer.
Auparavant, Google dépendait beaucoup des backlinks. Maintenant, Google utilise plus de 210 signaux (200 signaux et plus de 10 signaux ajoutés après 2013) dans leur algorithme, et selon mon analyse des sites de mes amis. J'ai vu que Google ne dépendait pas trop du PageRank, c’est-à-dire que l’importance des backlinks dans l’algorithme était réduite par rapport à 2014 ou 2015.
Le site de niche peut très bien se classer maintenant par jour. Google veut généralement afficher le contenu expert au-dessus. Si un site de niche a un contenu approuvé, il peut occuper un rang élevé dans les SERP. Par exemple, le site Web de mon ami se classe très bien pour de nombreux mots-clés concurrents. Il n'a pas construit un seul lien. Vous pouvez également regarder les vidéos de hangout de John Mueller où il dit que le site de mes amis génère énormément de trafic, sans créer de backlinks. On dirait qu'ils continuent de changer d'algorithme pour que le webmaster puisse se concentrer sur les performances et le contenu du site Web plutôt que sur la création de backlinks.
Les gros sites se classent généralement bien dans les SERP. Google traite généralement toutes les pages Web de la même manière, mais le fait d'avoir un site plus grand aide à stimuler le référencement. En effet, le site a déjà la réputation d'autres sites Web. Il a donc une bonne réputation de domaine par rapport à un nouveau nom de domaine.
Construisez donc tout ce qui est facile pour vous et laissez Google faire son travail pour vous. Peut-être que Google réduira encore l’importance des backlinks par rapport à maintenant. Je sais qu'ils l'ont déjà trop réduit, mais ils peuvent en réduire encore plus et ajouter d'autres signaux à l'avenir.
Si votre contenu est bon, peu importe qu'il s'agisse d'un sous-domaine, d'un sous-répertoire ou d'un domaine différent, l'avenir de votre site Web est prometteur.
Google préfère le contenu à tout le reste. Ils connaissent bien la complexité des liens croisés entre sous-domaines ou sous-répertoires. Matt Cutts en a déjà parlé.
Avoir beaucoup de petits sites signifie que vous divisez votre trafic entre eux. Un site qui reçoit tout le trafic sera classé plus haut.
Votre objectif devrait être de fournir un contenu de qualité qui intéresse les gens et non de travailler sur des gadgets.