J'utilise les deux avec URL Param et sans. Par exemple:http://www.wwwsitus.com/code/googlemap.php
http://www.wwwsitus.com/code/?q=reg&foo=verif
Je tape ensuite d'autres (faux param/url) dans cette URL, comme suit:http://www.wwwsitus.com/code/googlemapper.php
http://www.wwwsitus.com/code/?what=yeryter&next=unxrnyie
Ensuite, la page 404 apparaît.
Cependant, j’ai vu que les outils Google pour les webmasters stockaient l’URL (googlemapper.php) et devaient y remédier. Que dois-je faire avec ce problème? S'il y a 1000 mauvais types, cela me rend fou de le réparer.
Les erreurs 404 ne proviennent pas d'une entrée utilisateur. Ils proviennent plutôt de liens que Google a trouvés lors de l'exploration du Web. Si vous cliquez sur les erreurs 404 dans le rapport, vous pouvez voir où Googlebot a trouvé l'URL. Vous constaterez peut-être que nombre d'entre eux sont de mauvais liens vers votre site. Certains d'entre eux sont probablement Googlebot étant stupide.
Vous avez plusieurs options:
C'est bien de laisser ces erreurs. La liste des erreurs dans Google Webmaster Tools est à votre disposition en tant que webmaster. Google ne les utilise pas pour émettre des jugements sur votre site. La correction des erreurs dans ce rapport n'améliore pas votre classement. Si vous laissez des erreurs, votre site ne sera jamais pénalisé.
Voici ce que John Mueller de Google (qui travaille sur les outils pour les webmasters et les sitemaps) doit dire environ 404 erreurs qui apparaissent dans les outils pour les webmasters :
HELP! MON SITE A 939 ERREURS DE CRAWL !! 1
Je vois ce genre de question plusieurs fois par semaine; vous n'êtes pas seul - de nombreux sites Web contiennent des erreurs d'analyse.
- Les erreurs 404 sur des URL non valides ne nuisent en aucune façon à l’indexation ou au classement de votre site . Peu importe qu’il y en ait 100 ou 10 millions, ils ne nuisent pas au classement de votre site. http://googlewebmastercentral.blogspot.ch/2011/05/do-404s-hurt-my-site.html
- Dans certains cas, les erreurs d'analyse peuvent provenir d'un problème structurel légitime sur votre site Web ou votre CMS. Comment vous dites Vérifiez l’origine de l’erreur d’analyse. S'il existe un lien brisé sur votre site, dans le code HTML statique de votre page, cela vaut toujours la peine de le corriger. (merci + Martino Mosna )
- Qu'en est-il des URL funky qui sont "clairement cassées?" Lorsque nos algorithmes aiment votre site, ils peuvent essayer de trouver du contenu de qualité supérieure, par exemple en essayant de découvrir de nouvelles URL en JavaScript. Si nous essayons ces "URL" et trouvons un 404, c’est génial et attendu. Nous ne voulons simplement rien rater d’important (insérez ici le mot Googlebot trop lié). http://support.google.com/webmasters/bin/answer.py?answer=1154698
- Vous n'avez pas besoin de corriger les erreurs d'analyse dans les Outils pour les webmasters. La fonctionnalité "marquer comme fixe" est uniquement destinée à vous aider si vous souhaitez suivre vos progrès là-bas; cela ne change rien à notre pipeline de recherche Web, alors n'hésitez pas à l'ignorer si vous n'en avez pas besoin. http://support.google.com/webmasters/bin/answer.py?answer=24674
- Nous répertorions les erreurs d'analyse dans les outils pour les webmasters par priorité, en fonction de plusieurs facteurs. Si la première page d’erreurs d’analyse n’est manifestement pas pertinente, vous ne trouverez probablement pas d’erreurs d’analyse importantes dans les pages suivantes. http://googlewebmastercentral.blogspot.ch/2012/03/crawl-errors-next-generation.html
- Il n’est pas nécessaire de "réparer" les erreurs d’analyse sur votre site Web. Trouver 404 est normal et attendu d’un site Web sain et bien configuré. Si vous avez une nouvelle URL équivalente, il est recommandé d’y rediriger. Sinon, vous ne devriez pas créer de faux contenu, vous ne devriez pas rediriger vers votre page d'accueil, vous ne devriez pas non plus robots.txt interdire ces URL - toutes ces choses rendent plus difficile pour nous de reconnaître la structure de votre site et de la traiter correctement. Nous appelons ces erreurs "soft 404". http://support.google.com/webmasters/bin/answer.py?answer=181708
- Évidemment, si ces erreurs d’exploration apparaissent pour les URL qui vous intéressent, par exemple les URL de votre fichier Sitemap, vous devez agir immédiatement. Si Googlebot ne parvient pas à analyser vos URL importantes, elles risquent alors d’être supprimées de nos résultats de recherche et les utilisateurs risquent de ne pas pouvoir y accéder.
Si vous redirigez ces URL autrement que sur votre page d’accueil, elles ne figureront plus dans ce rapport. En les redirigeant de la page d'accueil, Google les qualifierait d'erreurs "soft 404" et Google les inclurait toujours dans le rapport.
Ceci est une réponse particulièrement appropriée pour les URL qui sont des versions cassées que vous pouvez corriger. Par exemple, si googlemap.php
est l'URL correcte, vous devez y rediriger googlemapper.php
.
Beaucoup de ces pages ne sont probablement pas appropriées pour l'inclusion dans un moteur de recherche de toute façon. Si vous empêchez Google d'explorer les pages, Googlebot cessera de rechercher 404 pages. Vous pouvez utiliser quelque chose comme ceci dans robots.txt pour empêcher Googlebot d'entrer:
Disallow: /code/?
Si certains paramètres de ces URL ne modifient pas vraiment beaucoup la page, vous pouvez indiquer à Googlebot de les ignorer. Par exemple, votre paramètre next
semble ne pas être très important pour le texte de la page. Peut-être que cela change simplement un bouton ou une navigation. Si tel est le cas, vous pouvez trouver les paramètres sous "Explorer" -> "Paramètres URL" qui vous permettent d'indiquer à Googlebot que les paramètres n'affectent pas le contenu de la page et que Googlebot ne doit analyser qu'une seule URL représentative pour toutes les valeurs de celle-ci. paramètre.