Puis-je utiliser wget pour rechercher une version 404 et ne pas télécharger la ressource? Si oui, comment? Merci
Le paramètre de ligne de commande --spider
correspond exactement à cela. Dans ce mode, wget ne télécharge pas les fichiers et sa valeur de retour est zéro si la ressource a été trouvée et différente de zéro si elle n’a pas été trouvée. Essayez ceci (dans votre shell préféré):
wget -q --spider address
echo $?
Ou si vous voulez une sortie complète, laissez le -q
désactivé, donc juste wget --spider address
. -nv
affiche une sortie, mais pas autant que la valeur par défaut.
Si vous voulez vérifier tranquillement via $? sans le souci de la sortie de grep'ing wget, vous pouvez utiliser:
wget -q "http://blah.meh.com/my/path" -O /dev/null
Fonctionne même sur les URL comportant uniquement un chemin d'accès, mais présente l'inconvénient que quelque chose est réellement téléchargé; il n'est donc pas recommandé de vérifier l'existence de gros fichiers.
Vous pouvez utiliser l'option suivante pour rechercher les fichiers:
wget --delete-after URL
Oui facile.
wget --spider www.bluespark.co.nz
Ça vous donnera
Resolving www.bluespark.co.nz... 210.48.79.121
Connecting to www.bluespark.co.nz[210.48.79.121]:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
200 OK
Si vous êtes dans un répertoire où seule la racine a le droit d'écrire dans le système. Ensuite, vous pouvez directement utiliser wget www.example.com/wget-test
en utilisant un compte utilisateur standard. Donc, cela va frapper l'URL, mais à cause de l'absence de fichier de permission d'écriture, il ne sera pas sauvegardé ... Cette méthode fonctionne très bien pour moi car j'utilise cette méthode pour un travail cron .. .. Merci.
sthx