J'utilise wget -A
pour télécharger des images d'une page.
Cela fonctionne bien lorsque les images sont hébergées sur le même domaine que la page.
Mais cela ne téléchargera pas les images reliées par un lien direct depuis d'autres pages (par exemple, imageshack)
Comment puis-je télécharger les images externes également à l'aide de wget ou d'un outil similaire?
Vous avez besoin du paramètre -H
(resp. --span-hosts
). Il permet le téléchargement de ressources liées hébergées sur différents hôtes/domaines.
De plus, vous pouvez bloquer des domaines spécifiques avec --exclude-domains
(Exemple: --exclude-domains=example.com,example.org
).
Vous devez spécifier le domaine que vous autorisez à suivre avec wget en utilisant -D [liste de domaines] ou --domains = [liste de domaines] (séparés par des virgules)
Remarque: je ne sais pas s'il gère les caractères génériques.
Certains adminsys (moi inclus) bloquez l'agent utilisateur wget sur certains fichiers pour éviter les hyperliens (par exemple).
Il existe également d'autres outils tels que wget: cURL , httpie , etc., mais ils peuvent également être bloqués par leur agent utilisateur.
Donc, ce n'est peut-être pas un problème de votre part, mais du domaine que vous interrogez.