Comment télécharger tous les fichiers multimédia (images + vidéos) depuis une page Web?!
Toute application est acceptable mais wget
est préférable
Tout est dans la page de manuel .
Quoi qu'il en soit, -p
est le commutateur que vous recherchez
wget -p www.example.com/index.html
Cependant, je suppose qu’il ne sera pas capable de faire des choses intelligentes (impliquant javascript ). Cela dépend de votre page.
wget
a une option miroir (-m
) qui peut passer par un site et en faire une copie locale. C'est comme l'option de prérequis (-p
) sauf qu'elle suit tous les liens du domaine et télécharge toutes les pages du site (qui sont liées). Si vous n'avez besoin que de fichiers sur une seule page, -p
suffit.
Si vous envisagez de refléter les pages, vous pouvez utiliser l'option -k
pour corriger les liens. Ceci est complètement facultatif et n'est pas nécessaire si vous ne recherchez que des actifs.
Un des problèmes que j'ai rencontré lors de cette opération est que certains sites utilisent un fichier robots.txt pour empêcher Google (et autres) de copier ou de mettre en cache leurs ressources. wget
y adhère normalement, mais nous pouvons le désactiver. Cela vaut la peine de le faire, bien sûr.
Mettez tout cela ensemble et vous vous retrouverez avec quelque chose comme ceci:
wget -mke robots=off http://website
L'assistant de téléchargement vidéo est votre option la plus simple:
wget
est un peu plus compliqué. Vous pouvez wget
une page:
wget www.example.com/page.html
puis analysez-le:
cat page.html | grep ".png"
puis téléchargez ces images via le lien, la commande précédente affiche:
wget www.example.com/images/image.png
Firefox - DownThemAll Addon fera très bien son travail.
Voir la capture d'écran ci-dessous: