Je dois télécharger un site FTP (un code source de site Web en fait) contenant un très grand nombre de fichiers relativement petits (le télécharger avec FileZilla a pris plus d’une journée, mais je pense qu’il pourrait être téléchargé beaucoup plus rapidement si de nombreux fichiers étaient téléchargés à une fois que). Malheureusement, il n’ya pas d’accès SSH sur le site et il n’existe aucun moyen d’archiver les fichiers côté serveur.
Au moins, la question est donc de savoir comment télécharger un site FTP complet dans un dossier à l’aide d’outils de ligne de commande. Ce serait mieux si le téléchargement pouvait être mis en parallèle en téléchargeant plusieurs fichiers simultanément au lieu d'un à un.
Essayez ce qui suit:
wget -r ftp://username:[email protected]
cela ira à 5 niveaux de profondeur; pour augmenter, ajoutez l'option -l
Certains serveurs n'aiment pas ce comportement et vous risquez d'être mis sur liste noire à cause de la charge sur le serveur. Pour éviter cela, utilisez l'option -w
afin d'attendre un nombre spécifié de secondes.
Plus d'informations (ainsi que des mises en garde) peuvent être trouvés ici:
http://www.gnu.org/software/wget/manual/wget.html#Recursive-Download
http://linuxreviews.org/quicktips/wget/
Les arguments --user
et --password
sont utiles pour les noms d'utilisateur/mots de passe avec des caractères spéciaux.