Je souhaite télécharger tous les fichiers (html, images, js, css) d'un site Web. Je peux télécharger chaque fichier séparément.
J'ai essayé dans Google Chrome, après avoir cliqué sur le view source
, puis ctrl + s
puis enregistré en tant que sample.html
alors j'en ai un sample.html
et un dossier exemple contient tous les fichiers tels que css, js, images, etc.
Alors plus tôt comment ça marche? Pourquoi ça ne marche pas maintenant?
Note: C'est uniquement à des fins d'étude, pas pour copier un site Web de contenu Web.
Dans Chrome, allez dans les options (Personnaliser et contrôler, les 3 points/barres en haut à droite) ---> Autres outils ---> enregistrer la page sous
save page as
filename : any_name.html
save as type : webpage complete.
Ensuite, vous aurez any_name.html
et any_name folder
.
Essayez Winhttrack
... utilitaire de navigateur hors ligne.
Il vous permet de télécharger un site Web à partir d’Internet dans un répertoire local, de créer de manière récursive tous les répertoires, d’obtenir du HTML, des images et d’autres fichiers du serveur sur votre ordinateur. HTTrack organise la structure de liens relative du site d'origine. Ouvrez simplement une page du site Web "en miroir" dans votre navigateur et vous pourrez naviguer sur le site d'un lien à l'autre, comme si vous la visualisiez en ligne. HTTrack peut également mettre à jour un site mis en miroir existant et reprendre les téléchargements interrompus. HTTrack est entièrement configurable et intègre un système d’aide.
WinHTTrack est la version Windows 2000/XP/Vista/Seven de HTTrack et WebHTTrack, la version Linux/Unix/BSD ...