Je dois obtenir toutes les images d'un site Web qui sont toutes contenues dans un dossier. Comme par exemple, (site.com/images/.*). Est-ce possible? Si oui, quel est le meilleur moyen?
Jetez un coup d'œil à HTTrack software. Il peut télécharger des sites entiers. Donnez l'adresse du site Web site.com/images/
et il téléchargera tout dans ce répertoire. (si l'accès au répertoire n'est pas restreint par le propriétaire)
Avez-vous un accès FTP?
Avez-vous un accès Shell?
Avec Linux, c'est assez facile. Pas sûr de Windows.
wget -H -r --level=1 -k -p http://example.com/path/to/images
Edit: Je viens de trouver wget pour windows .
Edit 2: Je viens de voir la balise PHP, afin de créer un script PHP qui télécharge toutes les images en une fois, vous devrez créer une archive Zip (ou équivalente) et envoyer cela avec les en-têtes corrects. Voici comment compresser un dossier en php , il ne serait pas difficile d'extraire uniquement les images de ce dossier, il suffit d'éditer le code donné pour dire quelque chose comme:
foreach ($iterator as $key=>$value) {
if (!is_dir($key)) {
$file = basename($key);
list($name, $ext) = explode('.', $key);
switch ($ext) {
case "png":
case "gif":
case "jpg":
$Zip->addFile(realpath($key), $key) or die ("ERROR: Could not add file: $key");
break;
}
}
}
si le site permet l'indexation, tout ce que vous avez à faire est wget -r --no-parent http://site.com/images/
Cela dépend si le répertoire images permet d’énumérer le contenu. Si c'est le cas, très bien, sinon vous auriez besoin de créer un site Web afin de trouver toutes les références d'images de ce répertoire.
Dans les deux cas, regardez wget .
Si vous souhaitez voir les images utilisées par une page Web: si vous utilisez Chrome, vous pouvez simplement appuyer sur F-12 (ou rechercher Outils de développement dans le menu). Dans l'onglet Ressources, il y a un arbre à gauche, puis sous Cadres, vous verrez le dossier Images, puis vous pourrez voir toutes les images utilisées par la page.