J'ai un dossier qui contient les fichiers de code source d'un site Web (des tonnes de fichiers html, css et php). J'aimerais trouver une méthode automatique (de préférence avec des outils de ligne de commande) pour analyser ce dossier de manière récursive et obtenir une liste des URL incluses dans ces fichiers.
Je suppose que c'est possible avec find et grep et quelques expressions rationnelles, mais mes connaissances concernant la combinaison de ces commandes sont limitées.
En gros, ce serait un bon moyen de savoir s'il existe des appels d'URL "cachés" (fuites de données, fonctions de backdoors ou de téléchargements secrets) dans le code de la CME ou des plug-ins installés.
Utilisez la commande grep et recherchez récursivement http
dans un document.
(Si je me souviens bien)
grep -r http ./var/html/index.php
Où grep -r
forcera une recherche récursive, bien que vous puissiez utiliser d'autres méthodes également, tapez grep --help
pour les voir.http
est la chaîne que vous recherchez et /var/html/index.php
est le répertoire dans lequel se trouve le fichier.
Notepad ++ peut effectuer ce travail en appuyant sur un seul bouton: recherchez http
dans un dossier donné, y compris un sous-dossier, et Notepad ++ crée une liste de toutes les constatations.
Il existe sûrement de nombreuses méthodes pour le faire, qui sont de plus en plus byzantines comme celle-ci.