Si je veux trouver le dernier fichier (mtime) dans un (grand) répertoire contenant des sous-répertoires, comment le ferais-je?
Beaucoup de publications que j'ai trouvées suggèrent une variation de ls -lt | head
(curieusement, beaucoup suggèrent ls -ltr | tail
qui est identique mais moins efficace), ce qui est correct sauf si vous avez des sous-répertoires (ce que je fais).
Là encore, vous pourriez
find . -type f -exec ls -lt \{\} \+ | head
qui fera certainement l'affaire pour autant de fichiers que peut être spécifié par une commande, c'est-à-dire si vous avez un répertoire grand, -exec...\+
émettra des commandes séparées; par conséquent, chaque groupe sera trié par ls
à l'intérieur de lui-même, mais pas sur l'ensemble total; la tête récupérera donc la dernière entrée du premier lot.
Des réponses?
Vous n'avez pas besoin de recourir à des commandes externes (sous la forme ls
) car find
peut faire tout ce dont vous avez besoin avec l'action -printf
:
find /path -printf '%T+ %p\n' | sort -r | head
J'ai eu un problème similaire aujourd'hui, mais je l'ai attaqué sans find
. J'avais besoin de quelque chose de court, je pouvais exécuter ssh
pour renvoyer le fichier le plus récemment édité dans mon répertoire personnel. C’est à peu près ce que j’ai trouvé:
ls -tp | grep -v /$ | head -1
L'option -p
de ls
ajoute une barre oblique finale aux répertoires, le grep -v
supprime les lignes se terminant par une barre oblique (autrement dit, tous les répertoires) et le head -1
limite la sortie à un seul fichier.
C'est beaucoup moins détaillé que d'utiliser find
si tout ce que vous voulez retourner est le nom du fichier.
Ceci est sur mon système plus rapidement que printf
, bien que je ne comprenne pas pourquoi
find /path -type f -exec stat -c "%y %n" {} + | sort -r | head
EDIT: Je suppose que ce post n'est pas "pas particulièrement utile" comme je le pensais. C'est une solution très rapide qui ne fait que garder trace du dernier fichier modifié (au lieu de trier la liste complète des fichiers):
find . -type f -printf '%T@ %p\n' | awk 'BEGIN { mostrecenttime = 0; mostrecentline = "nothing"; } { if ($1 > mostrecenttime) { mostrecenttime = $1; mostrecentline = $0; } } END { print mostrecentline; }' | cut -f2- -d ' '
Réparti sur plusieurs lignes pour plus de clarté, il se présente comme suit:
find . -type f -printf '%T@ %p\n' | awk '
BEGIN { mostrecenttime = 0; mostrecentline = "nothing"; }
{
if ($1 > mostrecenttime)
{ mostrecenttime = $1; mostrecentline = $0; }
}
END { print mostrecentline; }' | cut -f2- -d ' '
Fin de l'EDIT
Ce message n’est pas particulièrement utile, mais comme "organiser" parle de vitesse, j’ai pensé partager cela.
les solutions de arrange et de enzotib impliquent de lister tous les fichiers du répertoire avec leurs heures, puis de les trier. Comme vous le savez, le tri n’est pas nécessaire pour trouver le maximum. Trouver le maximum peut être fait en temps linéaire mais le tri prend n log (n) temps [Je sais que la différence n’est pas grande, mais quand même;)]. Je ne peux pas penser à un moyen élégant de mettre cela en œuvre. [EDIT: Une mise en œuvre soignée (bien que sale) et rapide fournie ci-dessus.]
Meilleure chose à faire - Pour rechercher le dernier fichier modifié dans un répertoire, recherchez de manière récursive le dernier fichier modifié dans chaque sous-répertoire de niveau 1. Laissez ce fichier représenter le sous-répertoire. Maintenant, triez les fichiers de niveau 1 avec les représentants des sous-répertoires de niveau 1. Si le nombre de fichiers de niveau 1 et de sous-répertoires de chaque répertoire est presque constant, le processus doit évoluer de manière linéaire avec le nombre total de fichiers.
Voici ce que je suis venu avec pour implémenter ceci:
findrecent() { { find "$1" -maxdepth 1 -type f -exec stat -c "%y %n" {} + | sort -r | head -1 && find "$1" -mindepth 1 -maxdepth 1 -type d -exec findrecent {} \;; } | sort -r | head -1; }
findrecent .
J'ai couru cela et j'ai eu un tas d'erreurs find: findrecent: No such file or directory
. Raison: -exec de la recherche s'exécute dans un autre shell. J'ai essayé de définir findrecent dans .bashrc, .xsessionrc mais cela n'a pas aidé [j'apprécierais l'aide ici]. Finalement, j'ai eu recours à
#!/bin/bash
{ find "$1" -maxdepth 1 -type f -exec stat -c "%y %n" {} + | sort -r | head -1 && find "$1" -mindepth 1 -maxdepth 1 -type d -exec findrecent {} \;; } | sort -r | head -1;
dans un script appelé findrecent
dans mon chemin et ensuite l'exécuter.
J'ai couru ceci, continuais d'attendre et d'attendre sans sortie. Juste pour être sûr que je n'avais pas affaire à des boucles infinies, j'ai modifié le fichier en
#!/bin/bash
echo "$1" >&2
{ find "$1" -maxdepth 1 -type f -exec stat -c "%y %n" {} + | sort -r | head -1 && find "$1" -mindepth 1 -maxdepth 1 -type d -exec findrecent {} \;; } | sort -r | head -1;
et essayé à nouveau. Cela a fonctionné - mais cela a pris 1 minute 35 secondes sur mon homefolder - les solutions d'Arange et enzotib ont pris respectivement 1,69 et 1,95 secondes!
Voilà pour la supériorité de O (n) sur O (n log (n))! Bon sang, vous appelez des frais généraux! [Ou plutôt appel overhead]
Mais ce script est plus performant que les solutions précédentes et je parie qu'il s'exécutera plus rapidement que sur la mémoire de Google; D
Ce n'est pas aussi à la mode, mais il est également possible d'y parvenir avec Midnight Commander: rechercher *, classifier le résultat, trier par date de modification dans l'ordre inverse.
Évidemment, c'est un peu plus lent que find
- mon répertoire personnel, contenant 922 000 fichiers, a été trié par mc
en presque 14 minutes, alors que find
a dépensé moins de 5 - mais il y a quelques avantages:
Je passerais probablement plus de temps que la différence de 9 minutes à inventer une invocation de découverte appropriée :)
moins de risque d'erreur (j'ai oublié de spécifier -r pour le tri, etc. - recommencez)
il est possible de jouer avec le jeu de résultats en modifiant l'ordre de tri, etc. - sans interroger à nouveau les fichiers.
possible d'effectuer des opérations sur les fichiers uniquement sur certains fichiers du jeu de résultats - c'est-à-dire, triez par taille, supprimez quelques gros fichiers inutiles
Utilisez Perl
en conjonctin avec find
:
find my_directory -type f -printf '%T@\t%p\n' | Perl -ane '@m=@F if ($F[0]>$m[0]); END{print $m[1];}'
Vous obtenez le nom du fichier avec le plus grand Epoch == dernier fichier modifié.