Il y a quelque temps, j'ai accidentellement créé des centaines de milliers de fichiers dans mon répertoire personnel, que j'ai ensuite supprimés.
Depuis lors, l'exécution de ls dans mon répertoire personnel a été extrêmement lente (plusieurs dizaines de secondes à imprimer). Cela a également été lent dans d’autres répertoires (par exemple, lors de l’impression de 1s) et la complétion des onglets a été lente partout (également des dizaines de secondes).
Quel pourrait être le problème?
Edit: comme suggéré dans les commentaires, la sortie du
trouver ~/-maxdepth 1 | toilettes
est 67 et la sortie de df -h est
/dev/sda2 74G 8.4G 62G 12% /
none 4.0K 0 4.0K 0% /sys/fs/cgroup
udev 3.9G 12K 3.9G 1% /dev
tmpfs 795M 1.1M 794M 1% /run
none 5.0M 0 5.0M 0% /run/lock
none 3.9G 4.9M 3.9G 1% /run/shm
none 100M 52K 100M 1% /run/user
/dev/sda1 825G 408G 376G 53% /home
AFS 8.6G 0 8.6G 0% /afs
/dev/sdb2 1.9T 584G 1.3T 32% /media/sj1/ResearchData1
/dev/sdc1 932G 409G 524G 44% /media/sj1/ResearchData2
Essayez ls -1 -f /directory
si nous avons un grand nombre de fichiers dans le répertoire.
-1
liste le nom de fichier un par ligne.-f
désactive le tri.J'ai eu le même problème et la raison était un lien vers un dossier de lecteur réseau qui ne fonctionnait plus. Après le retrait, tout commence à se charger instantanément.
la création de centaines de milliers de fichiers peut avoir créé de nombreuses extensions de systèmes de fichiers qui ne sont pas nécessairement supprimées lors de la suppression des fichiers. Obtenez un "score de fragmentation" avec:
Sudo e4defrag -c ~/
et si le score est mauvais (supérieur à 50, par exemple), utilisez la même commande sans l'indicateur '-c' pour défragmenter le système de fichiers.
La plupart des systèmes de fichiers ne compactent pas les répertoires après les suppressions. Ce qui a fonctionné pour moi est la réponse à cette question ancienne question :