J'ai accidentellement corrompu ma version d'Ubuntu 17.10 lors d'un redémarrage forcé (sur un cinquième disque dur). Dans mon système, j'avais 4 autres disques durs faisant partie d'une matrice RAID5. Maintenant que j'ai installé Ubuntu 17.10 à nouveau, comment puis-je récupérer mon tableau et mes données?
J'ai essayé les deux
Sudo mdadm --assemble --uuid=XXXXXXXXXX
et
Sudo mdadm --assemble /dev/md0 /dev/sdb /dev/sdc /dev/sdd /dev/sde
et je peux alors le faire monter, mais quand je vais accéder aux fichiers, il me demande un mot de passe et le dossier est vide. Tous les membres du groupe sont actifs et propres.
REMARQUE: j'ai créé mon répertoire/home sur ce RAID avant le crash en le déplaçant et en le montant. S'il vous plaît voir la sortie ci-dessous:
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sde[4] sdb[0] sdd[2] sdc[1] 8790405120 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
unused devices: <none>
Sortie ci-dessous pour
Sudo parted --list /dev/md0
Model: ATA TS128GSSD370S (scsi)
Disk /dev/sda: 128GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 1049kB 538MB 537MB fat32 EFI System Partition boot, esp
2 538MB 128GB 127GB ext4
Error: end of file while reading /dev/sdb
Retry/Ignore/Cancel? retry
Error: end of file while reading /dev/sdb
Retry/Ignore/Cancel? ignore
Error: The primary GPT table is corrupt, but the backup appears OK, so that will
be used.
OK/Cancel? ok
Model: ATA ST3000VN000-1HJ1 (scsi)
Disk /dev/sdb: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
Error: /dev/sdc: unrecognised disk label
Model: ATA ST3000VN000-1HJ1 (scsi)
Disk /dev/sdc: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: unknown
Disk Flags:
Error: /dev/sdd: unrecognised disk label
Model: ATA ST3000VN000-1HJ1 (scsi)
Disk /dev/sdd: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: unknown
Disk Flags:
Error: end of file while reading /dev/sde
Retry/Ignore/Cancel? ignore
Error: The primary GPT table is corrupt, but the backup appears OK, so that will
be used.
OK/Cancel? ok
Model: ATA ST3000VN000-1HJ1 (scsi)
Disk /dev/sde: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
Model: WD Elements 25A1 (scsi)
Disk /dev/sdf: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 1049kB 3001GB 3001GB ntfs Elements msftdata
Model: Linux Software RAID Array (md)
Disk /dev/md0: 9001GB
Sector size (logical/physical): 512B/4096B
Partition Table: loop
Disk Flags:
Number Start End Size File system Flags
1 0.00B 9001GB 9001GB ext4
Après le montage/dev/md0/mnt
La sortie de ls -la/dev/md * est
brw-rw---- 1 root disk 9, 0 Apr 13 16:31 /dev/md0
/dev/md:
total 0
drwxr-xr-x 2 root root 60 Apr 13 16:31 .
drwxr-xr-x 21 root root 4520 Apr 13 16:31 ..
lrwxrwxrwx 1 root root 6 Apr 13 16:31 0 -> ../md0
Ce n'est pas un problème de raid, mais plutôt un problème de permission. Si vous vérifiez le résultat de la commande cat /proc/mdstat
, vous pouvez voir que le raid5 est parfaitement assemblé, comme indiqué par le [UUUU]
dans la ligne md0
.
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md0 : active raid5 sde[4] sdb[0] sdd[2] sdc[1] 8790405120 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
bitmap: 0/22 pages [0KB], 65536KB chunk
unused devices: <none>
La table de partition (boucle pour un périphérique en boucle) et le système de fichiers (ext4) conviennent également. Après avoir monté le périphérique de boucle avec mount /dev/md0 /mnt
, vous devriez voir quelque chose comme:
$ mount /dev/md0 /mnt
$ ls -la /mnt
total 12
drwxr-xr-x 3 root root 4096 Jun 29 2016 .
drwxr-xr-x 10 root root 4096 Dec 7 10:42 ..
drwxr-xr-x 3 1001 2001 4096 Feb 6 2017 oldusername
Maintenant, vous devez changer le propriétaire de la maison de l'ancien utilisateur en votre utilisateur actuel:
$ Sudo chown $(stat -c '%u:%g' ~/) /mnt/oldusername
$ ls -la /mnt
total 12
drwxr-xr-x 3 root root 4096 Jun 29 2016 .
drwxr-xr-x 10 root root 4096 Dec 7 10:42 ..
drwxr-xr-x 3 currentuser currentgroup 4096 Feb 6 2017 oldusername