J'ai un NAS sur Ubuntu Server avec 4 disques durs de 2 To en RAID 5. Il y a quelques semaines, l'un des disques durs est mort, mais mon RAID fonctionnait, bien que dégradé. Heureusement, il était encore sous garantie et on m'a envoyé un nouveau disque dur que j'ai installé aujourd'hui. Toutefois, lors de la tentative d’ajout du nouveau disque dur au RAID, il n’était pas en cours de reconstruction. J'ai donc débranché le disque dur et redémarré la machine. Cependant, j'ai accidentellement mis en échec l'un de mes AUTRES disques durs du RAID et je l'ai supprimé à l'aide de mdadm.
Maintenant, il est dit que mon RAID a deux disques durs retirés. J'ai toujours mon troisième disque dur avec toutes mes données intactes, mais je ne sais pas comment le rajouter dans la matrice RAID, il est donc de nouveau dans un bon état (bien que dégradé), donc je peux continuer à ajouter le 4ème disque dur et reconstruire le tableau. Est-il possible de simplement laisser Ubuntu se rendre compte que le troisième disque dur a mes données et les faire reconnaître à nouveau comme faisant partie de la matrice?
Quand j'essaye de courir:
Sudo mdadm --manage /dev/md127 --re-add /dev/sdd1
Ça dit:
mdadm: --re-add for /dev/sdd1 to dev/md127 is not possible
S'il vous plaît, toute aide que n'importe qui peut donner serait beaucoup, très appréciée.
Vous devrez peut-être simplement faire un --add
et non un --re-add
. Si vous lisez la page de manuel relative à --re-add
, il est question de ré-ajouter le périphérique si le nombre d'événements est proche du reste des périphériques. vous pouvez utiliser --examine
pour le savoir.
$ mdadm --examine /dev/sd[a-z]1 | egrep 'Event|/dev/sd'
mdadm: No md superblock detected on /dev/sda1.
/dev/sdb1:
Events : 992655
/dev/sdd1:
Events : 992655
/dev/sde1:
Events : 992655
/dev/sdf1:
Events : 992655
/dev/sdg1:
Events : 158
/dev/sdh1:
Events : 992655
/dev/sdj1:
Events : 992655
comme vous pouvez le constater, mon périphérique /dev/sdh1
n'est plus dans le tableau depuis un certain temps et --re-add
ne fonctionnera pas et vous devrez effectuer une --add et une récupération du tableau.
vous pouvez utiliser mdadm --detail /dev/md126
pour voir ce qui se passe, n’est peut-être pas une mauvaise idée de l’exécuter avant de faire quoi que ce soit, après tout, ce sont vos données!
$ mdadm --detail /dev/md126
/dev/md126:
Version : 1.2
Creation Time : Tue Jun 24 05:17:47 2014
Raid Level : raid6
Array Size : 14650158080 (13971.48 GiB 15001.76 GB)
Used Dev Size : 2930031616 (2794.30 GiB 3000.35 GB)
Raid Devices : 7
Total Devices : 7
Persistence : Superblock is persistent
Update Time : Thu Nov 6 05:47:56 2014
State : clean, degraded, recovering
Active Devices : 6
Working Devices : 7
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 0% complete
Name : omegacentauri:0 (local to Host omegacentauri)
UUID : 9fdcacc0:14f7ef3c:a6931b47:bfb8b4a1
Events : 992656
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 49 1 active sync /dev/sdd1
2 8 65 2 active sync /dev/sde1
3 8 81 3 active sync /dev/sdf1
4 8 97 4 active sync /dev/sdg1
5 8 145 5 active sync /dev/sdj1
7 8 113 6 spare rebuilding /dev/sdh1
ou vous pouvez aussi utiliser ceci:
$ cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md126 : active raid6 sdh1[7] sdg1[4] sdj1[5] sdf1[3] sdd1[1] sde1[2] sdb1[0]
14650158080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUUU_]
[>....................] recovery = 0.9% (26657536/2930031616) finish=1162.5min speed=41624K/sec
md127 : active (auto-read-only) raid1 sdi[1] sdc[0]
1465007360 blocks super 1.2 [2/2] [UU]
Je ne suis responsable d'aucune de vos données perdues.