Un de nos QNAP NAS était tombé en alerte sur le disque, de sorte qu'ils travaillaient/étaient accessibles sur la baie. Et j'essaie de récupérer les DONNÉES lorsque le QNAP NAS ne démarre pas et ne répond pas avec/sans les disques.
J'ai démarré tous les disques durs en utilisant un disque live Ubuntu avec la commande mdadm. Je ne suis pas sûr de ce qui est arrivé au disque 1 car il montre HPFS/NTFS/exFAT sur la partition 3 d'un disque. De plus, les ID * qui supposent des numéros uniques sont maintenant indiqués par ** 0000: 0000 .... avec niveau du raid: inconn.
Vous trouverez ci-dessous quelques résultats utiles que j'ai rassemblés.
root@ubuntu:/home/ubuntu# fdisk -l | more
Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00009a4a
Device Boot Start End Blocks Id System
/dev/sda1 40 1060289 530125 83 Linux
/dev/sda2 1060296 2120579 530142 83 Linux
/dev/sda3 2120584 1952507969 975193693 7 HPFS/NTFS/exFAT
/dev/sda4 1952507976 1953503999 498012 83 Linux
Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000ac6cc
Device Boot Start End Blocks Id System
/dev/sdb1 40 1060289 530125 83 Linux
/dev/sdb2 1060296 2120579 530142 83 Linux
/dev/sdb3 2120584 1952507969 975193693 83 Linux
/dev/sdb4 1952507976 1953503999 498012 83 Linux
Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000b7ac5
Device Boot Start End Blocks Id System
/dev/sdc1 40 1060289 530125 83 Linux
/dev/sdc2 1060296 2120579 530142 83 Linux
/dev/sdc3 2120584 1952507969 975193693 83 Linux
/dev/sdc4 1952507976 1953503999 498012 83 Linux
Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000b7ac5
Device Boot Start End Blocks Id System
/dev/sdc1 40 1060289 530125 83 Linux
/dev/sdc2 1060296 2120579 530142 83 Linux
/dev/sdc3 2120584 1952507969 975193693 83 Linux
/dev/sdc4 1952507976 1953503999 498012 83 Linux
Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x000d2a20
Device Boot Start End Blocks Id System
/dev/sdd1 40 1060289 530125 83 Linux
/dev/sdd2 1060296 2120579 530142 83 Linux
/dev/sdd3 2120584 1952507969 975193693 83 Linux
/dev/sdd4 1952507976 1953503999 498012 83 Linux
root@ubuntu:/home/ubuntu# mdadm -E /dev/sd[abcd]3
/dev/sda3:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Fri Sep 25 07:04:44 2015
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 3
Preferred Minor : 0
Update Time : Fri Sep 25 07:19:04 2015
State : active
Active Devices : 0
Working Devices : 3
Failed Devices : 0
Spare Devices : 3
Checksum : 8f463afd - correct
Events : 1
Number Major Minor RaidDevice State
this 2 8 3 2 spare /dev/sda3
0 0 8 35 0 spare /dev/sdc3
1 1 8 19 1 spare /dev/sdb3
2 2 8 3 2 spare /dev/sda3
/dev/sdb3:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Fri Sep 25 07:04:44 2015
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 3
Preferred Minor : 0
Update Time : Fri Sep 25 07:19:04 2015
State : active
Active Devices : 0
Working Devices : 3
Failed Devices : 0
Spare Devices : 3
Checksum : 8f463b19 - correct
Events : 1
Number Major Minor RaidDevice State
this 0 8 35 0 spare /dev/sdc3
0 0 8 35 0 spare /dev/sdc3
1 1 8 19 1 spare /dev/sdb3
2 2 8 3 2 spare /dev/sda3
/dev/sdc3:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Fri Sep 25 07:04:44 2015
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 3
Preferred Minor : 0
Update Time : Fri Sep 25 07:19:04 2015
State : active
Active Devices : 0
Working Devices : 3
Failed Devices : 0
Spare Devices : 3
Checksum : 8f463b0b - correct
Events : 1
Number Major Minor RaidDevice State
this 1 8 19 1 spare /dev/sdb3
0 0 8 35 0 spare /dev/sdc3
1 1 8 19 1 spare /dev/sdb3
2 2 8 3 2 spare /dev/sda3
/dev/sdd3:
Magic : a92b4efc
Version : 0.90.00
UUID : 00000000:00000000:00000000:00000000
Creation Time : Fri Sep 25 09:28:22 2015
Raid Level : -unknown-
Raid Devices : 0
Total Devices : 1
Preferred Minor : 0
Update Time : Fri Sep 25 09:31:03 2015
State : active
Active Devices : 0
Working Devices : 1
Failed Devices : 0
Spare Devices : 1
Checksum : 8f467b40 - correct
Events : 1
Number Major Minor RaidDevice State
this 0 8 3 0 spare /dev/sda3
0 0 8 3 0 spare /dev/sda3
root@ubuntu:/home/ubuntu# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md4 UUID=a5ef83a2:3df739b9:7e77f235:9827a98f
ARRAY /dev/md0 UUID=00000000:00000000:00000000:00000000
spares=3
ARRAY /dev/md9 UUID=c39aa918:f8de04d3:bb375993:177a40db
ARRAY /dev/md4 UUID=bb500a60:f1f7edde:07b598b5:09c70531
spares=1
ARRAY /dev/md0 UUID=00000000:00000000:00000000:00000000
spares=1
ARRAY /dev/md13 UUID=62a22532:1a265501:07a38901:1b2b353e
# This file was auto-generated on Sat, 26 Sep 2015 05:23:53 +0000
# by mkconf $Id$
root@ubuntu:/home/ubuntu# cat /proc/mdstat
Personalities :
unused devices: <none>
Quelqu'un peut-il indiquer ce que j'ai mal fait ici ou est-ce que quelque chose me manque?
Je suis vraiment coincé avec cela et si quelqu'un pouvait aider à récupérer des données en retirant le RAID.
Eh bien, je ne veux pas laisser cette question ouverte pour toujours. Donc, je poste une réponse pour clore ceci.
C’était complètement foutu par un de mes collègues et c’était presque arraché au moment où j’avais pris ça. En raison de certaines applications de récupération utilisées sans savoir que les disques sont en réalité sur une matrice RAID, il avait totalement perdu ses identifiants et ses parités. Ceci a été confirmé par les techniciens QNAP lorsqu’ils ont pris une session de suppression.
Cependant, je n'ai pu voir que les données relatives à QNAP, car elles se trouvaient dans une partition différente des lecteurs. J'ai pu combiner les matrices RAID et monter les données.
Le résultat final était de reconstruire en utilisant mdadm avec --create
, ce qui pourrait m'aider ou ne pas me laisser le choix. Cependant, je n'ai pas réussi sur ce qui prouve bien que les tableaux sont perdus et que les disques sont partis.
Pas d'autre choix que de supporter la douleur. Ici je ferme mon fil.
Une recherche complète et une commande que j'avais utilisées peuvent être trouvées dans "Réparation d'un QNAP RAID5 cassé en utilisant mdmadm sur Ubuntu 12.04" . Espérons que quelqu'un trouvera un indice ou deux s'il rencontre une telle situation.