J'avais créé deux partitions de disque dur de 2 To(/dev/sdb1
et /dev/sdc1
) dans un RAID 1array appelé /dev/md0
à l'aide de mdadm
sur Ubuntu 12.04 LTS Precise Pangolin.
La commande Sudo mdadm --detail /dev/md0
permet d'indiquer les deux lecteurs comme sync active .
Ensuite, pour les tests, j'ai échoué à /dev/sdb1
, je l'ai supprimé, puis ajouté à nouveau avec la commande Sudo mdadm /dev/md0 --add /dev/sdb1
watch cat /proc/mdstat
montrait une barre de progression de la reconstruction de la matrice, mais je ne passais pas des heures à la regarder, donc je supposais que le logiciel savait ce qu'il faisait.
Lorsque la barre de progression ne s'affiche plus, cat /proc/mdstat
s'affiche:
md0 : active raid1 sdb1[2](S) sdc1[1]
1953511288 blocks super 1.2 [2/1] [U_]
Et Sudo mdadm --detail /dev/md0
montre:
/dev/md0:
Version : 1.2
Creation Time : Sun May 27 11:26:05 2012
Raid Level : raid1
Array Size : 1953511288 (1863.01 GiB 2000.40 GB)
Used Dev Size : 1953511288 (1863.01 GiB 2000.40 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon May 28 11:16:49 2012
State : clean, degraded
Active Devices : 1
Working Devices : 2
Failed Devices : 0
Spare Devices : 1
Name : Deltique:0 (local to Host Deltique)
UUID : 49733c26:dd5f67b5:13741fb7:c568bd04
Events : 32365
Number Major Minor RaidDevice State
1 8 33 0 active sync /dev/sdc1
1 0 0 1 removed
2 8 17 - spare /dev/sdb1
On m'a dit que mdadm remplace automatiquement les disques supprimés par des disques de secours, mais /dev/sdb1
n'est pas déplacé dans la position attendue, RaidDevice 1
.
UPDATE (30 mai 2012):Un test de lecture-écriture badblocks
destructif de la totalité du /dev/sdb
n'a généré aucune erreur comme prévu; les deux disques durs sont nouveaux.
A la dernière édition, j'ai assemblé le tableau avec cette commande:
Sudo mdadm --assemble --force --no-degraded /dev/md0 /dev/sdb1 /dev/sdc1
La sortie était:
mdadm: /dev/md0 has been started with 1 drive (out of 2) and 1 rebuilding.
La reconstruction semble se dérouler normalement:
md0 : active raid1 sdc1[1] sdb1[2]
1953511288 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.6% (13261504/1953511288) finish=2299.7min speed=14060K/sec
unused devices: <none>
J'attends maintenant cette reconstruction, mais je m'attends à ce que /dev/sdb1
devienne un disque de secours, tout comme les cinq ou six fois que j'ai déjà essayé de reconstruire.
UPDATE (31 mai 2012):Ouais, c'est encore une réserve. Pouah!
UPDATE (01 juin 2012):J'essaie la commande suggérée par Adrian Kelly :
Sudo mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdc1
En attente de la reconstruction maintenant ...
UPDATE (02 juin 2012):Non, encore en réserve ...
UPDATE (04 juin 2012):/PB a soulevé une préoccupation que j'ai négligée: peut-être que /dev/sdc1
rencontre des erreurs d'E/S . Je n'avais pas pris la peine de vérifier /dev/sdc1
car il semblait fonctionner parfaitement et il était tout neuf, mais les erreurs d'E/S vers la fin du lecteur sont une possibilité rationnelle.
J'ai acheté ces disques durs en vente, il n'est donc pas surprenant que l'un d'entre eux soit déjà défaillant. De plus, aucun d’eux n’a de support pour S.M.A.R.T. , il n’est donc pas étonnant qu’ils soient si bon marché ...
Voici la procédure de récupération de données que je viens de créer et que je suis la suivante:
Sudo mdadm /dev/md0 --fail /dev/sdb1
afin que je puisse sortir /dev/sdb1
.Sudo mdadm /dev/md0 --remove /dev/sdb1
pour supprimer /dev/sdb1
du tableau./dev/sdc1
est monté à /media/DtkBk
/dev/sdb1
en tant que ext4./dev/sdb1
sur /media/DtkBkTemp
.cd /media
pour travailler dans cette zone.Sudo chown deltik DtkBkTemp
pour me donner (nom d'utilisateur deltik
) des droits sur la partition.Sudo rsync -avzHXShP DtkBk/* DtkBkTemp
UPDATE (6 juin 2012):J'ai effectué un test badblocks
en mode écriture destructive de /dev/sdc
, en respectant les procédures suivantes:
Sudo umount /media/DtkBk
pour permettre le démantèlement du tableau.Sudo mdadm --stop /dev/md0
pour arrêter le tableau.Sudo badblocks -w -p 1 /dev/sdc -s -v
pour effacer le disque dur suspect et, dans le même temps, vérifier les erreurs d’E/S. S'il y a des erreurs d'E/S, ce n'est pas un bon signe. Si tout va bien, je peux obtenir un remboursement ...J'ai maintenant confirmé que il n'y a aucun problème d'entrée/sortie sur le disque dur .
De toutes ces recherches, mes deux questions initiales sont toujours valables.
Mes questions sont:
Cela fait simplement insérer le lecteur dans le tableau sans en faire quoi que ce soit, c’est-à-dire qu’il fait partie du tableau mais n’est pas actif dans celui-ci. Par défaut, cela en fait une réserve:
Sudo mdadm /dev/md0 --add /dev/sdb1
Si vous avez un disque de rechange, vous pouvez le faire croître en forçant le nombre de lecteurs actifs du groupe à augmenter. Si 3 lecteurs et 2 devraient être actifs , vous devez augmenter le nombre de lecteurs actifs à 3.
mdadm --grow /dev/md0 --raid-devices=3
Le pilote RAID RAID remarquera que vous êtes "en court" lecteur, puis recherchera un disque de rechange. Trouver le disque de secours, il l’intégrera dans le tableau en tant que disque actif. Ouvrez un terminal disponible et laissez-y cette ligne de commande plutôt grossière pour garder un œil sur la progression de la resynchronisation. Assurez-vous de le taper sur une seule ligne ou d'utiliser le caractère de saut de ligne (\). Une fois la reconstruction terminée, tapez simplement Ctrl-C dans le terminal.
while true; do sleep 60; clear; Sudo mdadm --detail /dev/md0; echo; cat /proc/mdstat; done
Votre baie aura maintenant deux disques actifs synchronisés, mais comme il n'y a pas 3 disques, il ne sera pas propre à 100%. Supprimez le lecteur en panne, puis redimensionnez la matrice. Notez que le drapeau --grow
est un peu impropre. Cela peut vouloir dire grandir ou diminuer :
Sudo mdadm /dev/md0 --fail /dev/{failed drive}
Sudo mdadm /dev/md0 --remove /dev/{failed drive}
Sudo mdadm --grow /dev/md0 --raid-devices=2
En ce qui concerne les erreurs, un problème de liaison avec le lecteur (c'est-à-dire le port, le câble ou le connecteur du lecteur PATA/SATA) ne suffit pas pour déclencher le basculement d'un disque de secours, car le noyau utilisera généralement l'autre "bon". lecteur alors qu'il réinitialise le lien vers le "mauvais" lecteur. Je le sais parce que je gère un groupe de 3 disques, 2 disques chauds, 1 disque de secours et l’un des disques récemment décidé de graver un peu dans les journaux. Lorsque j’ai testé tous les disques de la matrice, ils ont tous passé la version "longue" du test SMART. Ainsi, les plateaux, les composants mécaniques ou le contrôleur intégré ne posent pas problème. un câble de liaison floconneux ou un mauvais port SATA. C'est peut-être ce que vous voyez. Essayez de changer le lecteur sur un autre port de la carte mère ou utilisez un autre câble pour voir s’il s’améliore.
Un suivi: j'ai terminé l'extension du miroir sur 3 disques, échoué, enlevé le disque flaky de la matrice md, échangé à chaud le câble contre un nouveau (la carte mère le permet) et rajouté le disque. Lors de la ré-ajout, il a immédiatement commencé une resynchronisation du lecteur. Jusqu'ici, aucune erreur n'a été signalée dans le journal , malgré l'utilisation intensive du lecteur. Donc, oui, les câbles de lecteur peuvent devenir feuilletés.
J'ai eu exactement le même problème et, dans mon cas, j'ai découvert que le disque RAID actif avait des erreurs de lecture lors de la synchronisation. Par conséquent, le nouveau disque a été synchronisé avec succès et a donc été marqué comme étant en réserve.
Vous voudrez peut-être vérifier votre/var/log/messages et les autres journaux du système à la recherche d'erreurs. En outre, il peut également être utile de vérifier le statut de votre disque SMART:
1) Exécutez le test court:
"smartctl -t short/dev/sda"
2) Affichez les résultats du test:
"smartctl -l selftest/dev/sda"
Dans mon cas, cela renvoyait quelque chose comme ceci:
=== DEBUT DE LIRE SMART SECTION DE DONNEES ===
Numéro de révision 1 de la structure du journal d'auto-test SMART
Num Test_Description Statut Durée de vie restante (heures) LBA_of_first_error
1 Hors ligne étendu Terminé: échec de lecture 90% 7564 27134728
2 Hors ligne courte Terminé: échec de lecture 90% 7467 1408449701
J'ai dû démarrer une distribution en direct et copier manuellement les données du disque défectueux sur le nouveau disque (actuellement "en réserve").
J'ai eu exactement le même problème et j'ai toujours pensé que mon deuxième disque, que je voulais ré-ajouter au tableau, contenait des erreurs. Mais c'était mon disque d'origine avait lu des erreurs.
Vous pouvez le vérifier avec smartctl -t short /dev/sdX
et voir les résultats quelques minutes plus tard avec smartctl -l selftest /dev/sdX
. Pour moi, cela ressemblait à ceci:
=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short offline Completed: read failure 20% 25151 734566647
J'ai essayé de les réparer avec ce manuel . C'était amusant :-). Je sais que vous avez vérifié les erreurs des deux disques, mais je pense que votre problème est que le disque qui se trouve toujours dans le tableau md comporte des erreurs de lecture. L'ajout d'un deuxième disque échoue.
Mettre à jour
Vous devriez en plus exécuter un smartctl -a /dev/sdX
Si vous voyez Current_Pending_Sector> 0 quelque chose ne va pas
197 Current_Pending_Sector 0x0012 098 098 000 Old_age Always - 69
Pour moi, c’est vraiment le problème que j’ai retiré un disque du raid juste pour le tester et que la resynchronisation ne pouvait pas être effectuée à cause d’échecs de lecture. La synchronisation a échoué à mi-chemin. Quand j'ai vérifié mon disque qui était toujours dans le tableau RAID, smartctl a signalé des problèmes.
Je pouvais les corriger avec le manuel ci-dessus et j'ai vu le nombre de secteurs en attente réduit. Mais il y en avait beaucoup et la procédure est longue et fastidieuse, j'ai donc utilisé ma sauvegarde et restauré les données sur un autre serveur.
Comme vous n’avez pas eu l’occasion d’utiliser SMART, je suppose que votre auto-test n’a pas révélé ces secteurs défectueux.
Pour moi, c’est une leçon apprise: vérifiez vos disques avant d’en retirer un de votre tableau.
J'ai eu un problème similaire et je l'ai corrigé en augmentant le nombre de disques RAID de 1 à 2.
mdadm --grow --raid-devices=2 /dev/md1
UPDATE (24 mai 2015): Après trois ans, j'ai recherché la véritable cause de la dégradation de la matrice RAID 1.
tl; dr: L'un des lecteurs était défectueux et je ne l'ai pas remarqué car je n'avais effectué qu'un test de pleine surface sur le bon lecteur.
Il y a trois ans, je n'ai pas pensé à consulter les journaux relatifs aux problèmes d'E/S. Si j'avais voulu vérifier /var/log/syslog
, j'aurais déjà vu quelque chose comme ceci quand mdadm
a abandonné la reconstruction du tableau:
May 24 14:08:32 node51 kernel: [51887.853786] sd 8:0:0:0: [sdi] Unhandled sense code
May 24 14:08:32 node51 kernel: [51887.853794] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853798] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
May 24 14:08:32 node51 kernel: [51887.853802] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853805] Sense Key : Medium Error [current]
May 24 14:08:32 node51 kernel: [51887.853812] sd 8:0:0:0: [sdi]
May 24 14:08:32 node51 kernel: [51887.853815] Add. Sense: Unrecovered read error
May 24 14:08:32 node51 kernel: [51887.853819] sd 8:0:0:0: [sdi] CDB:
May 24 14:08:32 node51 kernel: [51887.853822] Read(10): 28 00 00 1b 6e 00 00 00 01 00
May 24 14:08:32 node51 kernel: [51887.853836] end_request: critical medium error, dev sdi, sector 14381056
May 24 14:08:32 node51 kernel: [51887.853849] Buffer I/O error on device sdi, logical block 1797632
Pour obtenir cette sortie dans le journal, j'ai recherché la première LBA problématique (14381058, dans mon cas) avec cette commande:
root@node51 [~]# dd if=/dev/sdi of=/dev/zero bs=512 count=1 skip=14381058
dd: error reading ‘/dev/sdi’: Input/output error
0+0 records in
0+0 records out
0 bytes (0 B) copied, 7.49287 s, 0.0 kB/s
Pas étonnant que md
ait abandonné! Il ne peut pas reconstruire un tableau à partir d'un mauvais disque.
La nouvelle technologie (meilleure compatibilité matérielle smartmontools
?) M’a permis d’obtenir des informations SMART hors du lecteur, y compris les cinq dernières erreurs (sur 1393 erreurs jusqu’à présent). ):
root@node51 [~]# smartctl -a /dev/sdi
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-43-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Hitachi Deskstar 5K3000
Device Model: Hitachi HDS5C3020ALA632
Serial Number: ML2220FA040K9E
LU WWN Device Id: 5 000cca 36ac1d394
Firmware Version: ML6OA800
User Capacity: 2,000,398,934,016 bytes [2.00 TB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 5940 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Sun May 24 14:13:35 2015 CDT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: PASSED
Warning: This result is based on an Attribute check.
General SMART Values:
Offline data collection status: (0x84) Offline data collection activity
was suspended by an interrupting command from Host.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 0) The previous self-test routine completed
without error or no self-test has ever
been run.
Total time to complete Offline
data collection: (21438) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 358) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000b 100 100 016 Pre-fail Always - 0
2 Throughput_Performance 0x0005 136 136 054 Pre-fail Offline - 93
3 Spin_Up_Time 0x0007 172 172 024 Pre-fail Always - 277 (Average 362)
4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 174
5 Reallocated_Sector_Ct 0x0033 100 100 005 Pre-fail Always - 8
7 Seek_Error_Rate 0x000b 100 100 067 Pre-fail Always - 0
8 Seek_Time_Performance 0x0005 146 146 020 Pre-fail Offline - 29
9 Power_On_Hours 0x0012 097 097 000 Old_age Always - 22419
10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 161
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 900
193 Load_Cycle_Count 0x0012 100 100 000 Old_age Always - 900
194 Temperature_Celsius 0x0002 127 127 000 Old_age Always - 47 (Min/Max 19/60)
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always - 8
197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 30
198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 2
SMART Error Log Version: 1
ATA Error Count: 1393 (device log contains only the most recent five errors)
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 1393 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 06 02 70 db 00 Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
25 00 08 00 70 db 40 00 1d+03:59:34.096 READ DMA EXT
25 00 08 00 70 db 40 00 1d+03:59:30.334 READ DMA EXT
b0 d5 01 09 4f c2 00 00 1d+03:57:59.057 SMART READ LOG
b0 d5 01 06 4f c2 00 00 1d+03:57:58.766 SMART READ LOG
b0 d5 01 01 4f c2 00 00 1d+03:57:58.476 SMART READ LOG
Error 1392 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 06 02 70 db 00 Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
25 00 08 00 70 db 40 00 1d+03:59:30.334 READ DMA EXT
b0 d5 01 09 4f c2 00 00 1d+03:57:59.057 SMART READ LOG
b0 d5 01 06 4f c2 00 00 1d+03:57:58.766 SMART READ LOG
b0 d5 01 01 4f c2 00 00 1d+03:57:58.476 SMART READ LOG
b0 d5 01 00 4f c2 00 00 1d+03:57:58.475 SMART READ LOG
Error 1391 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 06 02 70 db 00 Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
25 00 08 00 70 db 40 00 1d+03:56:28.228 READ DMA EXT
25 00 08 00 70 db 40 00 1d+03:56:24.549 READ DMA EXT
25 00 08 00 70 db 40 00 1d+03:56:06.711 READ DMA EXT
25 00 10 f0 71 db 40 00 1d+03:56:06.711 READ DMA EXT
25 00 f0 00 71 db 40 00 1d+03:56:06.710 READ DMA EXT
Error 1390 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 06 02 70 db 00 Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
25 00 08 00 70 db 40 00 1d+03:56:24.549 READ DMA EXT
25 00 08 00 70 db 40 00 1d+03:56:06.711 READ DMA EXT
25 00 10 f0 71 db 40 00 1d+03:56:06.711 READ DMA EXT
25 00 f0 00 71 db 40 00 1d+03:56:06.710 READ DMA EXT
25 00 10 f0 70 db 40 00 1d+03:56:06.687 READ DMA EXT
Error 1389 occurred at disk power-on lifetime: 22419 hours (934 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
40 51 06 02 70 db 00 Error: UNC 6 sectors at LBA = 0x00db7002 = 14381058
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
25 00 08 00 70 db 40 00 1d+03:56:06.711 READ DMA EXT
25 00 10 f0 71 db 40 00 1d+03:56:06.711 READ DMA EXT
25 00 f0 00 71 db 40 00 1d+03:56:06.710 READ DMA EXT
25 00 10 f0 70 db 40 00 1d+03:56:06.687 READ DMA EXT
25 00 f0 00 70 db 40 00 1d+03:56:03.026 READ DMA EXT
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed: read failure 90% 21249 14381058
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Ahh… ça le ferait.
Maintenant, j'ai résolu cette question en trois étapes faciles:
UPDATE (19 juillet 2015): Pour ceux qui sont curieux, le lecteur a finalement manqué de secteurs à remapper:
root@node51 [~]# smartctl -a /dev/sdg
smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.13.0-43-generic] (local build)
Copyright (C) 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Hitachi Deskstar 5K3000
Device Model: Hitachi HDS5C3020ALA632
Serial Number: ML2220FA040K9E
LU WWN Device Id: 5 000cca 36ac1d394
Firmware Version: ML6OA800
User Capacity: 2,000,398,934,016 bytes [2.00 TB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 5940 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS T13/1699-D revision 4
SATA Version is: SATA 2.6, 6.0 Gb/s (current: 3.0 Gb/s)
Local Time is: Sun Jul 19 14:00:33 2015 CDT
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
=== START OF READ SMART DATA SECTION ===
SMART STATUS RETURN: incomplete response, ATA output registers missing
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.
General SMART Values:
Offline data collection status: (0x85) Offline data collection activity
was aborted by an interrupting command from Host.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 117) The previous self-test completed having
the read element of the test failed.
Total time to complete Offline
data collection: (21438) seconds.
Offline data collection
capabilities: (0x5b) SMART execute Offline immediate.
Auto Offline data collection on/off support.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
No Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: ( 358) minutes.
SCT capabilities: (0x003d) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000b 099 099 016 Pre-fail Always - 2
2 Throughput_Performance 0x0005 136 136 054 Pre-fail Offline - 93
3 Spin_Up_Time 0x0007 163 163 024 Pre-fail Always - 318 (Average 355)
4 Start_Stop_Count 0x0012 100 100 000 Old_age Always - 181
5 Reallocated_Sector_Ct 0x0033 001 001 005 Pre-fail Always FAILING_NOW 1978
7 Seek_Error_Rate 0x000b 086 086 067 Pre-fail Always - 1245192
8 Seek_Time_Performance 0x0005 146 146 020 Pre-fail Offline - 29
9 Power_On_Hours 0x0012 097 097 000 Old_age Always - 23763
10 Spin_Retry_Count 0x0013 100 100 060 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 167
192 Power-Off_Retract_Count 0x0032 092 092 000 Old_age Always - 10251
193 Load_Cycle_Count 0x0012 092 092 000 Old_age Always - 10251
194 Temperature_Celsius 0x0002 111 111 000 Old_age Always - 54 (Min/Max 19/63)
196 Reallocated_Event_Count 0x0032 001 001 000 Old_age Always - 2927
197 Current_Pending_Sector 0x0022 100 100 000 Old_age Always - 33
198 Offline_Uncorrectable 0x0008 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x000a 200 200 000 Old_age Always - 2
SMART Error Log Version: 1
ATA Error Count: 2240 (device log contains only the most recent five errors)
CR = Command Register [HEX]
FR = Features Register [HEX]
SC = Sector Count Register [HEX]
SN = Sector Number Register [HEX]
CL = Cylinder Low Register [HEX]
CH = Cylinder High Register [HEX]
DH = Device/Head Register [HEX]
DC = Device Command Register [HEX]
ER = Error register [HEX]
ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.
Error 2240 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
10 51 f0 18 0f 2f 00 Error: IDNF 240 sectors at LBA = 0x002f0f18 = 3084056
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
35 00 f0 18 0f 2f 40 00 00:25:01.942 WRITE DMA EXT
35 00 f0 28 0e 2f 40 00 00:25:01.168 WRITE DMA EXT
35 00 f0 38 0d 2f 40 00 00:25:01.157 WRITE DMA EXT
35 00 f0 48 0c 2f 40 00 00:25:01.147 WRITE DMA EXT
35 00 f0 58 0b 2f 40 00 00:25:01.136 WRITE DMA EXT
Error 2239 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
10 51 5a 4e f7 2e 00 Error: IDNF 90 sectors at LBA = 0x002ef74e = 3077966
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
35 00 f0 b8 f6 2e 40 00 00:24:57.967 WRITE DMA EXT
35 00 f0 c8 f5 2e 40 00 00:24:57.956 WRITE DMA EXT
35 00 f0 d8 f4 2e 40 00 00:24:57.945 WRITE DMA EXT
35 00 f0 e8 f3 2e 40 00 00:24:57.934 WRITE DMA EXT
35 00 f0 f8 f2 2e 40 00 00:24:57.924 WRITE DMA EXT
Error 2238 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
10 51 40 a8 c6 2e 00 Error: IDNF 64 sectors at LBA = 0x002ec6a8 = 3065512
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
35 00 f0 f8 c5 2e 40 00 00:24:49.444 WRITE DMA EXT
35 00 f0 08 c5 2e 40 00 00:24:49.433 WRITE DMA EXT
35 00 f0 18 c4 2e 40 00 00:24:49.422 WRITE DMA EXT
35 00 f0 28 c3 2e 40 00 00:24:49.412 WRITE DMA EXT
35 00 f0 38 c2 2e 40 00 00:24:49.401 WRITE DMA EXT
Error 2237 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
10 51 ea be ba 2e 00 Error: IDNF 234 sectors at LBA = 0x002ebabe = 3062462
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
35 00 f0 b8 ba 2e 40 00 00:24:39.263 WRITE DMA EXT
35 00 f0 c8 b9 2e 40 00 00:24:38.885 WRITE DMA EXT
35 00 f0 d8 b8 2e 40 00 00:24:38.874 WRITE DMA EXT
35 00 f0 e8 b7 2e 40 00 00:24:38.862 WRITE DMA EXT
35 00 f0 f8 b6 2e 40 00 00:24:38.852 WRITE DMA EXT
Error 2236 occurred at disk power-on lifetime: 23763 hours (990 days + 3 hours)
When the command that caused the error occurred, the device was active or idle.
After command completion occurred, registers were:
ER ST SC SN CL CH DH
-- -- -- -- -- -- --
10 51 86 c2 2a 2e 00 Error: IDNF 134 sectors at LBA = 0x002e2ac2 = 3025602
Commands leading to the command that caused the error were:
CR FR SC SN CL CH DH DC Powered_Up_Time Command/Feature_Name
-- -- -- -- -- -- -- -- ---------------- --------------------
35 00 f0 58 2a 2e 40 00 00:24:25.605 WRITE DMA EXT
35 00 f0 68 29 2e 40 00 00:24:25.594 WRITE DMA EXT
35 00 f0 78 28 2e 40 00 00:24:25.583 WRITE DMA EXT
35 00 f0 88 27 2e 40 00 00:24:25.572 WRITE DMA EXT
35 00 f0 98 26 2e 40 00 00:24:25.561 WRITE DMA EXT
SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Short captive Completed: read failure 50% 23763 869280
# 2 Extended offline Completed without error 00% 22451 -
# 3 Short offline Completed without error 00% 22439 -
# 4 Extended offline Completed: read failure 90% 21249 14381058
1 of 2 failed self-tests are outdated by newer successful extended offline self-test # 2
SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
Dans mon cas, c'était aussi un mauvais disque source. Bien que l’heure apparaisse comme si ce n’était pas le cas (le fichier/proc/mdstat a dépassé normalement 99,9% - mais il a en fait échoué à 99,97%, ce qui indique que la synchronisation normale se terminerait). Vous devez donc vérifier la sortie de dmesg(1)
- elle vous indiquera s’il ya des erreurs de lecture.
Vous pouvez voir les détails de mon cas dans bogue Debian n ° 767243 . J'ai finalement réussi à terminer la synchronisation en écrasant par la force quelques secteurs défectueux sur le disque source (inutilisés heureusement dans mon cas, sinon des données auraient été perdues)
Je recommande de supprimer sdc1, de mettre à zéro le super bloc sur sdc1 puis de le rajouter.
mdadm /dev/md0 -r /dev/sdc1
mdadm --zero-superblock /dev/sdc1
mdadm /dev/md0 -a /dev/sdc1
Vous ne savez pas si cela fonctionnera puisque vous avez déjà --add
ed le disque mais --re-add
semble être l'option dont vous avez besoin.
Ou peut-être avez-vous besoin de --grow
le périphérique sur 2 disques actifs, mdadm --grow -n 2
? Pas testé donc soyez prudent.
Tu pourrais essayer
Sudo mdadm --assemble --update=resync /dev/md0 /dev/sdb1 /dev/sdc1
mettre à jour les lecteurs et les resynchroniser.