web-dev-qa-db-fra.com

Comment ré-ajouter un lecteur lorsque RAID est en mode dégradé?

Je gère un serveur Ubuntu non géré et en raison d'une question de performance récente et envoyé une demande au fournisseur uniquement pour recevoir la réponse suivante:

"Cher client,

comme demandé, nous avons vérifié vos lecteurs. Les deux lecteurs passent un test sans erreur et ne montrent aucune valeur critique ici. Nous avons remarqué que le raid est dégagé l'état de dégradation afin que vous ajoutez de ré-ajouter le lecteur au tableau ici:

-----------------%<-----------------
Personalities : [raid1]
md3 : active raid1 sda4[0]
      1839089920 blocks super 1.2 [2/1] [U_]

md2 : active raid1 sda3[0]
      1073610560 blocks super 1.2 [2/1] [U_]

md1 : active raid1 sda2[0]
      523968 blocks super 1.2 [2/1] [U_]

md0 : active raid1 sda1[0]
      16768896 blocks super 1.2 [2/1] [U_]

unused devices: <none>
-----------------%<-----------------"

Google dit que U_ indique un lecteur ayant échoué, ce qui semble être en contradiction avec ce que le support a dit. Comment puis-je procéder d'ici?

Quelque chose comme

mdadm /dev/mdX -r /dev/sdaY  
mdadm /dev/mdX -a /dev/sdaY  

Et si oui, qu'est-ce que X et Y pour mon cas? Si plus d'informations sont nécessaires sur ma configuration, laissez-moi savoir.

Modifier, plus d'informations ci-dessous:

root@Ubuntu-1204-precise-64-minimal /home # df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/md2       1008G   26G  931G   3% /
none            4.0K     0  4.0K   0% /sys/fs/cgroup
udev             16G  4.0K   16G   1% /dev
tmpfs           3.2G  504K  3.2G   1% /run
none            5.0M     0  5.0M   0% /run/lock
none             16G     0   16G   0% /run/shm
none            100M     0  100M   0% /run/user
/dev/md1        488M   66M  397M  15% /boot
/dev/md3        1.7T   31G  1.6T   2% /home

root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Nov  6 08:02:41 2013
     Raid Level : raid1
     Array Size : 16768896 (15.99 GiB 17.17 GB)
  Used Dev Size : 16768896 (15.99 GiB 17.17 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Dec 21 03:50:13 2016
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:0
           UUID : 872ad258:c42ccb36:e9e19c96:98b55ee9
         Events : 816844

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       0        0        1      removed

root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Wed Nov  6 08:02:41 2013
     Raid Level : raid1
     Array Size : 523968 (511.77 MiB 536.54 MB)
  Used Dev Size : 523968 (511.77 MiB 536.54 MB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Dec 21 07:30:55 2016
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:1
           UUID : 18cb39fc:9eaea61c:0074a6c2:661b5862
         Events : 387

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       0        0        1      removed

root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Wed Nov  6 08:02:42 2013
     Raid Level : raid1
     Array Size : 1073610560 (1023.87 GiB 1099.38 GB)
  Used Dev Size : 1073610560 (1023.87 GiB 1099.38 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Dec 21 07:58:52 2016
          State : active, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:2
           UUID : eb9be750:7ff778b4:31fd7ce9:9d86d191
         Events : 38799724

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       0        0        1      removed

root@Ubuntu-1204-precise-64-minimal /home # mdadm -D /dev/md3
/dev/md3:
        Version : 1.2
  Creation Time : Wed Nov  6 08:02:42 2013
     Raid Level : raid1
     Array Size : 1839089920 (1753.89 GiB 1883.23 GB)
  Used Dev Size : 1839089920 (1753.89 GiB 1883.23 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Wed Dec 21 07:57:41 2016
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : rescue:3
           UUID : c9b748ef:332d3bf9:5fa8fef1:5b433b0a
         Events : 7429895

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       0        0        1      removed
9
captain lizard

Ajout d'un membre RAID 1

Pour ajouter un membre RAID dans le tableau, utilisez:

mdadm <RAID Device> -a <Device to add into the array>

Par exemple:

$ mdadm /dev/md0 -a /dev/sdc1
mdadm: re-added /dev/sdc1

Si vous vérifiez à nouveau avec Mdadm -Detail, vous verrez que/dev/sdc1 est affiché comme "reconstruction":

Number   Major   Minor   RaidDevice State
   0       8       17        0      active sync   /dev/sdb1
   2       8       33        1      spare rebuilding   /dev/sdc1

Cela signifie que le membre nouvellement ajouté est synchronisé avec les données de l'autre membre; Si vous vérifiez maintenant PROC/MDSTAT, vous pouvez voir la progression de la synchronisation - en tant que pourcentage et graphique à barres:

$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sdc1[2] sdb1[0]
      976759936 blocks [2/1] [U_]
      [>....................]  recovery =  1.2% (12409024/976759936) finish=195.2min speed=82312K/sec

unused devices: <none>

Vérifiez que vous pouvez toujours voir vos fichiers sur le lecteur RAID après l'ajout du nouveau membre RAID:

$ ls /mnt/raid1
Music  lost+found  Images Films Misc

Source: http://www.lineuceum.com/server/srvraidtetest.php

9
Tolsadus

J'ai résolu mon propre problème. Je n'ai pas compris que MDX est des partitions et des SDA et SDB sont des disques physiques réels. Donc, SDB manquait, alors je devais l'ajouter. J'ai exécuté les commandes suivantes:

sgdisk -R /dev/sdb /dev/sda
sgdisk -G /dev/sdb
mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb2
mdadm /dev/md2 -a /dev/sdb3
mdadm /dev/md3 -a /dev/sdb4

Après une journée de resynchrome (peut être observé avec)

cat /proc/mdstat

Ce que je vois aujourd'hui a l'air bien à nouveau:

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md3 : active raid1 sdb4[2] sda4[0]
      1839089920 blocks super 1.2 [2/2] [UU]

md1 : active raid1 sdb2[2] sda2[0]
      523968 blocks super 1.2 [2/2] [UU]

md2 : active raid1 sdb3[2] sda3[0]
      1073610560 blocks super 1.2 [2/2] [UU]

md0 : active raid1 sdb1[2] sda1[0]
      16768896 blocks super 1.2 [2/2] [UU]
1
captain lizard

Avant d'ajouter le lecteur comme suggéré par @tolsadus, c'est une bonne idée de vérifier la santé de votre lecteur en utilisant SmartMontools En exécutant des tests courts et longs:

Initialement, vous devez vous assurer que le disque dur prend en charge SMART et est activé:

smartctl -i /dev/sdb

test court:

smartctl -t short /dev/sdb

test long:

smartctl -l selftest /dev/sdb

0
Vikelidis Kostas