Problème RAID 5
Le problème est que je ne sais pas comment activer un RAID inactif sans que mes efforts soient irréversibles. Essayez de réassembler de manière non destructive. Est-ce que c'est possible?
Transfert de RAID 5 vers un nouvel ordinateur en cas de défaillance d'un processeur.
Contexte
UBUNTU 16.04 l’exécution du logiciel RAID 5 du logiciel mdadm a échoué et redémarre avec Appuyez sur ctrl D pour continuer.
Je pense que mon RAID RAID semble être intact. Voir les impressions ci-dessous. Je souhaite déplacer mon RAID 5 d'un ordinateur à un autre au cas où le problème proviendrait de matériel.
Le problème avec la partition de démarrage UBUNTU peut simplement être dû au manque d’espace sur la partition de démarrage. La partition de démarrage n’était que de 10 Go et bien que l’installation d’Ubuntu fût à l’origine une installation minimale sur un serveur, je l’ai développée pour pouvoir également exécuter le bureau. La 10G n'a peut-être pas suffi, mais a fonctionné comme ça pendant 2 mois. Je voulais juste l'interface graphique.
De plus, j'ai lu récemment que les partitions RAID 5 ne devraient pas dépasser 1,5 T sur chaque disque. Je ne le savais pas à l'époque et cela dure depuis environ 6 mois, bien que, récemment, il ait pu dépasser cette limite. Il fonctionne à environ 6T maintenant.
Mon plan est de déplacer le RAID 5 sur une nouvelle machine avec une nouvelle installation d’Ubuntu 16 sur un nouveau disque "sde" et de remonter le RAID sur le nouveau système.
Questions
Comment déplacer le RAID 5 vers un nouvel ordinateur? Si UBUNTU échouait lors du démarrage, je devrais pouvoir assembler le RAID sur un nouvel ordinateur.
"Assemble" écrase-t-il les partitions RAID? Sera-ce irréversible?
Si le RAID manque d’espace, on peut s’attendre à ce qu’il échoue et non au démarrage UBUNTU.
Sinon, puis-je supprimer en toute sécurité tous les périphériques de ARRAY et monter en tant que partitions classiques normales pour lire mes données? Il y a environ 6 T de données réparties sur le RAID.
Rapports d'état
root@UbuntuServer17:~# cat /etc/fstab
# /etc/fstab: static file system information.
#
# fstab on WDD running as 5th disk sde
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point> <type> <options> <dump> <pass>
# / was on /dev/sda2 during installation
UUID=f37bd21c-9464-4763-b3e7-7f9f6f5154df / ext4 errors=remount-ro 0 1
# /boot/efi was on /dev/sda1 during installation
UUID=4993-9AE3 /boot/efi vfat umask=0077 0 1
# swap was on /dev/sda3 during installation
UUID=e3b9f5e9-5eb9-47e0-9288-68649263093c none swap sw 0 0
# Steve added - from RAID17 when it crashed
# / was on /dev/sda1 during installation on RAID17
#UUID=1672f12a-9cf2-488b-9c8f-a701f1bc985c / ext4 errors=remount-ro 0 1
#/dev/md0p1 /media/steve/RAID17 ext4 data=ordered,relatime,stripe=384,nodev,nosuid 0 0
#UUID=1672f12a-9cf2-488b-9c8f-a701f1bc985c / ext4 errors=remount-ro 0 1
#/dev/md0 /media/steve/RAID17 ext4 data=ordered,relatime,stripe=384,nodev,nosuid 0 0
root@UbuntuServer17:~# cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
# This file was auto-generated on Sun, 05 Feb 2017 20:34:00 +0200
# by mkconf $Id$
# Steve added - maybe should add uuid to fstab file to mount on WD at start - But no sure
# ARRAY /dev/md0 uuid=3b92382f:78784c2b:e7a07a35:c1afcf1d
ARRAY /dev/md0 uuid=32c91cbf:266a5d14:182f1b34:f92b1ebe
root@UbuntuServer17:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sda2[0](S) sdd1[4](S) sdb1[1](S) sdc1[2](S)
7803273216 blocks super 1.2
unused devices: <none>
root@UbuntuServer17:~# mdadm --examine --scan
ARRAY /dev/md/0 metadata=1.2 UUID=3b92382f:78784c2b:e7a07a35:c1afcf1d name=RAID17:0
root@UbuntuServer17:~#
root@UbuntuServer17:~# Sudo fdisk -l
Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x5120487a
Device Boot Start End Sectors Size Id Type
/dev/sda1 * 2048 20482047 20480000 9.8G 83 Linux
/dev/sda2 20514816 3907028991 3886514176 1.8T 83 Linux
/dev/sda3 20482048 20514815 32768 16M 82 Linux swap / Solaris
Partition table entries are not in disk order.
Disk /dev/sdb: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x000a439d
Device Boot Start End Sectors Size Id Type
/dev/sdb1 2048 3907028991 3907026944 1.8T 83 Linux
Disk /dev/sdc: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x00044e92
Device Boot Start End Sectors Size Id Type
/dev/sdc1 2048 3907028991 3907026944 1.8T 83 Linux
Disk /dev/sdd: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0xc7703e92
Device Boot Start End Sectors Size Id Type
/dev/sdd1 2048 3907028991 3907026944 1.8T 83 Linux
Disk /dev/sde: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: AEC0A022-299A-4283-9F5F-2FCC4CC4609E
Device Start End Sectors Size Type
/dev/sde1 2048 1050623 1048576 512M EFI System
/dev/sde2 1050624 960124927 959074304 457.3G Linux filesystem
/dev/sde3 960124928 976771071 16646144 8G Linux swap
root@UbuntuServer17:~#
root@UbuntuServer17:~# Sudo dumpe2fs /dev/sda2
dumpe2fs 1.42.13 (17-May-2015)
Filesystem volume name: <none>
Last mounted on: <not available>
Filesystem UUID: b474c4d4-af7f-4730-b746-a0c0c49ca08d
Filesystem magic number: 0xEF53
Filesystem revision #: 1 (dynamic)
Filesystem features: has_journal ext_attr resize_inode dir_index filetype extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize
Filesystem flags: signed_directory_hash
Default mount options: user_xattr acl
Filesystem state: clean
Errors behavior: Continue
Filesystem OS type: Linux
Inode count: 121454592
Block count: 485814272
Reserved block count: 24290713
Free blocks: 478141459
Free inodes: 121454581
First block: 0
Block size: 4096
Fragment size: 4096
Reserved GDT blocks: 908
Blocks per group: 32768
Fragments per group: 32768
Inodes per group: 8192
Inode blocks per group: 512
Flex block group size: 16
Filesystem created: Sat Feb 25 02:16:09 2017
Last mount time: n/a
Last write time: Sat Feb 25 02:16:09 2017
Mount count: 0
Maximum mount count: -1
Last checked: Sat Feb 25 02:16:09 2017
Check interval: 0 (<none>)
Lifetime writes: 135 MB
Reserved blocks uid: 0 (user root)
Reserved blocks gid: 0 (group root)
First inode: 11
Inode size: 256
Required extra isize: 28
Desired extra isize: 28
Journal inode: 8
Default directory hash: half_md4
Directory Hash Seed: e1e7da74-6e2f-4fa4-a9e0-a13a44338170
Journal backup: inode blocks
dumpe2fs: Corrupt extent header while reading journal super block
root@UbuntuServer17:~#
J'ai finalement trouvé la réponse sur https://serverfault.com/questions/32709/how-do-i-move-a-linux-software-raid-to-ne-ne-machine .
Voici ce que j'ai fait:
Démarré depuis une nouvelle installation et enregistré les anciens fichiers fstab et mdadm.conf sur mon cloud.
Il semble que la partition RAID sur la sda2 (l'un des 4 disques physiques) ait en fait échoué. J'ai eu le démarrage sur sda1 et le raid sur sda2, sdb1, sdc1, sdd1.
J'ai réinstallé Ubuntu sur un nouveau lecteur sde.
Réinstallé mdadm.
Je savais où étaient les 4 partitions parce que je n'avais pas changé l'ordre et que boot était maintenant sde1;
J'ai forcé le tableau RAID à se réassembler sur les mêmes partitions;
Heureusement, trois disques sur quatre fonctionnent, le Raid est donc dégradé, mais jusqu'à présent, il fonctionne.
Les étapes que j'ai suivies sont clairement décrites dans le lien ci-dessus. Je dois dire que j'ai trouvé que Digital Ocean était également d'une grande aide. Cela semble toujours aussi simple par la suite, mais la voie est dangereuse.