J'ai une machine nouvellement construite avec une installation fraîche Gentoo Linux et un réseau RAID 5 logiciel 5 à partir d'une autre machine (4 IDE connectés aux contrôleurs PCI hors carte). J'ai déplacé avec succès les contrôleurs à la nouvelle machine; les lecteurs sont détectés par le noyau; et j'ai utilisé Mdadm --examine et vérifié que la seule partition RAID est détectée, propre et même dans la commande "droite" (HDE1 == Drive 0, HDG1 == Drive 1, etc.).
Ce que je n'ai pas accès aux fichiers de configuration d'origine de la machine ancienne. Comment devrais-je procéder pour réactiver ce tableau sans perdre les données?
Vous avez vraiment besoin du fichier mdadm.conf d'origine. Mais, comme vous ne l'avez pas, vous devrez le recréer. Tout d'abord, avant de faire quoi que ce soit, Lisez sur Mdadm via sa page manuelle . Pourquoi la chance de perdre vos données à une situation ou à une commande que vous n'aviez pas de compréhension?
Cela étant dit, Ce conseil est à vos risques et périls. Vous pouvez facilement perdre toutes vos données avec les mauvaises commandes. Avant de courir quelque chose, double-vérifier les ramifications de la commande . Je ne peux pas être tenu responsable de la perte de données ou d'autres problèmes liés à des actions que vous prenez - donc double vérifier tout.
Vous pouvez essayer ceci:
mdadm --assemble --scan --verbose /dev/md{number} /dev/{disk1} /dev/{disk2} /dev/{disk3} /dev/{disk4}
Cela devrait vous donner des informations pour commencer à travailler avec l'ID. Il créera également un nouveau périphérique Array/Dev/MD {Number}, à partir de là, vous devrez peut-être trouver des montages. N'utilisez pas le --auto
Option, la page d'homme Le verbiage implique que, dans certaines circonstances, cela peut entraîner une écrasement de vos paramètres de matrice sur les lecteurs. C'est probablement non le cas et la page doit probablement être ré-écrite pour plus de clarté, mais pourquoi la chance elle?
Si le tableau assemble correctement et que tout est "normal", assurez-vous d'obtenir votre MDADM.CONF écrit et stocké dans /etc
, vous l'aurez donc au démarrage. Incluez le nouvel identifiant de la matrice dans le fichier pour l'aider.
Je voulais juste ajouter ma réponse complète pour Debian au moins.
Sudo apt-get install mdadm
Scannez pour les anciens disques RAID via -> Sudo mdadm --assemble --scan
À ce stade, j'aime vérifier BLKID
et montez manuellement le raid pour confirmer.
blkid mount /dev/md0 /mnt
mdadm --detail --scan >> /etc/mdadm/mdadm.conf
Mettre à jour Initiramfs via -> update-initramfs -u
Dépannage:
Assurez-vous que la sortie de mdadm --detail --scan
correspond à votre /etc/mdadm/mdadm.conf
nano /etc/mdadm/mdadm.conf
ARRAY /dev/md/0 level=raid5 num-devices=3 metadata=00.90 UUID=a44a52e4:0211e47f:f15bce44:817d167c
Exemple de fstab
/dev/md0 /mnt/mdadm ext4 defaults,nobootwait,nofail 0 2
https://unix.stackexchange.com/questions/23879/utentu-mdadm-examine-a-write-mdadm-conf/52935#52935
Comment déplacer un RAID logiciel Linux à une nouvelle machine?
mdadm -Ac partitions -m 0 /dev/md0
Scannez toutes les partitions et périphériques répertoriés dans/Proc/partitions et assemblez/dev/MD0 sur tous ces appareils avec un superbloc RAID avec un nombre mineur de 0.
si la Conf a été réussie, vous pouvez ajouter --Detail --Scan >> /etc/mdadm/mdadm.conf afin qu'il l'attrape au démarrage