Problème :::
J'installe Redhat 5.10 x64 sur le serveur qui avait un disque dur défectueux. J'ai supprimé l'ancien disque dur défectueux et installé un nouveau avec une capacité de 500 Go et une fois l'installation, j'ai besoin de copier certaines données de l'ancien disque dur au nouveau disque dur sous/U001. Donc, j'ai connecté Old HDD (320 Go) au serveur. Il montre en fdisk -l
mais quand j'essaie de monter en utilisant
Support sudo/dev/sdb2 ou/dev/sdb5, dit
Remarque: Old HDD avait également Old OS installé dessus comme vous pouvez le voir dans fdisk -l
[.____]/dev/sda = nouveau disque dur
[.____]/dev/sdb = vieux disque dur
Dispositif déjà monté ou ressource est occupé
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 25 200781 83 Linux
/dev/sda2 26 10346 82903432+ 8e Linux LVM
/dev/sda3 10347 11390 8385930 82 Linux swap / Solaris
/dev/sda4 11391 60801 396893857+ 5 Extended
/dev/sda5 11391 60801 396893826 8e Linux LVM
Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 83 Linux
/dev/sdb2 14 10242 82164442+ 8e Linux LVM
/dev/sdb3 10243 11286 8385930 82 Linux swap / Solaris
/dev/sdb4 11287 38888 221713065 5 Extended
/dev/sdb5 11287 38888 221713033+ 8e Linux LVM
[admin@testsrv ~]$ Sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ Sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy
Résultat du mont :::
/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/Oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
PVDisplay :: Sortie
Sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda5
VG Name VolGroup00_u001
PV Size 378.51 GB / not usable 7.63 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 12112
Free PE 0
Allocated PE 12112
PV UUID E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob
--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00_root
PV Size 79.06 GB / not usable 392.50 KB
Allocatable yes
PE Size (KByte) 32768
Total PE 2530
Free PE 1
Allocated PE 2529
PV UUID YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk
LVMDISkSCAN :: Output
Sudo lvmdiskscan
/dev/ramdisk [ 16.00 MB]
/dev/root [ 79.03 GB]
/dev/ram [ 16.00 MB]
/dev/sda1 [ 196.08 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45 [ 297.90 GB]
/dev/ram2 [ 16.00 MB]
/dev/sda2 [ 79.06 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [ 101.94 MB]
/dev/ram3 [ 16.00 MB]
/dev/sda3 [ 8.00 GB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [ 78.36 GB] LVM physical volume
/dev/ram4 [ 16.00 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [ 8.00 GB]
/dev/ram5 [ 16.00 MB]
/dev/sda5 [ 378.51 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [ 211.44 GB] LVM physical volume
/dev/ram6 [ 16.00 MB]
/dev/VolGroup00_ora/LogVol00 [ 211.44 GB]
/dev/ram7 [ 16.00 MB]
/dev/VolGroup00_u001/LogVol00 [ 378.50 GB]
/dev/ram8 [ 16.00 MB]
/dev/ram9 [ 16.00 MB]
/dev/ram10 [ 16.00 MB]
/dev/ram11 [ 16.00 MB]
/dev/ram12 [ 16.00 MB]
/dev/ram13 [ 16.00 MB]
/dev/ram14 [ 16.00 MB]
/dev/ram15 [ 16.00 MB]
/dev/sdb1 [ 101.94 MB]
/dev/sdb2 [ 78.36 GB]
/dev/sdb3 [ 8.00 GB]
/dev/sdb5 [ 211.44 GB]
3 disks
25 partitions
0 LVM physical volume whole disks
4 LVM physical volumes
Même en 5.x, Rhel utilisait LVM par défaut. Vous devrez prendre quelques mesures avant de pouvoir monter des volumes LVM.
Si vous avez utilisé le même nom VGS sur le nouveau disque que sur l'ancien, vous avez un peu de problème: vous avez deux VGS avec le même nom. Pour identifier de manière unique les VGS que vous souhaitez manipuler (c'est-à-dire celui sur /dev/sdb
), vous aurez besoin des UUIDS VG. Courir:
# pvs -o +vg_uuid
énumérer tous les PV de LVM détectés, y compris leurs UUIDS VG. Vous verrez également le nom VG de chaque partition, vous pouvez donc voir s'il existe ou non des conflits de noms.
LVM est assez intelligent et suffisamment intelligent pour ne pas gâcher votre configuration VG active, à moins que vous ne soyez vraiment hors de votre façon de le confondre. Donc, si la commande mentionnée ci-dessus pvs
ne montre rien sur /dev/sdb
, exécutez vgscan
puis réessayez.
Une fois que vous connaissez les UUIDS VG, vous pouvez utiliser la commande vgrename pour renommer tout VGS en conflit. S'il n'y a pas de conflit de noms, vous pouvez sauter devant vgchange
.
(Afin de monter le (s) LV (S) à l'intérieur d'un VG, vous devrez activer le VG et un VG n'activera pas si son nom est conflictuel avec un VG déjà existant.)
La commande de renommer un VG ressemble à ceci:
vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg
où la soupe d'alphabet Zvlifi-...
est le VG UUID, et l'autre paramètre n'est que le nouveau nom de ce VG.
Une fois que les conflits de nom de VG sont résolus (ou s'il n'y a pas de conflit en premier lieu), vous devez activer le (s) VG (S) sur /dev/sdb
. Vous pouvez simplement activer tous les vgs VGS non activés VGS SEE avec cette commande:
vgchange -ay
Lors de l'activation d'un VG, les noms de périphérique (liens) de tout LVS à l'intérieur apparaîtront comme /dev/mapper/<VG name>-<LV name>
. (Aussi comme /dev/<VG name>/<LV name>
pour des raisons de compatibilité héritées.)
À ce stade, vous pouvez les monter comme d'habitude.
Si par ex.
mount /dev/sda1 /mnt/tmp
imprimerie
mount: /dev/sda1 is already mounted or /mnt/tmp busy
vérifiez s'il y a un processus utilisant ce périphérique (/ dev/sda1).
C'est souvent un processus FSCK qui fonctionne automatiquement sur le démarrage du système. Vous pouvez le vérifier rapidement par ex. par
ps aux | grep sda1
J'ai fait face à une telle situation. L'expérience et la solution sont racontées dans mon blog .
l'extrait est ici:
Erreur: Montage:/dev/mapper/Storebck-Sauvegarde déjà montée ou/Storebck occupé?
Diagnostic: lorsque nous essayons de monter le/StorBCK FS Nous obtenons une erreur mentionnée ci-dessus.
Résolution: 1. Comme l'autre FS est devenu en lecture seule, je m'arrête/démarre le service ISCSI. Il s'est connecté avec succès à l'appareil. /Etc/init.d/iscsi stop/etc/init.d/iscsi Démarrer https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html