J'ai eu un problème inconnu avec mon ancienne instance EC2 afin que je ne puisse plus utiliser SSH. Par conséquent, j'ai créé un nouveau volume EBS à partir d'un instantané de l'ancien volume et j'ai essayé de l'attacher et de le monter sur la nouvelle instance. Voici ce que j'ai fait:
/dev/xvdf
(ou /dev/sdf
)SSHed dans l'instance et a tenté de monter l'ancien volume avec:
$ Sudo mkdir -m 000 /vol
$ Sudo mount /dev/xvdf /vol
Et la sortie était:
mount: block device /dev/xvdf is write-protected, mounting read-only
mount: you must specify the filesystem type
Maintenant, je sais que je devrais spécifier le système de fichiers sous la forme ext4
, mais comme le volume contient beaucoup de données importantes, je ne peux pas le formater avec $ Sudo mkfs -t ext4 /dev/xvdf
. Pourtant, je ne connais aucun autre moyen de conserver les données et de spécifier le système de fichiers en même temps. J'ai beaucoup cherché à ce sujet et je suis actuellement perdue.
Soit dit en passant, le montage en "lecture seule" m'inquiète également, mais je ne me suis pas encore penché sur la question car je ne peux plus monter le volume.
Merci d'avance!
Modifier:
Quand je fais Sudo mount /dev/xvdf /vol -t ext4
(pas de formatage), je reçois:
mount: wrong fs type, bad option, bad superblock on /dev/xvdf,
missing codepage or helper program, or other error
In some cases useful info is found in syslog - try
dmesg | tail or so
Et dmesg | tail
me donne:
[ 1433.217915] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
[ 1433.222107] FAT-fs (xvdf): bogus number of reserved sectors
[ 1433.226127] FAT-fs (xvdf): Can't find a valid FAT filesystem
[ 1433.260752] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
[ 1433.265563] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
[ 1433.270477] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
[ 1433.274549] FAT-fs (xvdf): bogus number of reserved sectors
[ 1433.277632] FAT-fs (xvdf): Can't find a valid FAT filesystem
[ 1433.306549] ISOFS: Unable to identify CD-ROM format.
[ 2373.694570] EXT4-fs (xvdf): VFS: Can't find ext4 filesystem
Utilisez cette commande pour le monter si votre type de système de fichiers est ext4:
Sudo mount /dev/xvdf /vol -t ext4
Beaucoup de gens ont du succès avec (si le disque est partitionné):
Sudo mount /dev/xvdf1 /vol -t ext4
où:
/dev/xvdf
est remplacé par le volume EBS périphérique en cours de montage/vol
est remplacé par le dossier que vous souhaitez monter.ext4
est le type de système de fichiers du volume en cours de montageVérifiez votre commande de montage pour correct _ Volume EBS noms de périphériques et types de systèmes de fichiers. Ce qui suit les listera tous:
Sudo lsblk --output NAME,TYPE,SIZE,FSTYPE,MOUNTPOINT,LABEL
Si votre volume EBS affiche une partition
attachée, montez la partition
; pas le disque.
Si cela ne s'affiche pas, vous n'avez pas Attach
votre volume EBS dans la console Web AWS
Ces périphériques sont à nouveau démontés si l'instance EC2 redémarre un jour.
Une façon de les faire monter à nouveau au démarrage consiste à éditer le fichier serveur indiqué ci-dessous et à insérer uniquement la commande de montage unique que vous avez utilisée à l'origine.
/etc/rc.local
(Placez votre modification au-dessus de exit 0
, la dernière ligne de ce fichier.)
J'ai remarqué que, pour une raison quelconque, le volume était situé à /dev/xvdf1
, pas /dev/xvdf
.
En utilisant
Sudo mount /dev/xvdf1 /vol -t ext4
travaillé comme un charme
J'ai également rencontré ce problème après avoir ajouté un nouveau volume de 16 Go et l'avoir connecté à une instance existante. Tout d’abord, vous devez savoir quels disques vous avez présents.
Sudo fdisk -l
Vous obtiendrez une sortie semblable à celle présentée ci-dessous, détaillant les informations relatives à vos disques (volumes).
Disk /dev/xvda: 12.9 GB, 12884901888 bytes
255 heads, 63 sectors/track, 1566 cylinders, total 25165824 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Device Boot Start End Blocks Id System
/dev/xvda1 * 16065 25157789 12570862+ 83 Linux
Disk /dev/xvdf: 17.2 GB, 17179869184 bytes
255 heads, 63 sectors/track, 2088 cylinders, total 33554432 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/xvdf doesn't contain a valid partition table
Comme vous pouvez le voir, le disque ajouté/dev/xvdf est présent. Pour le rendre disponible, vous devez créer un système de fichiers et le monter sur un point de montage. Vous pouvez y parvenir avec les commandes suivantes
Sudo mkfs -t ext4 /dev/xvdf
Créer un nouveau système de fichiers efface tout le volume, faites-le donc sur un nouveau volume sans données importantes
Puis montez-le peut-être dans un répertoire sous le dossier/mnt
Sudo mount /dev/xvdf /mnt/dir/
Confirmez que vous avez monté le volume sur l'instance en exécutant
df -h
C'est ce que tu devrais avoir
Filesystem Size Used Avail Use% Mounted on
udev 486M 12K 486M 1% /dev
tmpfs 100M 400K 99M 1% /run
/dev/xvda1 12G 5.5G 5.7G 50% /
none 4.0K 0 4.0K 0% /sys/fs/cgroup
none 5.0M 0 5.0M 0% /run/lock
none 497M 0 497M 0% /run/shm
none 100M 0 100M 0% /run/user
/dev/xvdf 16G 44M 15G 1% /mnt/ebs
Et voilà, vous avez le volume à utiliser ici attaché à votre instance existante . credit
J'ai rencontré ce problème et je l'ai compris maintenant,
[ec2-user@ip-172-31-63-130 ~]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 8G 0 disk
└─xvda1 202:1 0 8G 0 part /
xvdf 202:80 0 8G 0 disk
└─xvdf1 202:81 0 8G 0 part
Vous devriez monter la partition
/ dev/xvdf1 (quel type est une partition)
pas monter la disk
/ dev/xvdf (quel type est un disque)
J'avais un problème différent. Lorsque j'ai vérifié les journaux dmesg, le problème concernait le même UUID du volume racine existant et celui du volume racine d'un autre ec2. Donc, pour résoudre ce problème, je l'ai monté sur un autre type de Linux ec2. Ça a marché.
Vous n'avez pas besoin de créer un système de fichiers du volume nouvellement créé à partir de snapshot.simply. Connectez simplement le volume et montez le volume dans le dossier où vous voulez. J'ai attaché le nouveau volume au même emplacement que le volume précédemment supprimé et cela fonctionnait bien.
[ec2-user@ip-x-x-x-x vol1]$ Sudo lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 8G 0 disk
└─xvda1 202:1 0 8G 0 part /
xvdb 202:16 0 10G 0 disk /home/ec2-user/vol1