C'est pour une taille de lecteur de 200 Go avec uniquement des images de la machine virtuelle. Des fichiers supplémentaires peuvent inclure un couple de fichiers XML. Les images elles-mêmes vont de 5 Go à 40 Go de taille.
2 Mo est une bonne idée ou une terrible? La logique dicte que les grandes unités signifient moins d'unités à suivre, mais y a-t-il des hits de performance que je devrais être au courant?
Je me réfère particulièrement aux performances Hits à l'intérieur de la VMS, en raison de la fragmentation lors de l'utilisation de l'AUS plus petite. J'espérais peu d'espoir qu'un AUS plus important signifierait moins de chercher du temps et une performance légèrement accrue.
J'utilise Win10 et 2M est l'option Max disponible AUS.
Désolé si cette question existe déjà. Je ne pouvais pas trouver beaucoup de gens d'unités supérieures à 64k, le mien étant en mégaoctets, j'ai vraiment besoin de confirmer avant de continuer.
Les tailles de grappes plus élevées signifient que le $Cluster
Le fichier dans le MFT est plus petit et que moins d'index sont nécessaires pour suivre les données sur le volume.
Cela se traduit par une augmentation de l'espace disque, mais comme ce n'est plus le milieu des années 90, cela ne vaut probablement pas la peine - du moins pas pour un lecteur de 200 Go.
En ce qui concerne la performance, il peut être légèrement amélioré ou au moins non affecté si les données ont tendance à être accessible de manière séquentielle (comme la lecture vidéo/musique) ou en morceaux autour de la taille du cluster.
Cela peut ne pas s'appliquer avec VMS. Si les VMDKs ne sont pas également à la fois à une taille de cluster de 2 m et alignées sur les clusters de disques, je pense que l'accès aléatoire peut être blessé par de grandes tailles de cluster, car vous demandez à NTFS de charger 2 m de données lorsque l'un n'est qu'un 4096 ou 512 octets. Le bloc dans ce secteur peut être nécessaire.
Vous êtes dans une situation similaire avec de nouveaux disques durs "4k" au format "4K" - ils ont lu/écriture interne dans des morceaux de 4096 octets, mais permettent toujours au système d'exploitation de demander des morceaux de 512 octets. Si vos données ne sont pas alignées sur 4096 octets, il sera à double lecture sur de nombreuses demandes. Les OSES alignez les données désormais donc probablement non quelque chose que vous devez penser avec - mais je dis que votre situation au-dessus de VMS et de modifier les tailles de clusters pourrait créer un problème similaire.