Pour A Dell R92 avec des disques 24 x 1.2TB (et 1 To RAM), je cherche à configurer une configuration RAID 5 pour Fast Io. Le serveur sera utilisé pour héberger KVM VMS qui lira/écrire des fichiers de toutes tailles, y compris de très grands fichiers. Je ne suis pas terriblement intéressé par la sécurité des données, car si le serveur échoue pour une raison quelconque, nous rétrécirons simplement le serveur du métal nu après avoir remplacé les pièces défaillantes. Donc, la performance est la principale préoccupation. Nous considérons que RAID 5, car cela nous permet de distribuer des données sur plusieurs broches et nous donne donc une meilleure performance et, tout en ne nous donnant pas notre principale préoccupation, nous nous donne également une meilleure préoccupation. une certaine protection des données. Notre NIC est Dual 10 Gbps.
Je limite cette question à RAID 5 uniquement parce que nous pensons que cela donnera la meilleure performance. Seulement s'il y a une raison de performance convaincante que nous considérerons autre chose. Mais, je pense que je préférerais les réponses liées aux configurations RAID 5.
D'accord, avec ce qui précède, voici nos pensées de configuration actuelles pour:
Si la taille de la bande est le total des lecteurs de données, j'ai figuré ~ 46.5kb par lecteur nous donnera un très bon débit. Si la taille de la bande est par broche, alors j'ai tout faux.
La taille de la bande est-elle aussi la taille qu'un seul fichier prend? Par exemple, s'il y a un fichier de 2 ko, choisir une taille de 1 Mo de 1 Mo signifie que nous gaspillons presque un mégaoctet entier? Ou plusieurs fichiers peuvent-ils vivre dans une bande?
Enfin, lorsque nous installons Centos 6.5 (ou la dernière), devrons-nous faire quelque chose de spécial pour que le système de fichiers utilise de manière optimale? Par exemple, mkfs.ext4 a une option - E Stride que je 'M a dit devrait correspondre à la configuration RAID. Mais lors d'une installation de Centos, y a-t-il un moyen de faire cela?
Merci beaucoup pour vos pensées sur une configuration RAID 5 pour Fast Io.
Veuillez utiliser RAID 1 + 0 avec votre contrôleur et votre configuration de lecteur. Si vous avez besoin de plus de capacité, un niveau RAID imbriqué comme RAID 50/60 pourrait Travail . Vous pouvez vous éloigner avec RAID 5 sur un petit nombre d'Enterprise SAS Disks (8 disques ou moins) car les temps de reconstruction ne sont pas mauvais. Cependant, 24 lecteurs est une terrible erreur. (OH et désactivez la fonctionnalité individuelle de mise en cache de disque ... dangereuse)
Il existe de nombreuses facettes aux Performances d'E/S et de stockage locales. Il y a des opérations d'E/S/seconde, il y a un débit, il y a de la latence de stockage. RAID 1 + 0 est un bon équilibre entre ceux-ci. Aspects positifs Voici que vous utilisez des disques d'entreprise, un contrôleur de matériel capable et un bon nombre de disques. Combien de capacité avez-vous besoin?
Vous pouvez passer dans des limites au nombre de lecteurs que vous pouvez utiliser dans un groupe de disque virtuel. Les contrôleurs PERC/LSI limitent traditionnellement ceci à 16 lecteurs de niveaux de raid unique et RAID 1 + 0. Le Guide de l'utilisateur confirme ceci . Vous ne seriez pas en mesure d'utiliser tous les 24 disques d'un seul RAID 5 ou d'un seul groupe RAID 1 + 0.
Un autre aspect à considérer, en fonction de votre charge de travail, c'est que vous pouvez exploiter la mise en cache SSD à l'aide de la fonctionnalité LSI CACHECADE sur certains contrôleurs PERC. Cela peut ne pas être disponible pour cela, mais la compréhension de vos modèles d'E/S aidera à adapter la solution de stockage.
En ce qui concerne les options de création de systèmes de fichiers EXT4, une grande partie elle sera extraite par votre contrôleur de raid matériel. Vous devriez être capable de créer un système de fichiers sans aucune option spéciale ici. Les paramètres que vous faites référence au seront plus d'un impact sur une solution de raid logiciel.
N'utilisez pas un seul tableau RAID 5 sur 24 disques 1TB! Je ne me soucie pas de ce que vous préférez limiter les réponses à, c'est une mauvaise idée et vous devriez regarder d'autres options.
Les chances d'une défaillance d'un disque monument avec chaque disque. Donc, le temps qu'il faut pour reconstruire. Lorsqu'un lecteur échoue et que vous le remplacez, il utilisera autant IO sur tous les disques que possible pour créer les données de la nouvelle. Il est très probable que l'un de vos 23 bien restants Les disques échouent pendant ce processus, vous obligeront à restaurer le serveur à partir de sauvegardes. que vous dites que vous ne vous souciez pas de ... mais êtes-vous prêt à accepter cela une fois par mois? Une fois par semaine? Comme les disques Âge, ça Très bien pourrait avoir ce mauvais.
En outre, si vous voulez des performances, RAID5 vous conduit dans la mauvaise direction. Dans de nombreux cas, RAID5 a pire des performances que d'autres options, car elle doit calculer la parité pour chaque écriture, puis écrivez cela à un lecteur. RAID5 n'a pas été conçu pour la performance.
Si vous ne vous souciez vraiment pas de vos données, allez avec RAID 0. Mais même en ce moment, créez quelques tableaux distincts, pas un seul raid géant de disque 0.
Si vous voulez des performances et une certaine intégrité, utilisez RAID10. Vous perdrez un espace disque, mais obtenez un coup de pouce assez performant.
Ou vous pouvez regarder des choses comme des ZFS conçues à partir du sol pour travailler avec d'énormes quantités de données sur les disques.
Vos options:
RAID: Cela active tous vos disques dans une seule unité sans redondance. Cela dispose des performances de lecture et d'écriture les plus élevées et l'espace le plus utilisable de l'une des options, mais la perte d'un seul disque désigne la perte de toutes les données.
RAID 1 +: Cela active tous vos disques dans une seule unité avec toutes les données présentes sur deux disques. La vitesse de lecture est à peu près de la même manière que RAID 0, la vitesse d'écriture est réduite de moitié (puisque vous devez écrire chaque fois chaque morceau de données), et vous n'avez que la moitié de l'espace disponible. La perte d'un seul disque n'a aucun impact sur la disponibilité des données et l'impact minimal sur les vitesses de lecture/écriture.
RAID 5: Cela active tous vos disques dans une seule unité, avec une valeur de parité sur un disque. La vitesse d'écriture est beaucoup plus lente, éventuellement plus lente que la vitesse d'écriture d'un seul disque non raid (chaque écriture nécessite chaque cycle de lecture-écriture sur au moins deux disques) et vous perdre la valeur d'un disque d'espace pour les informations de parité. La perte d'un seul disque peut provoquer une réduction majeure de la vitesse de lecture (reconstruire les données stockées sur elle nécessite la lecture de données de les autres disques) , mais n'a aucun impact sur la disponibilité des données.
RAID 6: Ceci a essentiellement tous les avantages et les inconvénients de RAID 5, sauf que cela stocke une checksum de fantaisie en plus d'un calcul de parité et peut gérer la perte de deux disques sans perte de données sans perte de données.
Si la sécurité des données est vraiment non pertinente (cela inclut le temps consacré à restaurer les données de la source d'origine, qui peut prendre des jours, et le temps perdu de réutiliser des calculs interrompus), je recommande RAID 0. Sinon, si vous avez une charge de travail presque Lit exclusivement et vous voulez une fiabilité, je recommande RAID 6 (mais noter que les performances subiront lors de la récupération d'un disque défaillant). Si vous avez une charge de travail en lecture-écriture, je recommande RAID 1 + 0.
En fonction de la nature précise de votre charge de travail (c.-à-d. Si une tâche donnée accède à un sous-ensemble bien défini de votre espace disque), vous pourrez peut-être configurer plusieurs réseaux RAID indépendants, de sorte que la défaillance d'une ne soit pas une incidence sur les autres. .
RAID 5 ne fournit aucun avantage dans votre situation. Il a une pénalité de performance (en particulier pour la rédaction) par rapport à RAID 0, et avec le nombre de disques que vous avez, il est pratiquement certain qu'un deuxième disque échouera pendant la récupération, ce qui ne donne aucun bénéfice de sécurité de données.
Ok, juste à une question claire - taille de la bande de rayures. La taille de la bande plus grande est meilleure que si votre raid est idiot de toujours lire/écrire la bande de données entière de la part du morceau d'E/S minimum.
Pourquoi? - La taille de la petite rayure implique d'impliquer plusieurs disques dans des E/S longs, moins il est plus de chances de charger plusieurs disques avec un I/O logique. Big Stripe signifie plus de chances pour un seul disque (ou quelques-uns) à impliquer dans I/O. Cela peut sembler comme une carence car il n'y a pas de boost comparant à plusieurs disques, mais votre charge presque aléatoire saute et vous réalisez que la charge serait répartie sur tous les disques de manière plus ou moins uniforme.
Plus la théorie derrière cela peut être trouvée ici: http://www.vinumvm.org/vinum/performance-issues.html