Je suis un novice lorsqu'il s'agit d'OpenStack avec MAAS et AutoPilot. J'aimerais créer mon propre cloud privé avec Ubuntu 14.04LTS et MAAS 1.9.
Mon objectif est d’avoir une configuration correcte que je peux utiliser pour déployer une application assez lourde Java Spring Tomcat avec MySQL, Solr, RabitMQ avec MongoDB et/ou Couch dans le mixage pour un service séparé écrire. L’application filtre beaucoup de données et stocke les résultats de l’analyse graphique (en temps réel et hors ligne).
Cette application (sans le service Couch) fonctionne actuellement sur une seule machine Ubuntu avec 32 Go (sans nuage) et un SSD de 3e génération de 500 Go, un disque dur secondaire de 2 To. Ceci est uniquement mon environnement de test de contrôle qualité/performances à petite échelle. Je construis un home-sand-cloud pour déployer cette application:
J'ai 6 ordinateurs avec les paramètres suivants:
J'ai également 2 x commutateur Ethernet Gigabit EasySmart D-Link à 8 ports (DGS-1100-08). J'essayais de suivre blog de Dimiter , bien qu'il ait pensé à l'architecture de réseau sans le deuxième disque dur.
Maintenant, ma question concerne les deuxièmes disques. Ceph/Swift utiliserait-il intelligemment le deuxième disque pour la journalisation ou le stockage d’objets réel. Pour mes besoins en stockage (moins de 2 To), utiliser un disque dur serait une bonne idée car je ne peux pas me permettre de mettre des disques SSD de 1 To dans ces boîtes. Comme les premiers disques sont des disques SSD de 240 Go dans les boîtes, ceph/Swift les utiliserait-il correctement?
J'attends vos réponses avec impatience, car je ne veux pas passer par la migraine liée au déploiement de mon application pour découvrir que j'ai tout à fait besoin d'une topologie différente.
Du point de vue purement de Ceph, vous voudriez placer le journal sur le disque SSD principal, en en prenant une petite part, et utiliser le disque dur 1 To pour le démon OSD.
Comme l'explique la réponse d'Andreas, Autopilot ne le fait pas encore automatiquement, vous devez donc créer manuellement le cluster hyperconverged OpenStack et Ceph.
Pour améliorer les performances, toujours du point de vue de Ceph, au moins 10 nœuds OSD seraient recommandés, mais je vous suggère également de regarder architecture de référence de Red Hat pour Ceph et MySQL - vous devriez le faire. capable d’avoir une idée approximative des performances que vous pouvez obtenir avec MySQL sur Ceph, d’autant plus que vous pouvez voir le matériel utilisé pour atteindre ces objectifs.
Le pilote automatique utilisera tous les disques qu'il peut trouver sur chaque nœud de stockage et qui ne sont pas utilisés. En général, par exemple, Ubuntu est installé sur/dev/sda et tout autre/dev/sdX sera utilisé par Ceph ou Swift. Le pilote automatique n'a pas encore choisi SDD vs HDD.
Maintenant, MAAS 1.9 supporte bcache, vous pouvez donc accélérer un peu votre disque SSD, mais la version 15.11 du pilote automatique ne sait pas encore comment l'utiliser.