Je reçois le résultat suivant lorsque je lance un test de charge. Quelqu'un peut-il m'aider à lire le rapport?
the number of thread = '500 '
ramp up period = '1'
Sample = '500'
Avg = '20917'
min = '820'
max = '48158'
Std Deviation = '10563.178194669255'
Error % = '0.046'
throughput = '10.375381295262601'
KB/Sec = `247.05023046315702`
Avg. Bytes = '24382.664'
Brève explication ressemble à:
Si vous rencontrez des problèmes d’interprétation des résultats, vous pouvez essayer BM.Sense service d’analyse des résultats
Exemple: Nombre de demandes envoyées.
Débit: correspond au nombre de demandes envoyées à votre serveur pendant le test par unité de temps (secondes, minutes, heures).
Temps de réponse: correspond au temps écoulé à partir du moment où une requête donnée est envoyée au serveur jusqu'au moment où le dernier bit d'information est retourné au client.
Outputput est la charge réelle traitée par votre serveur pendant une exécution, mais il ne vous dit rien sur les performances de votre serveur au cours de cette même exécution. C’est la raison pour laquelle vous avez besoin des deux mesures afin de vous donner une idée réelle des performances de votre serveur au cours d’une exécution. Le temps de réponse vous indique à quelle vitesse votre serveur traite une charge donnée.
Moyenne: Il s'agit de la moyenne (moyenne arithmétique μ = 1/n * Σi = 1… n xi) du temps de réponse de vos échantillons totaux.
Min et Max sont les temps de réponse minimum et maximum.
Une chose importante à comprendre est que la valeur moyenne peut être très trompeuse car elle ne vous indique pas à quel point vos valeurs sont proches (ou très éloignées) de la moyenne. Pour cela, nous avons besoin du Valeur de déviation puisque la valeur moyenne peut être la même pour différents temps de réponse des échantillons !!
Déviation: La déviation standard (σ) mesure la distance moyenne des valeurs à leur moyenne (μ). Elle vous donne une bonne idée de la dispersion ou de la variabilité des mesures à leur valeur moyenne.
L’équation suivante montre comment l’écart type (σ) est calculé:
σ = 1/n * √ i = 1… n (xi-μ) 2
Pour plus de détails, voir ici !!
Ainsi, si la valeur déviation est faible comparée à la valeur moyenne, cela signifie que vos mesures ne sont pas dispersées (ou très proches de la valeur moyenne) et que la valeur moyenne est significative..
Kb/sec: Débit mesuré en kilooctets par seconde.
Error%: Pourcentage de demandes avec des erreurs.
Un exemple vaut toujours mieux comprendre !!! Je pense que cet article vous aidera.
Les documents JMeter disent ce qui suit :
Le rapport de synthèse crée une ligne de table pour chaque demande nommée différemment dans votre test. Ceci est similaire au rapport d'agrégation, sauf qu'il utilise moins de mémoire . Le débit est calculé du point de vue de la cible de l'échantillonneur (par exemple, le serveur distant dans le cas d'échantillons HTTP). JMeter prend en compte le temps total sur lequel les demandes ont été générées. Si d'autres échantillonneurs et minuteries sont dans le même fil, ils augmenteront la durée totale et réduiront donc la valeur du débit. Ainsi, deux échantillonneurs identiques portant des noms différents auront la moitié du débit de deux échantillonneurs portant le même nom. Il est important de choisir correctement les étiquettes de l’échantillonneur pour obtenir les meilleurs résultats possibles du rapport.
Les temps sont en millisecondes.
Il existe de nombreuses explications sur Jmeter Summary. J'utilise cet outil depuis un certain temps pour générer un rapport de test de performance avec les données pertinentes. L'explication disponible sur le lien ci-dessous provient directement de l'expérience de terrain:
Jmeter: Comprendre le rapport de synthèse
C’est l’un des rapports les plus utiles générés par Jmeter pour tenir compte du résultat du test de charge.
# Label: Nom de l'exemple de requête HTTP envoyé au serveur
# Samples: Ceci capture le nombre total d'échantillons envoyés au serveur. Supposons que vous mettiez un contrôleur de boucle pour l'exécuter 5 fois cette demande particulière, puis 2 itérations (nombre de boucles appelées dans le groupe de threads) sont définies et le test de chargement est exécuté pour 100 utilisateurs, puis le nombre qui sera affiché ici .... 1 * 5 * 2 * 100 = 1000. Total = nombre total d'échantillons envoyés au serveur pendant toute la durée de l'analyse.
# Moyenne: C'est un temps de réponse moyen pour une requête http particulière. Ce temps de réponse est en millisecondes et correspond à une moyenne de 5 boucles en deux itérations pour 100 utilisateurs. Total = Moyenne de la moyenne totale des échantillons, signifie additionner toutes les moyennes de tous les échantillons et diviser par le nombre d'échantillons
# Min: Temps minimum passé par exemple dans les demandes envoyées pour cette étiquette . Le total est égal au temps minimum dans tous les échantillons.
# Max: dépenses liées maximales liées par exemple aux demandes envoyées pour cette étiquette Le total est égal à la durée maximale sur tous les échantillons.
# Std. Dev. : La connaissance de l'écart type de votre ensemble de données vous indique la densité des points de données regroupés autour de la moyenne. Plus l'écart type est faible, plus les données sont cohérentes. L'écart-type doit être inférieur ou égal à la moitié du temps moyen requis pour une étiquette. Si c'est plus que cela, alors cela signifie que quelque chose ne va pas. vous devez résoudre le problème et le résoudre . https://en.wikipedia.org/wiki/Standard_deviation Le total est égal à la déviation maximale pour tous les échantillons.
# Erreur: pourcentage total des erreurs trouvées pour un exemple de demande. 0,0% indique que toutes les demandes ont abouti . Total égal au pourcentage d'échantillons d'erreur dans tous les échantillons (Total Samples)
# Débit: Hits/s, ou nombre total de requêtes envoyées au serveur par unité de temps (s, min, h) au cours du test.
endTime = lastSampleStartTime + lastSampleLoadTime startTime = firstSampleStartTime converstion = unit time conversion value Throughput = Numrequests / ((endTime - startTime)*conversion)
# Ko/s: son débit de mesure en kilooctets par seconde.
# Moy. Octets: nombre total d’octets de données téléchargées à partir du serveur. Le total est la moyenne en octets pour tous les échantillons.
A Jmeter Test Plan doit avoir un auditeur pour présenter le résultat de l'exécution du test de performance.
Les auditeurs capturent la réponse en provenance du serveur pendant l'exécution de Jmeter et le présentent sous forme d'arborescence, de tableaux, de graphiques et de fichiers journaux.
Il vous permet également d’enregistrer le résultat dans un fichier pour référence future. Jmeter propose plusieurs types d’auditeurs. Certains d'entre eux sont les suivants: rapport de synthèse, rapport d'agrégation, graphique d'agrégation, arborescence de résultats, affichage des résultats dans un tableau, etc.
Voici la compréhension détaillée de chaque paramètre dans Résumé rapport.
Label : C'est le nom/URL de la requête HTTP spécifique. Si vous avez sélectionné l'option “Inclure le nom du groupe dans l'étiquette?”, Le nom du groupe de threads est appliqué comme préfixe à chaque étiquette.
Samples : Ceci indique le nombre d'utilisateurs virtuels par requête.
Moyenne : Il s'agit du temps moyen mis par tous les échantillons pour exécuter une étiquette spécifique. Dans notre cas, le temps moyen pour le label 1 est de 942 millisecondes et le temps total moyen est de 584 millisecondes.
Min : Le temps le plus court pris par un échantillon pour une étiquette spécifique. Si nous examinons la valeur Min pour l'étiquette 1, alors sur 20 échantillons, le temps de réponse le plus court était de 584 millisecondes.
Max : Le temps le plus long pris par un échantillon pour une étiquette spécifique. Si nous examinons la valeur maximale pour l'étiquette 1, alors sur 20 échantillons, le temps de réponse le plus long était de 2867 millisecondes.
Std. Dev. : Affiche l'ensemble des cas exceptionnels qui s'écartaient de la valeur moyenne du temps de réponse de l'échantillon. Plus cette valeur est petite, plus les données sont cohérentes. L'écart-type doit être inférieur ou égal à la moitié du temps moyen requis pour une étiquette.
Erreur% : pourcentage de demandes ayant échoué par étiquette.
Débit : Le débit correspond au nombre de demandes traitées par unité de temps (secondes, minutes, heures) par le serveur. Ce temps est calculé du début du premier échantillon à la fin du dernier échantillon. Plus le débit est élevé, mieux c'est.
KB/Sec : Ceci indique la quantité de données téléchargées du serveur pendant l'exécution du test de performance. En bref, il s’agit du débit mesuré en kilooctets par seconde.