J'ai un client qui est très d'opinion sur ce qu'elle aime et n'aime pas dans ma conception et déplace les choses là où elles "semblent" bien pour elle. Je veux tester mes maquettes originales contre ses révisées avec les utilisateurs, mais ce ne sont que des maquettes. Je veux juste souligner que les utilisateurs seront très confus si elle cache des caractéristiques clés qui la distinguent de ses concurrents - la possibilité d'acheter un article ou de se lancer dans le processus de personnalisation de son expérience de magasinage.
Laquelle serait la plus efficace? 1) Faites un test simple en demandant aux utilisateurs ce qu'ils comprennent des maquettes et où ils iraient pour faire quoi comme questions ouvertes; 2) Les "fausses tâches" aiment-elles demander "où iriez-vous ... (action souhaitée)?" Puis-je faire cela avec les différents ensembles de maquettes ou faut-il qu'il y ait un utilisateur par version de maquette?
Je pense que ce site a beaucoup de potentiel de succès, mais je crains que son appréhension et sa micro-gestion ne sapent les objectifs du site. Cependant, lui expliquer cela n'a pas aidé. Elle pense que j'insiste sur les choses parce que je suis "passionnée" et non parce que je suis simplement une vieille expérimentée.
Les tests A/B concernent l'optimisation. Les maquettes et les tests utilisateurs concernent les informations.
Les tests utilisateurs (même avec un petit ensemble d'échantillons) vous donneront un aperçu des problèmes potentiels afin que vous puissiez trouver des moyens de les améliorer. Cela devrait être votre objectif, ne pas essayer d'optimiser une conception.
Les tests A/B nécessitent de grands ensembles d'échantillons pour tirer une conclusion sur l'option qui est la meilleure, mais vous donne peu de détails sur les raisons pour lesquelles cette option est meilleure.
Considérez les tests utilisateurs comme un raffinement de cours et les tests A/B comme un raffinement fin.
Compte tenu de votre situation, je ferais un peu test d'utilisation rapide et sale pour voir s'il y a des problèmes évidents avec l'une ou l'autre conception. Il ne semble pas que ce soit pire que l'autre, alors allez avec ce que veut votre client.
Pour des tests de maquette rapides et efficaces, je recommande d'utiliser n'importe quel programme pouvant lier 2 images et Silverback pour enregistrer les sessions des utilisateurs.
Construisez un petit panneau utilisateur (5-7 personnes) - plus si vous le pouvez ...
Rédigez un court scénario qui indique à vos utilisateurs ce qu'ils doivent accomplir avant de tester les flux.
Vos préoccupations sont très valables. Il est trop fréquent que les clients prétendent savoir ce qui est le mieux sans se rendre compte qu'ils ne sont pas le public principal. Bonne chance!
Je ne suis affilié à aucun des produits mentionnés ci-dessus
Faites un test A/B avec OptimalWorkshop ou un outil similaire. http://www.optimalworkshop.com/chalkmark.htm
Prenez les deux maquettes et déterminez quelle est la tâche. Alors oui, vous voulez faire une fausse tâche. Par exemple, la tâche serait d'ajouter un article au panier. Vous pouvez effectuer plusieurs tâches, certaines s'ajouteraient au panier, d'autres pour trouver plus de détails, vous voudrez les mélanger.
Vous voulez comparer des pommes avec des pommes, par exemple dans la tâche "Comment ajouteriez-vous un article XYZ à votre panier", vous voudriez en faire une avec vos simulacres et une autre avec ses simulacres. Visuellement, ils devraient se ressembler. Mélangez-le avec différents types de tâches de type chasse au trésor (par exemple, trouvez des détails sur xyz ou comment voyez-vous votre panier). Une fois que vous avez fait environ 15 à 20 utilisateurs, vous pourrez découvrir à quelle vitesse les utilisateurs l'ont fait dans les deux ensembles de simulations.
Vous serez en mesure de dire objectivement que, dans l'ensemble de maquette A, l'utilisateur a pu trouver le bouton de paiement en moyenne 3 secondes, mais dans la maquette B, cela leur a pris 15 secondes avec plus d'erreurs.
Les tests A/B sont certainement la voie à suivre ... mais sans les ressources pour développer correctement les deux suggestions, les résultats sont susceptibles d'être rejetés par la personne très avisée.
Le client a réduit votre talent, votre expérience et vos antécédents. Malheureusement, ils remettront probablement tout test également.
Vous avez beaucoup de bonnes indications sur les méthodologies à utiliser pour tester vos options. Mais, une chose que j'aimerais souligner encore plus avec audace, c'est de comprendre quelles sont les mesures de réussite pour votre client. Vous ne pourrez pas indiquer correctement ce que vos tests révèlent si vous et votre client n'êtes pas sur la même page à propos de ce qui est le plus important pour vos conceptions. Vous avez déjà mentionné une chose importante, mais y en a-t-il d'autres? Assurez-vous que les questions/tâches que vous proposez vous rapprocheront de bonnes réponses. De plus, s'il existe des décisions de conception qui peuvent être soutenues par la recherche effectuée sur http://usability.gov , cela peut être une autre avenue pour des décisions de sauvegarde de données plus importantes. (Remarque: ils sont en train de mettre à jour http://usability.gov cette année et j'espère que la recherche sera encore plus utile lorsqu'elle sera plus récente.)