web-dev-qa-db-fra.com

Comment tester la rentabilité sur des maquettes concurrentes de manière rentable?

J'ai un client qui est très d'opinion sur ce qu'elle aime et n'aime pas dans ma conception et déplace les choses là où elles "semblent" bien pour elle. Je veux tester mes maquettes originales contre ses révisées avec les utilisateurs, mais ce ne sont que des maquettes. Je veux juste souligner que les utilisateurs seront très confus si elle cache des caractéristiques clés qui la distinguent de ses concurrents - la possibilité d'acheter un article ou de se lancer dans le processus de personnalisation de son expérience de magasinage.

Laquelle serait la plus efficace? 1) Faites un test simple en demandant aux utilisateurs ce qu'ils comprennent des maquettes et où ils iraient pour faire quoi comme questions ouvertes; 2) Les "fausses tâches" aiment-elles demander "où iriez-vous ... (action souhaitée)?" Puis-je faire cela avec les différents ensembles de maquettes ou faut-il qu'il y ait un utilisateur par version de maquette?

Je pense que ce site a beaucoup de potentiel de succès, mais je crains que son appréhension et sa micro-gestion ne sapent les objectifs du site. Cependant, lui expliquer cela n'a pas aidé. Elle pense que j'insiste sur les choses parce que je suis "passionnée" et non parce que je suis simplement une vieille expérimentée.

11
Cecilia Morales

Les tests A/B concernent l'optimisation. Les maquettes et les tests utilisateurs concernent les informations.

Les tests utilisateurs (même avec un petit ensemble d'échantillons) vous donneront un aperçu des problèmes potentiels afin que vous puissiez trouver des moyens de les améliorer. Cela devrait être votre objectif, ne pas essayer d'optimiser une conception.

Les tests A/B nécessitent de grands ensembles d'échantillons pour tirer une conclusion sur l'option qui est la meilleure, mais vous donne peu de détails sur les raisons pour lesquelles cette option est meilleure.

Considérez les tests utilisateurs comme un raffinement de cours et les tests A/B comme un raffinement fin.

Compte tenu de votre situation, je ferais un peu test d'utilisation rapide et sale pour voir s'il y a des problèmes évidents avec l'une ou l'autre conception. Il ne semble pas que ce soit pire que l'autre, alors allez avec ce que veut votre client.

8
JohnGB

Pour des tests de maquette rapides et efficaces, je recommande d'utiliser n'importe quel programme pouvant lier 2 images et Silverback pour enregistrer les sessions des utilisateurs.

  1. Construisez un petit panneau utilisateur (5-7 personnes) - plus si vous le pouvez ...

  2. Rédigez un court scénario qui indique à vos utilisateurs ce qu'ils doivent accomplir avant de tester les flux.

  3. Créez 2 versions du même flux en utilisant vos maquettes et les siennes. Les maquettes sont liées à l'aide de n'importe quelle application (InvisionApp, Power Point, Keynote, Omnigraffle, Axure, etc.) afin de simuler une expérience en ligne.
  4. Utilisez Silverback pour enregistrer l'activité à l'écran des utilisateurs avec des expressions sonores et faciales.
  5. Une fois qu'ils ont terminé, demandez-leur quel flux est le plus facile, le plus naturel, etc.
  6. Résumez les commentaires de vos utilisateurs et discutez-en avec votre client.

Vos préoccupations sont très valables. Il est trop fréquent que les clients prétendent savoir ce qui est le mieux sans se rendre compte qu'ils ne sont pas le public principal. Bonne chance!

Je ne suis affilié à aucun des produits mentionnés ci-dessus

6
TotemFlare
  • Il semble que vos conceptions (ou maquettes) soient remplacées car votre client n'a pas adhéré aux conceptions. Vous pouvez faire une simple étude à haute voix avec des tâches (et des étapes) scriptées, même des croquis papier ou des impressions peuvent suffire. Ce processus vous fournira toujours des informations valables pour éclairer votre processus de conception.
  • Différents ensembles de maquettes seront utiles si vous savez clairement ce que chaque version accomplira ou comment elles diffèrent les unes des autres.
  • Il est courant pour les clients de supposer qu'ils sont l'utilisateur le plus typique (parfois ils ont raison) et dans votre cas, il y a certainement une certaine déconnexion entre votre client et la population d'utilisateurs cible.
  • Il peut être utile de faire venir de trois à cinq utilisateurs, de leur confier une tâche contextuellement valide et d'enregistrer une vidéo/audio (ou les deux) du flux de tâches avec différentes maquettes. Mieux encore, demandez à votre client de regarder ces sessions en direct (dans une autre pièce ou à distance). Avec les maquettes, vous n'avez pas besoin d'avoir une longue session, un entretien utilisateur de dix à quinze minutes peut aider votre client à acquérir une perspective différente. Assurez-vous également que votre entretien avec les utilisateurs n'est pas menant ou biaisé et qu'il pourrait également vous aider à obtenir une approbation sur les documents (questions, processus, critères de sélection des participants, maquettes, etc.) de votre client avant de faire venir utilisateurs. Cela peut sembler un travail supplémentaire pour cela, mais cela réduira les itérations improductives pour vos conceptions.
2
anil

Faites un test A/B avec OptimalWorkshop ou un outil similaire. http://www.optimalworkshop.com/chalkmark.htm

Prenez les deux maquettes et déterminez quelle est la tâche. Alors oui, vous voulez faire une fausse tâche. Par exemple, la tâche serait d'ajouter un article au panier. Vous pouvez effectuer plusieurs tâches, certaines s'ajouteraient au panier, d'autres pour trouver plus de détails, vous voudrez les mélanger.

Vous voulez comparer des pommes avec des pommes, par exemple dans la tâche "Comment ajouteriez-vous un article XYZ à votre panier", vous voudriez en faire une avec vos simulacres et une autre avec ses simulacres. Visuellement, ils devraient se ressembler. Mélangez-le avec différents types de tâches de type chasse au trésor (par exemple, trouvez des détails sur xyz ou comment voyez-vous votre panier). Une fois que vous avez fait environ 15 à 20 utilisateurs, vous pourrez découvrir à quelle vitesse les utilisateurs l'ont fait dans les deux ensembles de simulations.

Vous serez en mesure de dire objectivement que, dans l'ensemble de maquette A, l'utilisateur a pu trouver le bouton de paiement en moyenne 3 secondes, mais dans la maquette B, cela leur a pris 15 secondes avec plus d'erreurs.

0
Gary Yuen

Les tests A/B sont certainement la voie à suivre ... mais sans les ressources pour développer correctement les deux suggestions, les résultats sont susceptibles d'être rejetés par la personne très avisée.

Le client a réduit votre talent, votre expérience et vos antécédents. Malheureusement, ils remettront probablement tout test également.

0
David Clarke

Vous avez beaucoup de bonnes indications sur les méthodologies à utiliser pour tester vos options. Mais, une chose que j'aimerais souligner encore plus avec audace, c'est de comprendre quelles sont les mesures de réussite pour votre client. Vous ne pourrez pas indiquer correctement ce que vos tests révèlent si vous et votre client n'êtes pas sur la même page à propos de ce qui est le plus important pour vos conceptions. Vous avez déjà mentionné une chose importante, mais y en a-t-il d'autres? Assurez-vous que les questions/tâches que vous proposez vous rapprocheront de bonnes réponses. De plus, s'il existe des décisions de conception qui peuvent être soutenues par la recherche effectuée sur http://usability.gov , cela peut être une autre avenue pour des décisions de sauvegarde de données plus importantes. (Remarque: ils sont en train de mettre à jour http://usability.gov cette année et j'espère que la recherche sera encore plus utile lorsqu'elle sera plus récente.)

0
Renee Grebe