J'exécute mon premier vrai test d'utilisabilité. Je fais cela pour une application d'entreprise interne qui sera finalement offerte en tant que SasS.
J'ai recruté un petit groupe d'utilisateurs qui représente littéralement 100% de nos utilisateurs nationaux. (Ce sera un produit international pour une industrie très niche.)
J'ai fait une analyse des tâches et j'ai eu de multiples opportunités d'observation contextuelle.
J'ai analysé leur système actuel, interviewé des utilisateurs actuels et examiné des données analytiques et commerciales pour mieux comprendre les besoins des utilisateurs et des entreprises.
J'ai créé un prototype semi-interactif de fidélité moyenne pour exécuter un test d'utilisation formatif initial.
Ma question est: quelle est l'importance du script?
J'ai créé un petit script de tâches. C'est à dire)
1)Login, search for Customer "X" by Name.
2)Identify customer's mailing address.
3)Find navigation instruction to customer's address.
Bien que ces tâches soient basées sur une véritable représentation des tâches quotidiennes d'un utilisateur, je crois comprendre qu'un test d'utilisabilité suit beaucoup plus une version scriptée.
Y a-t-il quelque chose de mal à faire un script basé sur une tâche s'il est une vraie représentation du flux de travail quotidien des utilisateurs?
Dois-je vraiment dire des choses comme "Vous travaillez pour XXXX, un client qui téléphone. Vous devez localiser ce client dans le système." Ou puis-je simplement confier à l'utilisateur de très petites tâches spécifiques.
Je demande parce que cela, étant ma première fois, me met mal à l'aise. Je préfère leur donner des tâches et des analyses simples. Mais en même temps, si cela faussera mes résultats, je prendrai le temps approprié pour écrire un script.
Qu'est-ce que tu penses? Quelle a été votre expérience.
Voici quelques réponses à différentes parties de votre question avec quelques conseils:
Un script est important car la façon dont vous demandez peut souvent être trompeuse ou créer un parti pris. Par conséquent, c'est une bonne idée d'exécuter un test pilote, de voir ce que vous obtenez en retour et d'affiner votre script si nécessaire.
Un script pour ce type de test devrait commencer par contextualiser ce que vous avez mentionné: "Vous travaillez pour XXXX, un client de téléphones dans ..." Vous voulez contextualiser les utilisateurs aussi près que possible d'un scénario réel - et ne supposer rien .
Un script basé sur une tâche est très bien, mais vous devriez demander aux gens de PENSER FORT pendant qu'ils exécutent la tâche. Suivi w/questions relatives à la tâche telles que "Do task XXXX. Quelque chose de difficile ou de peu clair? Pourquoi?'
Voici un script raffiné basé sur celui que vous avez publié:
Imagine you are working for XXXX, a customer phones in. You need to locate this customer in the system. THINK OUT LOUD what you see, how you feel, and what catches your eye or interest as you go through each of the tasks below.
1)Try logging in and searching for Customer "X" by Name. Anything unclear, unexpected or difficult? Why?
2)Identify customer's mailing address. Think out loud as you try to do this.
3)Find navigation instruction to customer's address.
Vous pouvez trouver plus d'informations à ce sujet dans un article que j'ai écrit ici .
Ajout de quelques points à la réponse de Junu:
Le script est important car vous le faites pour la première fois et aucun de nous n'est un super humain pour se souvenir de toutes les étapes d'un test. Ayez un script détaillé et imprimez-le pour référence.
En plus des tâches, vous devez également commencer par quelques choses comme demander leur consentement pour enregistrer la session (si vous enregistrez, ce que vous devriez), indiquez clairement à l'utilisateur que les enregistrements ne seront pas partagés en dehors de l'équipe de conception et juste pour prendre des notes. Une fois que vous avez terminé les tâches, posez-leur quelques questions subjectives et terminez-les en les remerciant de leur temps et dites-leur que vous avez hâte de suivre des sessions similaires à l'avenir.