Je fais des tests d'utilisabilité depuis quelques années maintenant pour une variété de produits et d'interfaces. Celles-ci ont été en personne et à distance, haute et basse fidélité, structurées et non structurées. J'ai travaillé sur un script général d'introduction des participants aux meilleures pratiques pour un usage personnel et à partager avec des collègues.
Manque-t-il quelque chose? Quelque chose ne va pas ou n'est pas aussi bon qu'il pourrait l'être? Y a-t-il des meilleures pratiques établies auxquelles je devrais faire référence?
Introduction à l'étude d'utilisation générale:
Aujourd'hui, nous allons vous montrer un prototype d'une nouvelle expérience et vous demander votre avis
Veuillez pensez à haute voix lorsque vous utilisez le prototype
Si vous posez des questions, je pourrais répondre par une forme de "Eh bien, que pensez-vous que cela devrait faire?"
Votre script est bien parti. Je me réfère à la Liste de contrôle pour le briefing Prestest (Figure 5.7) dans Modération des tests d'utilisabilité par Joe Dumas et Beth Loring.
En outre, voici quelques bonnes pratiques:
Remarque: Il y a un débat sur le terrain sur le temps que nous devrions passer à établir des relations et à fournir des instructions. Rolf Molich a donné une conférence à l'UPA 2011 intitulée "Le rapport de Babble et d'autres observations de l'évaluation des tests d'utilisabilité". Il a constaté que les pratiquants passent un temps choquant à discuter et à expliquer les choses.
Au lieu de leur demander de "vous faire savoir ce qu'ils pensent", il sera parfois plus utile de le formuler comme "veuillez réfléchir à haute voix lorsque vous utilisez le prototype". Une autre chose que je pourrais mentionner est que "je suis juste la personne qui effectue le test, alors n'hésitez pas à exprimer votre opinion". Il est peut-être utile de leur faire savoir que vous observez simplement.
Une autre déclaration que je mentionne toujours est la suivante: "S'il vous plaît, ne pensez pas qu'il n'y a pas de bonne approche ou de bonne façon d'atteindre l'objectif final. Nous voulons voir toutes les façons dont vous abordez la tâche et ce qui fonctionne le mieux pour vous car cela nous fournira des informations sur comment les utilisateurs peuvent utiliser cette application. Si vous voyez plusieurs façons d'effectuer une tâche, veuillez nous faire savoir ce que vous aimez\n'aimez pas concernant une approche spécifique "
L'avantage de cette déclaration est que les gens savent qu'ils ont une liberté totale pour effectuer la tâche comme ils le souhaitent et leur poser des questions sur les problèmes de chaque approche aide à définir des détails tels que le positionnement d'un bouton d'appel à l'action et la réplication de liens (disons dans le en-tête et pied de page)
J'aime ce que tu as ici; c'est très similaire à ce que j'ai utilisé auparavant. Ma seule suggestion serait d'éviter autant que possible d'utiliser le mot "test", même dans l'expression "test d'utilisabilité". C'est un mot déclencheur qui (d'après mon expérience) amène immédiatement les gens à penser qu'ils prennent les SAT et qu'ils vont échouer et devront travailler chez McDonalds pour le reste de leur vie s'ils échouent.
D'accord, c'est peut-être un peu trop dramatique, mais j'ai vu beaucoup de gens devenir très nerveux à l'idée de participer à un test d'utilisabilité. Je fais donc de mon mieux pour ne jamais dire le test Word (sauf peut-être dire explicitement "ce n'est pas un test") et plutôt dire "étude d'utilisabilité".
C'est un point mineur, mais les participants nerveux font des études misérables!
Il s'est avéré utile de payer les frais d'indemnisation au début du test afin que les utilisateurs ne se sentent pas obligés de travailler à quelque chose qu'ils pensent que vous voulez entendre pour obtenir de l'argent.
Nous insistons toujours sur le fait que la compensation est uniquement pour la présence et que ce n'est pas eux qui sont testés.