Sur mon lieu de travail, une bibliothèque universitaire, nous avons souvent des conflits prolongés sur la façon d'exprimer les étiquettes, les liens et le texte descriptif.
Par exemple, un lien sur notre page d'accueil mène à une liste de sujets, correspondant pour la plupart à des départements universitaires (anthropologie, commerce, justice pénale). En cliquant sur l'un de ces liens, vous accédez à un guide des ressources de bibliothèque disponibles sur ce sujet. Depuis de nombreuses années, le lien est intitulé "Ressources par sujet".
Dernièrement, nous avons utilisé un produit appelé LibGuides pour produire et maintenir ces choses, et il y a une initiative en cours pour renommer le lien pour obtenir les "guides" Word là-dedans d'une manière ou d'une autre, au motif que nous devons mieux les promouvoir. Mais il y a désaccord sur la façon de le formuler. Les suggestions ont inclus:
Ce problème de phrasé particulier ne m'intéresse pas; c'est illustratif. C'est juste que j'ai remarqué que ce type de conflit revient avec une régularité morne. Nous recevons plusieurs suggestions concurrentes pour de très petites phrases sur le site Web (généralement pas plus d'une phrase), puis passons des jours ou des semaines à débattre avec passion sur la phrase qui convient le mieux à nos utilisateurs.
La question est donc de savoir comment tester quelque chose comme ça? Si j'avais un moyen de collecter des données solides démontrant comment les options assorties fonctionnent avec des utilisateurs honnêtes à bons, je pourrais peut-être mettre un terme à ce conflit interne. Mais j'ai du mal à comprendre comment vous concevez un test qui se concentre sur un seul facteur très spécifique comme celui-ci.
Stratégie 1
Concevez un test utilisateur simple et administrez-le avec de vraies personnes. La méthodologie dépend exactement de ce que vous voulez tester et des ressources dont vous disposez pour effectuer le test. Voici quelques approches pour tester l'exemple que vous fournissez:
Imprimez cinq versions de la page avec le lien en question, chaque version avec une version proposée, plus le contrôle actuel. Rassemblez les sujets de test, disent les étudiants de l'institution. Si vous avez suffisamment de sujets (cela pourrait être quelque chose que vous faites à la cafétéria, passer 2 minutes avec chaque personne), mettez une version devant eux et demandez-leur où ils cliqueraient "pour trouver une liste de ressources par sujet".
Montrez seulement une version à chaque personne et enregistrez où ils pointent. Vous apprendrez 1) dans quelle mesure les gens peuvent le faire sur le contrôle, 2) si l'une des solutions proposées fonctionne mieux que le contrôle, et 3) si quoi que ce soit d'autre sur la page fonctionne mieux que le contrôle ou les solutions proposées.
C'est ce qu'on appelle le prototypage papier. C'est rapide, facile et plus vous collectez de données, plus elles deviennent statistiquement significatives. Certes, le test est sorti de son contexte de l'environnement utilisateur normal, mais il ne devrait pas trop gêner vos résultats.
Stratégie 2
Parcourez l'analyse de votre site pour déterminer les termes de recherche utilisés par les internautes qui les dirigent vers la page de ressources en question. Est-ce que quelque chose éclipse les autres? Des artistes interprètes ou exécutants correspondent-ils aux conditions proposées?
Regardez également la valeur SEO des termes proposés pour ce que vous ciblez (si le trafic de recherche vous intéresse).
Les exercices de tri des cartes sont une alternative. Essayez de lire: http://en.wikipedia.org/wiki/Card_sorting
Ce que vous obtenez du tri des cartes avec les utilisateurs, ce sont des données sur la façon dont ils comprennent et classent les mots dans leur (c'est-à-dire votre) domaine. Dans le "tri des cartes ouvertes" mentionné dans la référence du wiki, les utilisateurs créent leurs propres noms pour les hiérarchies identifiées. Le tri des cartes est très simple à faire et vous pouvez l'utiliser avec n'importe quel nombre d'utilisateurs/intervenants