Je suis allé sur le même site Web sur deux navigateurs différents, et j'ai obtenu deux mises en page + design différents. J'étais en cours de test A/B. Je n'ai pas aimé ça, probablement parce que:
Existe-t-il des études/recherches pour mesurer l'effet du test A/B lui-même sur l'utilisateur, si celui-ci se rend compte qu'il est en train d'être testé A/B? Seront-ils moins susceptibles de rester sur le site?
Je ne connais aucune étude publiée.
Je sais que d'avoir introduit les tests A/B dans plusieurs organisations:
Je soupçonne donc que le nombre de personnes qui seraient toutes deux en situation de remarquer des différences, et qui considéreraient cela comme négatif, sont suffisamment faibles pour que vous puissiez les ignorer.
Bien sûr, cela dépend de la façon dont vous abordez vos tests. Nous ne divisons jamais les principaux changements d'interface utilisateur de test sans faire d'abord des tests de convivialité de base pour éliminer les stupidités évidentes.
Je ne connais aucune étude, mais je peux vous donner quelques conseils pour vous aider à garder vos résultats plus significatifs.
Si vous voulez vraiment tester le logiciel de test, il ne devrait pas être trop difficile d'écrire la logique côté serveur ou "déployé" vs "non déployé" dans une sorte de test A/A.
Le point # 4 est important, personnellement. À la fin de la journée, si un visiteur souhaite acheter sur votre site, il le fera, quelles que soient vos habitudes de test. La seule exception étant des choses comme le prix et les avantages offerts. Mais, ces (tests de prix) vous donneront probablement les meilleures informations sur ce qui motive la conversion ... pas seulement "aiment-ils les boutons bleus ou verts"
Vous avez raison, les utilisateurs se comportent différemment lorsqu'ils savent qu'ils sont testés. Ils peuvent avoir l'impression que quelque chose ne va pas, je sais que depuis que nous vendons des logiciels de test A/B et début 2012, nous avons eu le sentiment que quelque chose n'allait pas. Nous remplacions le contenu à l'aide de jQuery en arrière qu'après DOM-ready et parfois les gens étaient un clin d'œil ... un ancien morceau de contenu de chargement qui a été relativement rapidement remplacé par la nouvelle variante.
Nous avons constaté que lorsque nous codions en dur la même variation côté serveur, nous pouvions augmenter les conversions de 18%. Donc, nous savons maintenant de cette expérience que l'installation d'un Javascript lourd abaisse le taux de conversion, faire des échanges après DOM-ready pourrait affecter les conversions jusqu'à 18%.
En mai 2012, nous avons amélioré la technique et apporté des modifications à l'interrogation toutes les 50 millisecondes avant de préparer DOM. Lisez un peu plus sur cette expérience ici dans le blog Convert.com .