La réponse généralement acceptée à la question sur gauchers et utilisabilité est que plutôt que de demander aux utilisateurs quelle main ils utilisent pour déterminer votre mise en page, vous devez les laisser choisir leur propre mise en page (car le choix de la disposition peut être indépendante de la main dominante).
Dans le contexte d'une application à écran tactile, je me demande s'il est toujours vrai que vous ne devriez pas donner à l'utilisateur la possibilité de définir sa main préférée. Étant donné que la disposition ne doit pas être définie en fonction des préférences de la main, y a-t-il des avantages à connaître la main préférée d'un utilisateur?
Par exemple, existe-t-il des preuves suggérant que la connaissance de la main dominante de votre utilisateur peut vous aider à interpréter certains gestes (tels que les balayages et les pincements) avec plus de précision?
Je dirais que la "neutralité" d'un utilisateur n'est qu'une information limitée. De nombreux autres facteurs affectent la façon dont un utilisateur interagit avec l'écran tactile d'un appareil portatif. Vous pourriez être allongé sur le côté, ou peut-être poser votre smartphone sur une table. Bien qu'un geste (par exemple, un balayage latéral) puisse avoir une courbure différente lorsqu'il est effectué avec l'une ou l'autre main, il sera également différent selon la position de l'utilisateur par rapport à l'appareil.
Je m'attendrais également à ce que l'appareil réagisse de la même manière pour mes deux mains. Une pincée à deux doigts pour droitier touchera probablement en haut à droite et en bas à gauche, tandis que la main gauche serait en haut à gauche et en bas à droite. Je ne m'attendrais pas à ce que l'appareil s'en soucie. Et rien ne m'empêche de faire une pincée pour gaucher touchant en haut à droite et en bas à gauche, si c'est naturel d'où je suis assis.
Le but d'ajouter des informations à la détection des gestes serait d'élargir la détection des gestes. Pour attraper un geste que vous auriez autrement manqué si vous ne saviez pas que l'utilisateur est gaucher. Ou que l'appareil est sur une table. Je suppose, sans recherche, que l'argument est en fait assez petit. La détection des gestes est déjà assez large lorsqu'il s'agit de choses comme la détection d'un balayage incurvé. Les appareils ignorent généralement un geste lorsqu'il est trop proche d'un autre geste (où ces 3 ou 4 doigts? Était-ce un robinet?).
En regardant cela sous un angle différent, je m'attendrais également à ce que l'appareil agisse comme une machine en ce qui concerne mon entrée. Pour avoir des limites claires pour savoir quand détecter un geste ou l'autre, ou quand un geste échoue. Lorsqu'un système devient plus flou quant à l'interprétation de mes entrées, par exemple lorsqu'il pense que je pourrais utiliser ma main gauche, cela le rend également moins prévisible et plus ouvert aux erreurs dans cette interprétation. Lorsqu'une interface que vous utilisez beaucoup est stricte et prévisible, vous pouvez apprendre quel type d'entrée elle comprend et dans quelles situations elle échouera.
Donc, c'est un peu long pour dire que non, je n'ai pas de preuves pour soutenir votre hypothèse et je doute qu'elle existe, mais je peux me tromper :)
Pas exactement lié, mais cet article travaille à identifier la main et à adapter les interactions en fonction de celle-ci.
Il aborde le problème dans l'autre sens, plutôt que de regarder la précision des gestes basés sur la main, il essaie de comprendre la prise en main et d'adapter l'interface utilisateur en fonction de cela.
Si je peux utiliser l'analogie de l'écriture, le fait d'être gaucher ou droitier n'affecte pas vraiment la façon dont les informations doivent être présentées, mais cela affecte la façon dont le contenu est créé. La douleur des utilisateurs gauchers maculant leur écriture lorsqu'ils traitent avec la mise en page normale d'un livre/page est devenue une chose du passé avec le clavier et la souris, et en général il n'y a pas eu de changement en termes de navigation et de mise en page des applications et du Web les pages qui sont nécessaires car il s'agit uniquement de la présentation du contenu. Donc, fondamentalement, nous devons examiner le logiciel par rapport au problème matériel ici.
L'écran tactile réintroduit l'interaction, mais il y a deux aspects à cela. Le premier est que les préférences en termes de disposition et de position des éléments de l'interface utilisateur tels que les barres d'outils sont très flexibles de nos jours et ne concernent pas vraiment la gauche ou la droite, mais les préférences personnelles et le flux de travail. La seconde est que les éléments physiques sont toujours pertinents (il existe donc des tablettes Wacom pour gauchers) et c'est la seule chose qui doit probablement être prise en compte. S'il y a des cas où le logiciel a besoin de connaître le périphérique physique, il peut y avoir une bonne raison à cela, mais je n'y pense pas.