web-dev-qa-db-fra.com

Lignes directrices sur la conception d'interfaces audio uniquement (par exemple pour les utilisateurs aveugles)?

Il existe de nombreuses ressources qui fournissent des directives d'accessibilité - des conseils pour rendre le contenu facile à lire par un lecteur d'écran, ou des rappels sur le contenu que les utilisateurs aveugles ne peuvent pas glaner. C'est assez courant.

Cependant, ce que je vois rarement, ce sont des lignes directrices pour l'utilisabilité audio - des lignes directrices qui détaillent les différentes façons dont les utilisateurs non voyants doivent traiter les informations, et les façons d'utiliser le son, la hauteur, la vitesse et les pauses pour signifier le sens.

Quelques détails que j'aimerais apprendre:

  • Dans les interfaces visuelles, je peux exploiter le sens inné de certaines couleurs - le rouge pour les erreurs, par exemple. Puis-je faire quelque chose de similaire avec l'audio?
  • De même, dans une interface utilisateur voyante, je peux utiliser la couleur, la forme et l'appartenance pour signifier la parenté et la relation entre les éléments. Cela peut-il être fait uniquement avec l'audio?
  • Nous avons tous vu des interfaces qui utilisent le mouvement et le positionnement pour suggérer des analogies physiques ou invoquer un événement du monde réel. Pensez à un élément supprimé qui se fond dans le néant ou à un élément inactif qui semble en retrait. Comment puis-je utiliser le son pour invoquer des concepts physiques similaires?
  • Dans des scénarios réels, à quelle vitesse les utilisateurs sans l'avantage de la vue peuvent-ils naviguer à travers une interface ou un plan du site?
  • Les utilisateurs non voyants adoptent-ils différentes habitudes de navigation ou stratégies de recherche pour leurs homologues voyants?

Quelqu'un a-t-il des ressources ou des conseils sur les défis spécifiques de la conception d'interfaces qui reposent entièrement ou principalement sur la sortie audio?

16
Jimmy Breck-McKye

L'une des questions soulevées était en quoi les interfaces audio diffèrent-elles des interfaces visuelles . Je crois que cela passage l'explique très bien:

Les interfaces audio présentent le contenu de façon linéaire aux utilisateurs, un élément à la fois. Cela contraste avec la façon dont la plupart des gens utilisent les interfaces visuelles. Les utilisateurs voyants peuvent numériser un écran entier presque instantanément, en comprenant la mise en page globale, le style artistique et d'autres aspects au niveau macro du contenu. Les utilisateurs de lecteurs d'écran ne peuvent pas comprendre ces aspects au niveau macro aussi rapidement. La progression linéaire à travers le contenu du début à la fin est un peu comme les systèmes de menus téléphoniques automatisés qui ne révèlent pas toutes les options à la fois. Les utilisateurs doivent progresser dans ces systèmes de manière progressive

Vitesse de lecture : La plupart des gens qui s'appuient sur des signaux audio s'appuient sur des lecteurs d'écran pour accéder au contenu.Le contenu lu à l'aide de lecteurs d'écran peut être lu à des vitesses allant de jusqu'à 300 mots/minute ou plus. La vitesse de lecture n'est jamais fixe et peut varier et dépend de l'expérience du lecteur comme souligné ci-dessous:

Les lecteurs d'écran ne lisent pas le contenu Web tout comme les êtres humains. La voix semble quelque peu robotique et monotone. De plus, les utilisateurs expérimentés aiment souvent accélérer le taux de lecture à 300 mots par minute ou plus, ce qui est plus que ce que l'auditeur inexpérimenté peut facilement comprendre. En fait, lorsque beaucoup de gens entendent un lecteur d'écran pour la première fois, au rythme normal d'environ 180 mots par minute, ils se plaignent qu'il se lit trop rapidement. Il faut du temps pour s'habituer à un lecteur d'écran, mais la chose intéressante est qu'une fois que les utilisateurs s'y sont habitués, ils peuvent parcourir le contenu à des vitesses qui peuvent étonner les personnes voyantes.

En ce qui concerne le réglage de la vitesse de lecture standard pour les utilisateurs, il y a cette discussion intéressante sur ce site sur la question de ne question sur les normes de vitesse du lecteur d'écran .

Cette discussion traite principalement du nombre de logiciels de lecture d'écran permettant aux utilisateurs de définir des vitesses de lecture sur une échelle pour s'acclimater et quels sont les défis impliqués dans la détermination de ces échelles

Comment les lecteurs d'écran lisent-ils le contenu et comment cela devrait influencer les décisions de conception/contenu - Étant donné que la plupart du contenu lu à l'aide de lecteurs d'écran se trouve sur le Web , la plupart des directives leur sont applicables, mais je suppose qu'elles pourraient également être étendues aux interfaces logicielles. Voici certaines des directives concernant la lecture et le rendu du contenu en signaux audio

  • Les lecteurs d'écran font une pause pour les points, les points-virgules, les virgules, les points d'interrogation et les points d'explication.
  • Les lecteurs d'écran font généralement une pause à la fin des paragraphes.
  • Les lecteurs d'écran essaient de prononcer des acronymes et des mots absurdes s'ils ont suffisamment de voyelles/consonnes pour être prononçables; sinon, ils épelent les lettres. Par exemple, la NASA est prononcée comme un mot, tandis que NSF est prononcé comme "NSF" L'URL de l'acronyme est prononcé "earl", même si la plupart des humains disent "URL" L'acronyme SQL n'est pas prononcé "suite" par les lecteurs d'écran même si certains humains le prononcent ainsi, les lecteurs d'écran disent "SQL"
  • Les utilisateurs de lecteurs d'écran peuvent faire une pause s'ils ne comprennent pas un mot et revenir pour l'écouter; ils peuvent même demander au lecteur d'écran de lire les mots lettre par lettre. Lors de la lecture des mots lettre par lettre, JAWS fait la distinction entre les majuscules et les minuscules en criant/soulignant les majuscules.
  • Les lecteurs d'écran lisent les lettres à haute voix au fur et à mesure que vous les saisissez, mais dites "étoile" ou "astérisque" pour les champs de mot de passe.
  • Les lecteurs d'écran annoncent le titre de la page (l'attribut dans le balisage HTML).
  • Les lecteurs d'écran liront le texte alternatif des images, si le texte alternatif est présent. JAWS précède le texte complet avec le mot "graphique". Si l'image est un lien, JAWS précède le texte alternatif avec "lien graphique".

Veuillez lire les directives restantes ici

Ceci est une bonne lecture: Conseils et outils d'utilisabilité pour les malvoyants sur le Web

En ce qui concerne les défis de la conception de solutions accessibles avec une sortie audio spécifique pour des appareils tels que les téléphones intelligents et les appareils qui ne fournissent plus une perception du toucher haptique, je recommanderais fortement de lire cet excellent document CHI Gestures utilisables pour les aveugles: Comprendre les préférences et les performances par mon professeur et l'un de mes assistants :). Pour citer ce que le document dit sur les défis impliqués dans la conception de l'accessibilité dans les téléphones intelligents

Bien que les lecteurs d'écran soient désormais inclus dans les téléphones Android et Apple , les écrans tactiles accessibles posent toujours des défis aux utilisateurs et aux concepteurs.

Les utilisateurs doivent être en mesure d'apprendre de nouvelles applications à écran tactile rapidement et efficacement, tandis que les concepteurs doivent être en mesure de mettre en œuvre des techniques d'interaction à écran tactile accessibles pour une large gamme d'appareils et d'applications. Parce que la plupart des concepteurs d'interface utilisateur sont perçus, ils peuvent avoir une compréhension limitée de la façon dont les aveugles vivent la technologie. Un concepteur qui souhaite créer une nouvelle application accessible par écran tactile est actuellement confronté à plusieurs défis.

  1. Premièrement, alors que les interfaces à écran tactile pour les utilisateurs voyants sont en grande partie cohérentes en raison de gestes désormais familiers tels que le tapotement, le balayage et le pincement, les interfaces à écran tactile pour les utilisateurs aveugles varient considérablement d'une plateforme à l'autre.
  2. Il existe très peu d'exemples sur la façon d'étendre les interfaces accessibles à écran tactile à des appareils autres que les smartphones.
  3. un concepteur qui souhaite fournir des gestes dans sa demande doit déterminer si les gestes conviendront à un utilisateur aveugle. Bien que les aveugles puissent utiliser le même matériel que leurs pairs voyants, il est possible qu'ils préfèrent utiliser des gestes différents ou qu'ils effectueront les mêmes gestes différemment d'une personne voyante. Les personnes voyantes effectuent des gestes différemment lorsqu'elles manquent de rétroaction visuelle, et il est raisonnable de supposer qu'une personne aveugle peut également effectuer des gestes différemment d'une personne voyante.

Pour résumer ses conclusions en ce qui concerne la conception d'interfaces de smartphone pour les utilisateurs aveugles (, notez que toutes les conclusions ne sont pas applicables d'un point de vue audio, mais mettent en évidence des facteurs qui aideraient à une meilleure génération audio pour plus de facilité. d'utilisation )

  1. Évitez les symboles utilisés dans l'écriture imprimée. Les utilisateurs aveugles peuvent avoir une connaissance limitée des symboles utilisés dans l'écriture imprimée, tels que les lettres, les chiffres ou la ponctuation. Même lorsque ces symboles sont connus, les utilisateurs peuvent ne pas être habitués à eux ou ne pas être à l'aise pour les exécuter.
  2. Privilégiez les bords, les coins et autres points de repère. La localisation de points précis sur la surface de l'écran tactile peut être très difficile pour un utilisateur qui ne peut pas voir l'écran. Les bords physiques et les coins d'un écran tactile sont des repères utiles pour une personne aveugle. Le fait de placer des fonctions critiques dans ces zones améliorera l'accessibilité et réduira la probabilité que l'utilisateur déclenche ces fonctions accidentellement. Réduisez la demande de précision de localisation. Les utilisateurs aveugles peuvent être moins précis dans le ciblage de zones spécifiques de l'écran, y compris les bords et les coins. Ce problème peut être réduit en augmentant la taille de la cible ou en autorisant des méthodes de ciblage approximatives, telles que permettre à un utilisateur de toucher près d'une cible, puis d'explorer avec son doigt pour la localiser plus précisément.
  3. Limitez le traitement des gestes en fonction du temps. Les aveugles peuvent effectuer des gestes à un rythme différent de celui des personnes voyantes. Ainsi, l'utilisation de la vitesse du geste comme fonction de reconnaissance ou comme paramètre (comme dans le défilement cinétique) peut entraîner une augmentation des erreurs pour les utilisateurs aveugles.
  4. Reproduisez les dispositions spatiales traditionnelles lorsque cela est possible. Les objets avec des dispositions spatiales et tactiles familières, comme un clavier QWERTY clavier ou téléphone, sont instantanément familiers à de nombreuses personnes aveugles. La reproduction de ces dispositions peut faciliter l’apprentissage et l’utilisation nouvelle interface.

Enfin, la vidéo de la règle des diapositives du projet montre comment les signaux audio peuvent aider une personne aveugle à utiliser un téléphone intelligent

Ouf c'est un long post :)

6
Mervin