Mon équipe et moi sommes en train de créer un programme qui utilise la caméra dans la vitre Google pour aider les aveugles à "voir" l'émotion de l'interlocuteur (heureux, triste, en colère, dégoûté, etc.). J'ai besoin d'aide au cas où vous auriez une expérience et savoir comment aider les aveugles à obtenir les informations sur les émotions. La méthode de détection fonctionne bien pour les personnes normales car elles peuvent voir le résultat (texte) sur le moniteur et maintenant nous voulons aider les aveugles à vivre la même expérience. Au début, nous pensons que si nous pouvions utiliser la voix, par exemple la personne de gauche est heureuse, la personne de droite est triste. Mais alors, avoir une sortie vocale serait gênant lorsqu'ils parlent avec d'autres personnes.
Merci de votre aide
Il semble qu'il y ait un problème de transformation, dans ce cas, vous voulez transformer les données émotionnelles en aveugles. J'ai légèrement modifié la sortie de votre voix dans mon idée ci-dessous.
S'il y a un sourire, transformer la sortie vocale de la parole "sourit" (vous ne voulez pas cela)
S'il y a un sourire, transformez-le en une courte mélodie (son). Comme Facebook le fait lorsque vous recevez une notification. Cela réduira radicalement le niveau de perturbation mais vous devez faire exécuter les mélodies dans l'ordre s'il y a deux personnes avec une émotion différente. Dans ce cas, vous devez définir un ordre en fonction de l'émotion qui a reconnu la première politique FCFS.
Vous pouvez attribuer différentes mélodies à votre projet.
Heureux - Melody1
Sad - Melody2
Angry - Melody3
D'un autre côté, veuillez faire quelques recherches sur Finger Braille Systems.
Parce qu'il y a des cas où une personne peut être aveugle et sourde. Donc mon idée de mélodie sera inutile: ((.
L'une des méthodes "par défaut" pour que les personnes aveugles interagissent avec les appareils consiste à ressentir une sorte d'indication (par exemple, des boutons de feux de signalisation vibrants). La meilleure solution serait de pouvoir ressentir l'émotion. Je ne sais pas si Glass est capable de produire des vibrations, mais vous pouvez essayer de lier la position du curseur à l'emplacement et de diffuser l'audio en fonction de l'émotion visible. Mappez la position du doigt sur le curseur à l'emplacement dans le FOV que l'utilisateur veut vérifier, puis émettez un bref son au toucher. L'utilisateur est déjà en mesure de déterminer où se trouve son interlocuteur, il souhaite simplement obtenir des informations supplémentaires.
Si vous ne voulez pas ajouter un appareil supplémentaire, la seule approche à laquelle je peux penser est liée au son, car c'est probablement le sens le plus développé des aveugles.
Au lieu d'utiliser des mots qui peuvent dévier de leur concentration (et être gênant pour l'autre personne si le son est assez fort), vous pouvez utiliser des sons/notes courts, qui peuvent se rapporter à une émotion . (heureux pourrait être une note de piano haute, triste une note de violon haute ou moyenne, en colère une note de piano basse).
C'est le même concept de cette vidéo mais réduit à une note ou à une séquence très courte d'entre eux.
Je pensais juste que le "son" pouvait être un facteur déclenchant évident. Bouchées sonores courtes. Et la lumière? comment les aveugles perçoivent-ils la lumière? Je ne suis pas un expert, mais j'ai trouvé cela http://www.scientificamerican.com/article/how-blind-people-detect-light/
Peut-être pourriez-vous utiliser le niveau de lumière `` d'intensité '' pour former des aveugles (? Utiliser du verre ou un matériel supplémentaire?) ... de fois?) pour indiquer autre chose. Vous devez probablement limiter le nombre à 2 ou 3 fois car nous ne pouvons pas faire compter les utilisateurs au milieu des conversations juste pour comprendre les émotions des interlocuteurs. Comme je l'ai dit, en pensant à voix haute, je ne suis pas un expert. La lumière peut-elle être utilisée pour indiquer de telles émotions?
N.b. Je n'en ai aucune expérience, je viens de voir votre question et je l'ai trouvée assez intéressante.
Que diriez-vous, vibrations qui communiquent à l'utilisateur aveugle un peu comme le code Morse? Si peu de séquences de vibrations qui racontent à l'utilisateur l'émotion que les lunettes ont détectée.
De toute évidence, l'utilisateur devrait soit apprendre les séquences, soit déjà connaître le code Morse. De plus, quels sont les inconvénients de leur envoyer constamment des vibrations, à savoir la gêne, l'irritation, la douleur ...?
Vous pouvez peut-être utiliser une version réduite du système de communication aveugle-sourd, qui est (à ma connaissance) basée sur le toucher des mains et des doigts. Puisque vous avez 5 émotions de base et 5 doigts, vous pouvez utiliser un gant qui reçoit l'apport des lunettes et le transformer en information tactile (vibration, pression douce ou autre) à chaque doigt. Après un certain entraînement, cela pourrait être un moyen facile de percevoir les émotions des autres. Il est heureux = index Il est triste = pouce et ainsi de suite De plus, si votre logiciel peut détecter l'intensité, vous pouvez aussi moduler cette information sur le gant (heureux 2 = pression douce, heureux 10 = beaucoup de pression)