Bonne journée,
En référence à l'expérience récente et vérifiez les possibilités d'avocats possibles dans la portée des interfaces vocales dans la pratique, plusieurs questions ont semblé définir la qualité du service fourni (Siri, Google Assistant).
Quel est le niveau de sophistication des algorithmes dans le contexte de l'expérience utilisateur?
Problèmes connexes: https://ai.stackexchange.com/questions/1461/are-sir-and-cortana-ai-programs
À partir de maintenant jusqu'à ce que le Tech est concerné, les réponses à vos 5 points sont:
Pas assez.
La plupart ont une personnalité de base qui leur est attachée, qui est perceptible avec des requêtes "blagues" ou avec des requêtes prévisibles telles que "Comment est mon emploi du temps?". Dans les deux cas, pour le moment, il n'y a pas d'algorithme à créer de nouvelles réponses, mais à la place, il y a un groupe léger de modèles écrits pensivement qui sont ensuite utilisés pour former une réponse.
Oui.
Mais cette tendance à apprendre est plus encline à examiner le ratio de réussite pour avoir terminé les requêtes des utilisateurs de manière adéquate et ce que l'utilisateur est susceptible de demander.
Non.
Pas dans la façon dont nous faisons. Il existe plusieurs groupes vocaux, accents et même des intonations, mais ceux-ci sont différents. Google a travaillé sur synthèse expressive de la parole qui vise à s'améliorer au flux naturel de parler et a eu beaucoup de succès (techniquement), mais il y a des moyens d'aller.
Non.
Ils sont censés être fiables et alertes à tout moment, ce qui ne permettrait pas de comportement incohérent provoqué par des "humeurs" comme concept.
Pas encore.
Encore une fois, il y a eu du bruit sur la mesure de pouvoir personnaliser les actions en ce qui concerne les personnes identifiées autour de l'utilisateur primaire, mais je ne trouve pas de source pour le moment de la remonter.