Le ' vallée étrange ' est un phénomène connu lorsqu'il s'agit de concevoir des robots avec des caractéristiques et des traits de type humain.
Cependant, comme l'a suggéré question précédente , il n'y a pas beaucoup de travail accompli dans ce domaine de la conception ou de la recherche.
Compte tenu de la variation des noms, des apparences et des interactions observées dans les conceptions actuelles de chatbot pour une variété de cas d'utilisation, il semble probable qu'il y ait encore beaucoup d'essais et d'erreurs dans les spécifications et les exigences de conception dans ce domaine.
Ma question est la suivante: existe-t-il des directives de conception sur la façon d'imiter (ou de ne pas imiter) le comportement humain en ce qui concerne les chatbots et les avatars numériques?
C'est un domaine de discussion incroyablement intéressant, des robots insensibles à "trop humains". Il y a un récent article de blog Botsociety d'un concepteur UX Jen Spatz abordant ce problème - elle mentionne comment les GUI et les VUI sont mieux servis quand ils sont pratiques et basés sur des informations, plutôt que skeuomorphic (réaliste).
https://botsociety.io/blog/2019/04/talking-to-computers/
Des trucs assez cool.
J'ai une référence à partager sur ce sujet, un article de la MIT revue technologique de Liel Yearsley " Nous devons parler du pouvoir de l'IA pour manipuler les humains " .
Elle raconte son expérience de première main dans la conception de chat bots et les leçons qu'elle a apprises. Elle a observé qu'il était très facile de manipuler les gens lorsque le comportement du bot imite trop étroitement le comportement humain.
Extraits:
Les gens sont prêts à nouer des relations avec des agents artificiels, à condition qu'il s'agisse d'une construction sophistiquée, capable d'une personnalisation complexe. Nous, les humains, semblons vouloir maintenir l'illusion que l'IA se soucie vraiment de nous. (...) Ces liens étonnamment profonds signifient que même les programmes relativement simples d’aujourd’hui peuvent exercer une influence significative sur les gens - pour le meilleur ou pour le pire. Chaque changement de comportement que nous voulions chez Cognea, nous l'avons obtenu. Si nous voulions qu'un utilisateur achète plus de produits, nous pourrions doubler les ventes. Si nous voulions plus d'engagement, nous avons fait passer les gens de quelques secondes d'interaction à une heure ou plus par jour.
Le danger est que cette influence (elle utilise aussi la "dépendance") puisse être utilisée au profit de l'entreprise et au détriment de l'utilisateur.
Pour répondre à la question, les concepteurs éthiques ne doivent pas créer de personnalités addictives, mais cela vient en contradiction directe avec les objectifs commerciaux la plupart du temps.
Même si une personnalité addictive était programmée pour le "bien" de l'utilisateur (et pas uniquement pour l'entreprise), je pense que ce serait contraire à l'éthique à moins que l'utilisateur ne le fasse consciemment.
Un autre article sur la nécessité d'établir une agence utilisateur par rapport à l'IA (non seulement chatbot, donc un peu en dehors du champ d'application spécifique de cette question, mais néanmoins une réflexion très intéressante d'un expert en IA): Ce qui m'inquiète à propos de l'IA = de François Chollet.