Chatbot : un conte de fée pour les utilisateurs ?

Actualité ekino -

Quelques réflexions autour de la relation UX homme-chatbots

Article paru le :
Chatbot : un conte de fée pour les utilisateurs ?
Article paru le :

Avec la collaboration de Ky Lân Vu Tong

Depuis ce début d’année, on entend beaucoup parler de chatbot. Ils redeviennent tendance grâce à des acteurs comme Facebook, qui donnent la possibilité de les intégrer directement dans leur application Messenger. Soucieux de créer toujours de nouvelles expériences à travers leurs plates-formes, et avec une application de messagerie qui compte désormais près de 900 millions d’utilisateurs, Facebook permet aux marques de se ré-approprier ce canal qui leur a toujours échappé. Rappelons nous de l’introduction des fanpages qui avaient bouleversé la manière dont les marques devaient communiquer avec leurs consommateurs sur le web. Les chatbots leur permettent d’aller encore plus loin dans l’expérience de marque et notamment de pouvoir avoir une relation directe et privilégiée avec leurs consommateurs.
De plus, avec le constat que les détenteurs de smartphone n’utilisent que très peu d’applications à cause de la charge cognitive que ça implique (la télécharger, s’inscrire, apprendre à s’en servir, s’en servir au quotidien, etc), Facebook en est arrivé à la conclusion que les services proposés par les marques à travers ces applications pouvaient passer directement par Messenger.

Début juillet, plus de 11 000 bots existaient sur Messenger. Sur les quelques chatbots que nous avons testés (Poncho, CNN, KLM, Meetic, etc), nous trouvons que leur expérience utilisateur pourrait être améliorée. Dès lors, quels sont les leviers possibles en terme d’expérience, pour encourager l’adhésion à ce concept ? Quelle est l’expérience ultime du chatbot ?

Petit histoire du chatbot

Les chatbots ou agents conversationnels existent depuis environ 50 ans. Un des tout premiers chatbots s’appelle ELIZA, conçue pour simuler un psychothérapeute rogérien. ELIZA fonctionne grâce à l’analyse sémantique. C’est-à-dire par reconnaissance de formes et de mots-clés et répond grâce à ce modèle structurel. Cette première expérience a tellement bien fonctionné qu’elle a donné son nom à un nouveau symptôme “l’effet ELIZA”. L’effet ELIZA désigne la tendance à assimiler de manière inconsciente le comportement d’un ordinateur à celui d’un être humain. Ce comportement découle directement de notre capacité à l’anthropomorphisme. Cette façon que nous avons d’attribuer des caractéristiques humaines au moindre objet / animal / figure est ancrée très fortement depuis la petite enfance. Un simple smiley est interprété en visage amical seulement grâce à ces éléments de ponctuation : )

Alors qu’ELIZA a été conçue dans le but précis d’aide à la personne, d’autres chatbots ont vu le jour à des fins purement conversationnelles, par exemple Cleverbot. Cleverbot fonctionne différemment d’ELIZA : il est basé sur l’apprentissage. Plus on lui parle, plus il apprend et plus il est capable de répondre à une phrase donnée par rapport aux conversations qu’il aura eu auparavant. Cleverbot est donc là pour discuter. Malheureusement la discussion coupe court car très vite, le robot répond des choses incohérentes. Résultat d’un apprentissage sans compréhension du contexte ni discernement des intentions de l’interlocuteur.

Le test de Turing

Lorsqu’on parle d’expérience concernant les chatbots, on entend souvent parler aussi du test de Turing. Il teste la capacité de la machine à imiter l’être humain dans une conversation écrite. Ce test est très simple : via une interface, il consiste à confronter une personne face à un ordinateur et face à une autre personne. Si le cobaye n’arrive pas à distinguer l’ordinateur de son homologue humain, le test est réussi.

Contrairement aux idées reçues, ce test a été franchi avec succès de nombreuses fois.

ELIZA et Cleverbot eux-même, y ont été soumis et ont plutôt réussi. Controversé, le test de Turing ne teste pas l’intelligence de l’ordinateur mais son imitation d’une conversation avec un homme. Cependant, que recherche-t-on aujourd’hui, lorsque nous conversons avec un chatbot ? L’illusion de la compréhension et de l’expression naturelle n’est-elle pas suffisante pour assurer un dialogue satisfaisant ?

Attention ! Nous ne parlons pas de faire croire à un utilisateur qu’il parle à un être humain alors que ce n’est pas le cas. Il s’agit d’instaurer un dialogue naturel avec une machine présentée comme telle.

Pour une expérience idéale

Nous supposons que pour obtenir une bonne expérience, un utilisateur préférera discuter de manière fluide et simple avec un chatbot. En d’autres termes, discuter comme avec un autre être humain. Afin d’optimiser au mieux cette expérience, il est préférable de déterminer des traits d’expression qui, en provoquant l’imaginaire de l’utilisateur, lui feront projeter un caractère. Un profil psychologique qui n’existe bien sûr pas.

Cependant, cet imaginaire nous semble nécessaire pour créer un lien relationnel nécessaire à la bonne conduite de la conversation.

Pour cela, nous avons théorisé quelques pistes qui pourraient aider / faciliter l’adhésion des chatbots dans notre vie quotidienne.

  • L’empathie

L’empathie est un des éléments qui va permettre de créer une expérience fluide et agréable. Cela facilitera la relation de confiance entre l’utilisateur et le chatbot. Concernant ce dernier, il peut en montrer des signes tels qu’être à l’écoute de son interlocuteur, montrer un désir de mieux le connaître, lui poser des questions, orienter la discussion vers l’utilisateur et son besoin. Ces signes qui créent une expérience agréable sont aussi mis en place dans le but de récolter des données afin de s’ajuster au mieux à l’utilisateur.

De l’autre côté, l’utilisateur aura l’impression d’être entendu, écouté et compris.

  • L’illusion d’ego

Le chatbot devrait simuler une individualité. Il utilisera le pronom « Je » pour parler de lui et donner l’illusion d’un ego. Il pourra même être amené à exprimer des signes de désir (“J’aurai aimé…, j’ai toujours rêvé de…”), d’hésitation (“Je ne sais pas…”), d’appréhension, etc. afin de lui donner un aspect plus humain. Il n’a pas besoin d’être parfait, ni de comprendre systématiquement car l’incompréhension est humaine. Ainsi, cela stimulera l’imaginaire de l’utilisateur et cela lui permettra de se projeter plus facilement.

C’est ce qu’a essayé de faire Meetic avec ces deux chatbots. Ils ont créé les profils de Lara et Tom afin que l’utilisateur puisse avoir l’impression de discuter avec une vraie personne. Mais ici l’expérience chute avec le jeu de questions/réponses à clic.

  • Le langage

Le langage naturel est ce qui fera la différence entre parler à un robot et parler à un chatbot sympathique. Aujourd’hui, il existe deux types de chatbots : celui dicté par les commandes et celui qui tente d’imiter le langage naturel en analysant les mots de son interlocuteur. Pour imiter au mieux l’expression naturelle, cela passe par l’humour, les temps de réflexion, inclure les sonorités à l’écrit, des smileys montrant des intentions ou des émotions, partager le même niveau linguistique car cela permet de garder une proximité avec son interlocuteur. Attention tout de même à évaluer la distance sociale que l’utilisateur souhaite garder car tout le monde ne souhaite pas être familier avec son assistant virtuel.

Toutes ces micro-interactions / actions qui sont les éléments d’une conversation normale, adaptées au contexte, donnent l’illusion d’une écoute attentive et d’une envie d’offrir un service.

  •  Le contexte de discussion

Ce qui peut faire la force d’un chatbot est sa prise en compte du contexte. En effet, répondre “Je mange des pommes.” à la question “Salut, ça va ?” cassera automatiquement l’expérience ainsi que l’espoir de l’utilisateur d’avoir une expérience conversationnelle avec son chatbot. Or, ici, si le bot prenait en compte le contexte tel que :

  1. le début de la conversation,
  2. le fait que ce soit une question,
  3. et l’analyse sémantique de la phrase ;

cela lui permettrait sûrement de pouvoir répondre “Oui, ça va.”. Ainsi, l’utilisateur gagnerait en confiance et continuerait à parler “normalement” avec son chatbot. Bien entendu, plus la discussion avance, plus la conversation est difficile à tenir. C’est pourquoi, déterminer un périmètre d’intervention précis permet au robot d’avoir un contexte de réflexion donné et connu de l’utilisateur. Cela limitera les déceptions de l’utilisateur lorsqu’il lui pose une question à laquelle il ne peut pas répondre.

Cependant, un système de rattrapage pour recentrer la conversation peut s’avérer utile dans le cas où l’utilisateur sort du contexte du chatbot. Par exemple, dès l’instant où le chatbot n’a pas un indice de confiance suffisant dans son analyse contextuelle de la phrase de l’utilisateur, il peut demander une réponse plus claire sans pour autant faire chuter l’expérience.

Dans le cas d’un chatbot de réservation de billets de train par exemple, “Veuillez reformuler votre réponse.” est moins engageant que “Je n’ai pas bien compris. Voulez-vous toujours partir à Rome ?”.

Conclusion

Nous avons abordé ici les chatbots du point de vue d’une expérience complète et naturelle. Suite à cette réflexion, nous pourrions nous poser la question de savoir si l’illusion de parler comme avec un être humain lorsqu’il converse avec un chatbot, est vraiment l’expérience ultime qu’un utilisateur recherche. En réalité, cette question n’a pas lieu d’être aujourd’hui car nous sommes très loin d’atteindre cette expérience.

Si les technologies ont beaucoup évolué depuis les années 50, notamment ces dernières années avec l’arrivée du Machine Learning, l’usage que l’on doit en faire, la direction que devraient prendre les recherches appliquées sont encore à définir.

Alors les chatbots seraient-ils une fausse promesse ? Heureusement non. Nous pouvons déjà créer et évaluer une bonne expérience dans un contexte limité et maîtrisable. Nous vous invitons d’ailleurs à lire l’article d’Emmet Connoly, qui pose des principes de design offrant une expérience utilisateur optimale appliquée à la technologie disponible.

Le contraste entre ces principes et nos recherches nous fait prendre conscience du gouffre technologique qui reste à combler mais aussi de voir à quel point nous essayons d’humaniser la technologie. En effet, nous pouvons constater qu’aujourd’hui, dans un monde où règne la technologie, l’humanisation devient un élément moteur dans son évolution, alors qu’à l’inverse, nous nous appliquons de plus en plus à mesurer, détailler, circonscrire l’humain.