Chatbots : passons de l’intelligence artificielle à l’efficacité bien réelle
Par Thomas Gouritin, co-fondateur d'ASISPO
Les croyances, les peurs et les fantasmes liés à l’intelligence artificielle ont encore de beaux jours devant elles. L’avis n°3 sur les agents conversationnels et leurs enjeux éthiques publié par le Comité National Consultatif d’Éthique le 9 novembre les met en lumière pour alerter sur des enjeux éthiques dont il faut prendre conscience dès maintenant. Comme souvent, cet avis est centré sur une vision de l’intelligence artificielle dont découlent directement les problèmes évoqués. Des enjeux qui trouvent des solutions très simples pour peu que l’on utilise autre chose que du machine learning et du deep learning basé sur d’énormes jeux de données.
Il faut penser autrement le dialogue « intelligent »
Pour le grand public, quand on parle de chatbots on arrive très vite au test de Turing et au film « Her » dans lequel Joaquin Phoenix tombe amoureux de son assistante intelligente qui susurre, et un peu plus, dans son oreille, par l’intermédiaire de la voix de Scarlett Johansson. L’imaginaire fictionnel tournant à plein régime, le chatbot doit donc être un assistant omniscient, capable d’être votre médecin, votre ami, votre amant, votre psychologue et votre lecteur d’actualités préféré. La recherche sur le sujet entretient ce mythe en voulant absolument travailler sur des solutions « open domain » qui seraient capables d’entretenir un dialogue cohérent et « humain » sur tous les sujets, par tous les temps et en tous lieux.
Au delà de l’utopie, est-ce bien utile de mettre au point un chatbot capable de siffloter la Marseillaise en vous donnant la météo prévue à New-York dans 3 jours, après vous avoir fourni les dernières informations sur les loutres d’Asie ?
Des assistants spécialisés, pratiques, et accessibles
Dans les faits, sur le terrain, un chatbot bien conçu évite, par définition et par conception, de nombreux risques éthiques énoncés dans l’avis du Comité Consultatif National d’Ethique. Il est conçu pour remplir une tâche ou une suite de tâches données, sans risque qu’il aille raconter n’importe quoi en inventant des réponses basées sur un historique biaisé ou même foncièrement raciste (que peut-il arriver d’autre quand on laisse les internautes « entraîner » un algorithme, ou que l’on s’appuie sur les conversations Reddit comme base de travail ?).
Un chatbot efficace, qui rend un vrai service à l’utilisateur n’est pas forcément « propulsé par l’IA », il n’a pas non plus besoin d’être « auto-apprenant », il a juste besoin d’être bien conçu : dans un but précis et pour des utilisateurs bien identifiés.
Concrètement, quand nous avons conçu ASISPO pour le suivi des patients opérés en ambulatoire avec le Dr Wolfeler, nous avons commencé la réflexion en nous basant sur la prise en charge actuelle, défaillante, pour imaginer un assistant qui s’insère au mieux dans l’expérience du patient.
Cela passe par une attention particulière portée à l’accessibilité du dispositif et à la construction des parcours et des conseils en se basant sur l’expertise de professionnels de santé. Pas en espérant qu’un algorithme trouve tout seul la réponse adéquate quand un patient nous dit qu’il a mal à J+3 après son opération et que l’on sait qu’il a 35 ans. L’algorithme reconnaît la parole patient parce qu’on lui a donné suffisamment d’exemples de vrais patients, mais les conseils donnés sont écrits par des professionnels, validés par les instances scientifiques. Sans cela, en effet, on risque d’arriver aux aberrations qui font dire au chatbot « médical » que l’utilisateur ferait mieux de se suicider.
On évite assez facilement des risques éthiques identifiés par le CCNE comme la préconisation qui nous dit que « le chatbot ne doit pas répondre à une insulte par une insulte ». Je suis concepteur de chatbots et de systèmes de conversation automatisés depuis de nombreuses années, dans des industries différentes, avec des socles techniques différents, mais cette question ne s’est jamais posée et ne se posera jamais. Comment peut-on laisser un chatbot prendre ce genre de largesses ?
Dans les faits si une insulte est détectée on déclenche une réponse ou une suite de réponses pour prendre en charge le cas en ayant identifié qu’il s’agit d’une insulte. On peut mettre en place des mécanismes qui vont escalader le problème vers des agents humains au bout d’une ou plusieurs insultes, par exemple. Comment peut-on ne serait-ce qu’imaginer mettre à disposition d’utilisateurs un chatbot qui règlerait ce problème en autonomie, de façon différente avec chaque interlocuteur, selon le bon vouloir de l’algorithme de génération de texte automatique ?
Ce n’est pas sérieux.
C’est un exemple parmi beaucoup d’autres qui appelle à une vraie prise de conscience des différents acteurs qui travaillent sur ce sujet des assistants virtuels aujourd’hui textuels, demain vocaux.
De la personnalité et de l’anthropomorphisme
L’idée qu’un assistant conversationnel soit capable de se faire passer pour un humain est un mythe tenace. Sur un sujet précis avec des parcours bien balisés, ce n’est pas très compliqué, soyons honnêtes. Mais pour éviter les écueils de l’anthropomorphisme il suffit d’agir de façon responsable lors de la création de l’outil conversationnel. Maîtriser ce que dit le chatbot est une clé pour lui insuffler une personnalité, c’est aussi une soupape de secours pour lui imposer des limites.
Bien sûr il faut que le chatbot s’identifie comme tel lors des premiers échanges avec l’utilisateur, mais la personnalité passe surtout par le ton utilisé pour répondre, cela va bien plus loin du tutoiement/vouvoiement. La plupart du temps, les communicants choisissent des prénoms, souvent féminins comme Samantha dans « Her », pour créer plus facilement cette connexion avec l’utilisateur, c’est un vrai problème de fond.
Pour ASISPO nous avons fait le choix de lui donner un « corps » bien identifiable comme étant un intégré à l’équipe médicale, disponible à tout moment pour répondre aux questions des patients et les aider à mieux dormir au lieu d’aller engorger les urgences. C’est très bien vécu car clair et transparent dès le départ. C’est une piste, il y en a d’autres selon les sujets adressés et les problématiques de chacun, mais c’est encore une fois quelque chose qui se réfléchit, qui se construit consciemment et qui se maîtrise.
Intelligent ne veut pas dire 100% automatique et omniscient !
L’assistant intelligent est, de mon point de vue, capable d’accompagner un utilisateur en comprenant son problème et en lui apportant une solution contextualisée et personnalisée avec une suite de questions/réponses fluides. Sans se faire passer pour un humain, et sans vouloir que tout se fasse de façon automatique.
Nous devons tous, concepteurs et utilisateurs de ces solutions, être conscients des points soulevés par le Comité Consultatif National d’Ethique. Mais nous devons aussi faire attention aux choix technologiques que nous faisons pour faire avancer ces sujets.
L’approche purement mathématique du langage peut fonctionner pour traiter de grands volumes de données afin d’extraire des informations, de construire des analyses poussées pour analyser la parole d’un groupe de patients ou de consommateurs. Elle n’est pas adaptée à la conception de conversations avec un début et une fin pour rendre un service à un utilisateur donné.
La réalité du terrain, pragmatique et au contact des utilisateurs, peut souvent répondre à de nombreux problèmes qui n’en sont finalement pas vraiment. Faisons attention aux dérives, mais tirons surtout profit des possibilités de ces outils formidables pour créer des assistants utiles et efficaces dans le quotidien du plus grand nombre.
Le contributeur:
Thomas Gouritin est consultant spécialiste de l’intelligence artificielle conversationnelle et co-fondateur de la startup e-santé ASISPO. Producteur de la série Regards Connectés (chaîne Youtube et podcasts), il explore notre avenir technologique pour vulgariser des sujets complexes comme l’intelligence artificielle et faire passer des messages de pragmatisme à appliquer en entreprise, en santé mais pas uniquement.