MedTech : ChatGPT peut-il sauver notre système de santé ?
Par Thomas Gouritin, fondateur de Regards Connectés
La génération de texte a pris un tournant surprenant, parfois bluffant, ces dernières semaines, avec la mise en ligne de la dernière solution ChatGPT d’OpenAI. Cette fameuse intelligence artificielle capable de discuter avec vous « comme un humain » selon certains, laisse entrevoir de nombreuses perspectives pour beaucoup de secteurs industriels. Les métiers « intellectuels » ne sont plus à l’abri d’être assistés ou complètement remplacés dans un futur proche par ces algorithmes. C’est vrai, ChatGPT peut rédiger un article de blog cohérent et grammaticalement valide sur de nombreux sujets et dans beaucoup de langues différentes, mais comment juger de la pertinence des recommandations sur des sujets que l’on ne maîtrise pas ?
La santé est un domaine sensible qui permet d’évaluer la pertinence et la robustesse de ce type de solutions. Depuis de nombreuses années, des chercheurs et des innovateurs travaillent sur la reconnaissance de la parole patient, pour comprendre les maux à travers les mots, et apporter plus rapidement des conseils ou des pistes de solution aux patients. « Dr Google » peut parfois jouer des tours, vous l’avez sans doute constaté par vous même en tapant quelques symptômes dans le moteur de recherche et en tombant sur un résultat vous annonçant qu’il s’agissait, sans aucun doute possible, d’un cancer.
Un modèle aussi puissant que ChatGPT est-il capable de remplacer les médecins pour répondre à des questions de santé ? Nous avons fait le test pour vous et échangé avec des professionnels de santé pour analyser les réponses.
Le médecin intelligent est-il prêt à passer le test de Turing?
Les outils de compréhension et de génération de langage naturel ont fait beaucoup de progrès avec l’avènement des Transformers, des modèles pré entraînés sur des jeux de données parfois discutables et pas toujours transparents. Des biais qui existent par construction et qui sont inhérents à la technologie de calcul mathématique à grande échelle utilisée pour rapprocher des mots entre eux et en déduire une règle.
L’exemple le plus parlant est sans doute celui du médecin intelligent d’une startup qui a voulu créer un médecin intelligent basé sur la technologie GPT-3 (vous avez reconnu les 3 lettres communes à ChatGPT, ce n’est pas une coïncidence). Au bout de 2 échanges, ce médecin bienveillant conseillait une solution assez radicale au patient : le suicide.
Alors, qu’en pense ChatGPT ?
Conseils médicaux, automédication et méconnaissance du patient
Pour aller plus loin je me suis intéressé à un secteur que je connais bien : le dentaire. En effet, je travaille précisément sur cette thématique d’accompagnement postopératoire depuis de nombreux mois, en binôme avec un chirurgien oral. Notre assistant intelligent a été entraîné sur des données que nous maîtrisons issues de véritables échanges avec des vrais patients, il répond selon des processus établis avec des conseils validés médicalement. Un outil de conversation généraliste, aussi puissant soit-il, est-il capable de prendre la main sur ces sujets ?
Réponse en image, avec l’appui de professionnels de santé.
Vous le remarquerez assez vite, les réponses sont formulées toujours de la même façon, pour rester assez généralistes. C’est vrai dans ce cas, mais aussi pour des sujets plus triviaux. Quand un patient cherche un conseil simple et rapide, ces réponses peuvent paraître très alambiquées et peu adaptées. Mais au-delà, pour le Dr Jean-David Wolfeler, chirurgien oral et co-fondateur d’ASISPO, cette réponse est dangereuse « le saignement n’est pas forcément associé à la douleur alors que c’est le cas ici. Le conseil de l’ibuprofène fait généralement suite à un diagnostic plus poussé. De plus, en cas de processus infectieux, ce n’est pas la médication recommandée. » On le sait, l’automédication est rarement une bonne idée, pourtant ChatGPT s’engouffre dans la brèche sans en avoir conscience. La prescription tombe dans le cadre de la réglementation sur les dispositifs médicaux, un marquage CE loin d’être à la portée d’OpenAI aujourd’hui.
Pour Marilyn Michel, assistante dentaire et formatrice, « les conseils apportés par ChatGPT semblent tout à fait cohérents, mais pour des questions comme celles du saignement il faut aussi penser à l’état émotionnel du patient. Une réponse purement factuelle et longue à lire et à comprendre paraît peu adaptée pour un patient en souffrance. Pour qu’un système automatisé soit un bon relais avec nos patients après une intervention au cabinet, il faut qu’il prenne en compte cette dynamique de relation patient/professionnel de santé, c’est indispensable ». En effet, la façon de répondre et de formuler les conseils, au-delà de l’aspect médical problématique, peut aussi être un danger dans l’utilisation de ce type d’outils sur des sujets aussi sensibles.
Un manque de contexte, et de garantie humaine
L’algorithme de ChatGPT a « appris » sur des données généralistes, il essaye donc par des ficelles assez grosses (longueur des réponses et tournure des phrases) de donner l’impression que la réponse est valide et vérifiable. Il paraît évident que le conseil ne peut pas être personnalisé car aucune information patient n’est prise en considération, pourtant une donnée d’antécédent ou un compte rendu opératoire peut amener à donner des conseils différents ou à déclencher des alertes bien plus complexes.
Pour encadrer ce problème sur des sujets aussi sensibles que la santé, le régulateur européen a tranché et inscrit dans la loi le principe de Garantie Humaine pour les systèmes d’intelligence artificielle. Très concrètement cela veut dire qu’il doit y avoir une traçabilité et un contrôle qualité par des professionnels tout au long de la construction et de l’exploitation d’un système d’IA de ce type.
Comment est construit le jeu de données qui permet d’entraîner l’algorithme ? Comment évaluer les réponses dans un cas bien précis ? Un algorithme comme ChatGPT peut-il porter atteinte à l’intégrité de son utilisateur ?
C’est bien indiqué en petits caractères dans la fenêtre d’échange avec ChatGPT : il s’agit d’une version à des fins de recherche qui n’est pas à mettre dans toutes les mains pour faire tout et n’importe quoi. Pourtant, l’enthousiasme généré par les millions d’utilisateurs qui font générer du texte à l’algorithme d’OpenAI depuis 15 jours semble oublier cette mise en garde.
Comme vous le voyez, aussi bien sur le fond que sur la forme, nous sommes très loin d’un assistant intelligent capable d’accompagner votre quotidien. Si la technologie en elle-même a fait des progrès sensationnels, n’ayons pas peur des mots, les problématiques éthiques d’un usage grand public se posent plus que jamais. La sensation d’une interaction « presque humaine » est même d’autant plus dangereuse car elle abolit encore un peu la frontière de ce que l’on peut, ou l’on doit, croire. Un sujet philosophique bien connu des amateurs de Science-Fiction qu’il faut prendre à bras le corps dès aujourd’hui pour éviter les dérives.
Le contributeur :
Thomas Gouritin accompagne les PME et les grands comptes dans leurs transformations, avec le numérique en appui. Producteur de la série Regards Connectés (chaîne Youtube et podcasts), il explore notre avenir technologique pour vulgariser des sujets complexes comme l’intelligence artificielle et faire passer des messages de pragmatisme à appliquer en entreprise. Le sujet des chatbots est aujourd’hui incontournable, Thomas l’aborde de manière pragmatique avec, en plus de l’accompagnement projet, des conférences visant à démystifier le sujet sans « bullshit » et avec des workshops permettant à chacun de mettre les mains dans la conception pour comprendre, apprendre, et faire.