Les contributeursLes Experts

Chatbots et IA: le machine learning n’est pas toujours la solution!

Par Thomas Gouritin, fondateur de Regards Connectés

La hype chatbot se heurte à un problème marketing qui a tendance à survendre beaucoup trop les capacités de conversation de ces robots plus ou moins idiots. Et si l’approche du machine learning pour le traitement du langage naturel n’était pas la meilleure? Thomas Solignac, co-fondateur de Golem.ai et conférencier, en est convaincu et nous explique pourquoi il ne faut pas oublier la linguistique quand on s’attaque à ce problème très complexe.

Il nous rappelle d’ailleurs fort justement que le machine learning, même si il cristallise beaucoup d’articles et de médiatisation sur l’intelligence artificielle, n’est en fait qu’une petite partie des travaux en cours sur l’IA.

L’ensemble des vidéos de Regards Connectés sont à retrouver sur le site.

Le contributeur:

Passionné de technologie et d’innovation du côté des interfaces web, Thomas Gouritin baigne dans les chatbots depuis plusieurs années avec la conception de projets pour des acteurs nationaux et internationaux.
Depuis 18 mois, il documente des tests de chatbots dans tous les secteurs sur medium.com/1jour1bot et il en a tiré un livre blanc complété par les témoignages de grands comptes (de Direct Energie à Disney France). Son mot d’ordre: stop au bullshit, pensons avant tout à l’expérience offerte aux utilisateurs!
Découvrez WE, le nouveau media d'intelligence économique consacré à l'innovation en europe. Retrouvez les informations de plus de 4500 startups et 600 fonds d'investissements Pour en savoir plus, cliquez ici

2 commentaires

  1. L’introduction de la video est fausse. Le cerveau humain nest pas juste symbolique a lexclusion du connexionisme. Le symbolique pourrait même emerger dune base connexionnsite (les neurones connectés entre eux). En fait oersonne ne sait vraiment encore comment ce sa passe dans notre cerveau. Machine learning et raisonnement symbolique ne peuvent pas etre opposes si naïvement pour servir un propo un peu trop simpliste. (Ce qui ne remet pas en cause l’interet du symbolisme en soi)

    1. Vous confondez l’approche biologique/neurologique et l’approche algorithmique.
      La première est descriptive, la seconde est de l’ingénierie.

      Ce n’est pas la seule lecture de l’IA, mais dans cette lecture, les deux approches sont opposées.
      (Bien qu’elles puissent être complémentaires.)

      L’idée qu’un symbolisme émerge du connexionnisme est très théorique.
      Notez 2 choses :
      1- Les algorithmes de machine learning qui fonctionnent le mieux aujourd’hui ne sont pas du tout les plus biomimétiques.
      2- Le cerveau humain ne naît pas « vierge ». L’idée que l’esprit humain serait une émergence d’un connexionnisme pur est difficile à défendre.

      Il est probable que si l’on complexifie des systèmes apprenants pour qu’ils puissent manipuler des symboles, la nature de la complexité qu’on leur apporte corresponde finalement à une approche symbolique. Parce qu’encore une fois, l’approche exclusivement ML est limitée.
      On oublie parfois que la réponse d’un algorithme est de la même nature que l’algorithme lui-même.
      Une approche statistique (comme les ANN) fournira une réponse de nature quantitative.

Bouton retour en haut de la page
Share This