Benoit RaphaelLes Experts

Pourquoi l’intelligence artificielle est stupide et pourquoi on s’en fout

Par Benoît Raphaël, co-fondateur de Trendsboard et du média robot Flint

L’intelligence artificielle est un vieux mythe. La plupart de ses technologies datent des années 50. Et environ tous les 20 ans on s’excite sur elle pendant quelques années et puis après on s’intéresse à autre chose. On appelle ça les «hivers de l’IA». En ce moment on serait plutôt dans l’été donc, voyez vous. Mais certains se demandent si l’hiver n’est pas proche. 

Pourquoi? Parce que malgré la puissance démesurée dont ils bénéficient désormais (merci l’empreinte carbone, au passage) et des volumes abondants de données (un peu sexistes et racistes toutefois), les robots sont toujours aussi cons qu’avant. C’est juste qu’ils réfléchissent plus vite.

A titre d’illustration, cette petite vidéo d’une voiture qui essaie de se garer dans un parking. Elle finit par y arriver mais après avoir embouti 200 000 fois les autres voitures plus une barrière. Si vous souffrez de robophobie et que vous pensez qu’ils vont tous nous remplacer un jour, je vous conseille de regarder cette vidéo une à deux fois par jour, c’est très relaxant.

Le problème de la stupidité des robots peut être résumé à travers la démonstration suivante: donnez à un enfant de 5 ans une voiture à roulettes et demandez lui de se garer. Il ne lui faudra pas 200 000 essais pour réussir. D’abord parce qu’au bout des 200 000 essais il aura peut-être atteint l’âge de 80 ans (je n’ai pas fait le calcul, donc je vous laisse corriger) ou sera juste mort d’ennui, mais aussi parce qu’une dizaine d’essais suffiront. Ce qu’on appelle intelligence artificielle aujourd’hui, c’est simplement une question de vitesse, c’est à dire un algorithme toujours aussi con que dans les années 50 mais qui se plante tellement rapidement que vous n’y voyez que du feu.

En résumé, ce n’est pas parce que l’intelligence artificielle a l’air intelligente qu’elle l’est.

En fait, tant que l’on aura pas réussi à apprendre à un robot à garer sa voiture comme avec un enfant de cinq ans, on aura du mal à progresser vers une véritable intelligence.

Judea Pearl, lauréat du prix Alan Turing (l’équivalent du Nobel pour l’intelligence artificielle) va un peu plus loin dans le machine learning bashing (traduisez: «se moquer de l’apprentissage automatique», la technologie maîtresse de l’intelligence artificielle). Et en particulier le «deep learning» (l’apprentissage profond, une approche plus complexe du machine learning) . Pour lui, aucune intelligence: c’est juste de l’ajustement de courbes à des données. 

Pour résumer sa pensée: malgré leur inspiration cérébrale, les algorithmes d’apprentissage profond ne sont au final qu’un autre outil d’analyse de données.

En fait, la réalité c’est que, bien que non intelligente, cette approche statistique et auto-apprenante d’analyse des données est particulièrement efficace dans son domaine: trouver des corrélations entre les données et prédire la meilleure combinaison de données. Elle est notamment particulièrement adaptée au traitement de grandes quantités de données non structurées.

Elle continue d’ailleurs de surprendre ceux qui l’utilisent. Et il y a encore pas mal de marge de progression au fur et à mesure que l’on affinera les données mises à disposition des algorithmes.

Mais après ? Interroge Judea Pearl, qui pense que l’on est dans une impasse.

Selon un article rédigé par des chercheurs du MIT, pour créer des machines d’apprentissage et de réflexion semblables à celles des humains, il faudrait qu’elles soient capables de construire des modèles causaux du monde capables de comprendre et d’expliquer leur environnement.

« Le risque qu’un jour l’IA surpasse l’intelligence humaine est encore loin. Le vrai risque est que les humains prennent pour de l’intelligence ce qui n’en n’est pas ».

En gros, il faut changer de paradigme. Passer de Python (le langage de programmation du «machine learning») à Platon. De l’analyse statistique aux concepts. Oui mais alors qu’est-ce qu’un concept? Qu’est-ce qu’une approche conceptuelle du monde, qui permet également d’aborder la polyvalence? Relisez vos cours philo…

Écoutons justement Gaspard Koening à ce sujet. Dans une enquête passionnante à travers le monde de l’intelligence artificielle («La fin de l’individu», éditions de L’Observatoire), le philosophe va encore plus loin. Il conclut que l’on ne pourra pas reproduire l’intelligence sans une approche biologique: «Les penseurs de l’IA forte rêvent d’un monde sans corps, réglé par des relations logiques. (…) Notre esprit n’est pas une pure combinaison logique abstraite de toute incarnation. Il est profondément lié aux réactions biochimiques qui se produisent dans l’organisme».

En gros, le risque qu’un jour l’IA surpasse l’intelligence humaine, autrement qu’en vitesse de calcul, est encore loin. Le vrai risque est que les humains prennent pour de l’intelligence ce qui n’en n’est pas.

Mais au fond, on s’en fout. Je veux dire, ce débat qui divise de plus en plus chercheurs en IA et adeptes de l’IA actuelle n’est que la poursuite d’un vieux fantasme.

Que l’intelligence artificielle soit stupide ne l’empêche pas d’être super efficace dans la réalisation de certaines tâches. Le tout est de bien en identifier les champs d’application ainsi que les limites (la qualité des données notamment, mais pas que). Une jolie illustration de ce débat est le dernier projet publié par Open AI, l’organisme de recherche fondé notamment par Elon Musk, à l’origine déjà de pas mal de projets de recherche sympathiques et un peu flippants comme un générateur automatique de fausses informations.

Cette fois, ils ont appris à des réseaux de neurones à jouer à cache-cache pour voir comment ils s’en sortaient. Pour rendre l’exercice plus rigolo, ils ont donné une apparence trop mignonne à leurs petits robots. Les bleus tentent de se cacher, et les rouges essayent de trouver les bleus. La technique est assez similaire à celle déjà utilisée pour battre des humains au Go ou à Starcraft. Mais ce qui est fascinant à regarder c’est de voir comment les bleus vont rivaliser d’ingéniosité pour éviter d’être trouvés et comment les rouges vont réussir à contourner les obstacles et «inventer» de nouvelles techniques pour parvenir à leur fin.

Par exemple, les bleus ont trouvé un moyen de bloquer les murs pour créer des salles et se cacher dedans. Les rouges ont alors utilisé des rampes pour sauter par dessus les murs. Les bleus ont donc décidé de bloquer les rampes loin des murs. Et c’est là que les rouges ont inventé un nouveau sport: surfer sur des cubes pour franchir les murs. Ils amènent les cubes devant les rampes et se déplacent ensuite avec comme avec un surf.

Au final, il ne s’agit de rien de plus que des réseaux de neurones qui « affinent leurs courbes aux données », comme dirait le Dr Pearl. Pas d’intelligence. Juste de l’efficacité statistique. Mais ce qui est intéressant c’est l’usage que l’on en fait. Et la façon dont les chercheurs s’amusent à les faire se battre entre eux, et à les mettre-en-scène de façon à faire sortir de nouvelles stratégies lisibles pour un humain. Voire inventer de nouveaux outils qu’il pourrait peut-être utiliser demain dans la vraie vie.

Les robots sont des outils. Et seulement des outils. Leur technologie est sans doute encore limitée -et peut-être l’actuelle technologie est-elle dans une impasse- mais cela ne nous empêche pas d’inventer des tas de choses et d’applications avec. Donnez un bâton à un enfant, il en tirera mille usages. C’est toute la différence avec un robot. On peut continuer à fantasmer pour essayer de rendre le bâton plus intelligent que l’enfant. Mais en attendant, on pourra déjà essayer d’utiliser correctement le bâton.

L’expert :

benoitraphael

Benoît Raphaël est expert en innovation digitale et média, blogueur, entrepreneur et éleveur de robots chez Flint.

Il est à l’origine de nombreux médias à succès sur Internet: Le Post.fr (groupe Le Monde), Le Plus de l’Obs, Le Lab d’Europe 1.

Benoît est également cofondateur de Trendsboard et du média robot Flint.

Découvrez WE, le nouveau media d'intelligence économique consacré à l'innovation en europe. Retrouvez les informations de plus de 4500 startups et 600 fonds d'investissements Pour en savoir plus, cliquez ici

4 commentaires

  1. L’étude de la biologie nous enseigne qu’intelligence et adaptation sont souvent les deux facettes d’une même complexité, et que l’adaptation requiert de l’autonomie.

    L’autonomie n’est pas la capacité à fonctionner de façon indépendante, mais l’aptitude à s’adapter aux évolutions de l’environnement. Les systèmes improprement catégorisés « IA » actuels ne sont pas autonomes, ils ne savent ni s’adapter, ni s’ouvrir (échanger, apprendre par eux-mêmes).

    L’humain reste ainsi le seul acteur autonome des organisations modernes capable, face à l’incertitude ou l’imprévu, de s’adapter et d’établir un comportement intelligible, si besoin dans le cadre de mécanismes d’auto-apprentissage.

    Dans les années 50/60, l’école sociotechnique s’est attachée à démontrer que la technologie impactait son organisation d’accueil et son évolution dans le temps. Selon ce courant de pensée, ne pas considérer cette double nature sociale ET technique de l’organisation mène à des impasses… que nous expérimentons au quotidien : l’humain restant le seul responsable (et victime) face à la rigidité opérationnelle des organisations les plus complexes. Continuer à « faire de l’IA » comme nous en faisons aujourd’hui ne fera qu’aggraver ce phénomène…

  2. Bonjour,
    Je ne suis pas d’accord avec le premier exemple.
    L’enfant qui pousse sa voiture avec la main pour la garer entre 2 autres voitures ne fera pas des milliers d’essais réels, parce que son cerveau aura fait des millions de simulations entres chaque tentative physique. C’est juste que c’est tellement rapide, que vous pouvez croire que l’enfant à deviné comment faire en quelques essais.
    Un robot évolué réalisant des opérations physiques dans le monde réel, fera des millions de simulations avant de ce décider à bouger, laissant croire qu’il a compris du premier coup comment faire.

  3. L’intelligence, c’est ce qui distingue l’homme de la machine ( j’ai oublié l’auteur, désolé ).
    Un bon exemple de ce que peut produire cette  » intelligence  » artificielle :
    Faites analyser par un robot d’IA ce qu’on fait pendant 48h précédents les conducteurs qui ont provoqué un accident mortel : sommeil, nourriture, … tout, vraiment tous les détails de leur vie, afin de trouver le facteur de risque commun à tous ces comportements individuels.
    Réponse du robot : 99% d’entre eux ont bu de l’eau dans les 48 heures précédentes. Proposition du robot ; il faut interdire de conduire pendant 48h après avoir bu de l’eau.

  4. « Que l’intelligence artificielle soit stupide ne l’empêche pas d’être super efficace dans la réalisation de certaines tâches. » Autant je suis d’accord sur la façon dont vous vous moquez des robots « intelligents » autant, là, je vous arrête. L’IA dont vous parlez est stupide car c’est de la programmation CLASSIQUE. Il y a des langages de programmation et des informaticiens derrière. Il y a une autre IA, tout à fait efficace celle-là et… française ! Elle parle français et se passe totalement d’informaticiens pour programmer. Elle existe depuis… les années 1980 !

    Mais vos n’en avez jamais entendu parler car vous lisez les journaux qui lisent les communiqués des GAFAM et des « chercheurs » IA. Vous croyez qu’ils vont vous parler d’une technologie qui les rend inutiles ? Un ordinateur sans clavier ni souris ni écran, invisible et pourtant toujours en relation avec nous où que nous soyons est-ce que ça intéresse Microsoft et cie ?

    L’IA française dont je vous parle RAISONNE comme nous. Elle n’a pas besoin d’algorithme. Cela fait plus de 30 ans que je le répète mais personne ne s’en fait l’écho. La planète a donc pris 30 ans de retard encombrée d’une informatique artisanale catastrophique (voyez le Chaos Report : 71 % des programmes développés dans le monde sont à jeter ou à refaire !)

Bouton retour en haut de la page
Share This