Journal d’un éleveur de robots – Episode 3
L’intelligence artificielle n’est pas notre ennemi. Elle nous renvoie le visage de mes contradictions.
C’est une remarque qui revient souvent dans mes conversations à propos de nos robots-médias: «Bon, ok, tu les as faits tout mignons tes robots. Mais, en fin de compte, est-ce que tu ne serais pas en train de contribuer à créer Skynet?»
Pour ceux qui ne regardent jamais les films de science-fiction (vous devriez, en fait), Skynet est un concept tiré du film «Terminator» (celui où le robot soldat Arnold Schwartzenegger frappe à toutes les portes un fusil à pompes à la main en disant «Sarah Connor?») (parce qu’il cherche Sarah Connor qui est un peu le dernier espoir des humains). Skynet est une sorte d’intelligence artificielle omnisciente qui, dans le futur (enfin, dans Terminator…), a eu l’idée assez logique de réduire l’humanité en esclavage.
Ça, c’était dans les années 80. A l’époque, ça nous faisait bien rire, Skynet. Sauf que depuis qu’un robot a battu un humain au jeu de Go, puis au poker, on parle de plus en plus des robots intelligents capables de surpasser, voire de tromper les humains.
Du coup, on parle de plus en plus de Skynet.
Alors quand on me fait la remarque, j’évite de défendre mes robots et de rassurer les autres membres de mon espèce sur l’intelligence artificielle. Parce que c’est aussi l’un des objets du projet Flint: nous interroger sur notre rapport aux robots.
Bon, après, pas de panique, les robots de Flint sont des bébés robots. Ils sont relativement simples, comparés à leurs grands frères Deepmind (Google) et Watson (IBM). Ils ne sont évidemment pas racistes comme l’a été Tay (Microsoft). Ils ne peuvent pas (encore) converser comme Alexa (Amazon) et Home (Google).
Cependant, ils ont un point commun avec la plupart des autres intelligences artificielles: ils bénéficient d’une certaine autonomie. C’est le prix de l’intelligence: la liberté.
Pour que vous comprenez bien: la mission des robots de Flint est de déterminer, parmi des milliers d’articles sur Internet, lesquels sont de qualité et pourraient intéresser leurs lecteurs. Nous savons quelles méthodes ils utilisent, mais nous ne savons pas pourquoi ils font tel ou tel choix. C’est l’un des effets secondaires des réseaux neuronaux, une des technologies utilisées par l’intelligence artificielle qui tente de reproduire le fonctionnement du cerveau.
C’est pour ça que, dans le projet Flint, chaque robot est encadré par un humain. Non pas pour lui imposer des critères de choix, mais pour l’éduquer et lui apprendre à être autonome, sans le laisser dériver.
Dans certaines situations, notamment les plus complexes, l’IA choisit l’option agressive et détruit ses adversaires.
Cette autonomie est essentielle à l’intelligence. Mais c’est justement elle qui fait peur.
Parce que si le robot devient de plus en plus autonome, et de plus en plus intelligent, va-t-il se rendre compte un jour que, finalement,tuer les humains, c’est plus efficace que de les laisser vivre ?
Une étude récente menée par les ingénieurs de DeepMind à partir d’un jeu vidéo montre plusieurs scénarios empruntés par l’intelligence artificielle quand elle est confrontée à la gestion des ressources (dans ce cas particulier, des pommes…). En gros, son comportement est assez proche de celui des humains, ce qui est assez désespérant. Quand les ressources se font plus rares, l’AI peut choisir de collaborer ou d’éliminer les autres… Dans certaines situations, notamment les plus complexes, l’IA choisit l’option agressive et détruit ses adversaires.
Démonstration dans cette vidéo, qui est assez incompréhensible, mais plutôt cool à regarder :
Vous noterez qu’on en est encore au stade des pommes en forme de carré vert dans le cerveau des robots. Mais c’est un début.
Déjà, 30% des Américains déclarent qu’ils préfèreraient être dirigés par une IA que par un patron humain. Cela me fait penser au rêve de Voltaire du despotisme éclairé : un dirigeant objectif, pas corrompu, qui prendrait sans doute les décisions les plus efficaces. Comme un robot. Oui, mais selon quels objectifs ? Et si pour parvenir à ses fins il en venait à devenir agressif ? Doit-on prévoir un bouton «stop» au cas où le robot échapperait à notre contrôle ?
Mon robot n’est pas mon ennemi. Il me renvoie le visage de mes contradictions.
Pour l’heure, les robots ne sont pas dangereux. Ni psychotiques. L’un des grands spécialistes du sujet, Laurent Alexandre, l’explique très bien dans une intervention faite au Sénat le 19 janvier dernier : il distingue l’intelligence artificielle «forte» de l’intelligence artificielle «faible» c’est à dire sans conscience d’elle-même. Ce qui est le cas de toutes les intelligences artificielles aujourd’hui. Elles effectuent des tâches bien précises, souvent impossibles pour des humains, mais elles ne sont pas capables de «penser», au sens où nous l’entendons. En attendant, donc, elles nous sont très utiles.
L’impact le plus immédiat de la robotisation sur l’espèce humaine ne sera pas Skynet, mais d’abord la destruction massive de métiers de la classe moyenne ou ouvrière, dans les prochaines années. Dans l’absolu, le fait que les robots nous remplacent dans des métiers pénibles, automatisés, abrutissants, et dépourvus de sens, est une bonne chose. A terme, idéalement, ils nous laisseront du temps pour réfléchir à nous, à notre avenir, pour ne pas agir dans la précipitation.
De nouveaux métiers vont surgir pour les humains. De nouvelles ressources aussi.
Mais sommes nous prêts ? Le système éducatif et de formation est-il prêt ? Et que dire du politique ? Pourquoi ce sujet si essentiel est-il absent des débats de la présidentielle ?
En fait, ce n’est pas le robot l’ennemi. L’ennemi, c’est nous.
Le robot nous renvoie le visage de nos contradictions.
Le robot est comme les démons des légendes, le «daïmon» de Socrate, le «familier» des foyers, «l’entité, animal ou esprit, parfois imaginaire et invisible, à laquelle les hommes s’adressent pour demander des conseils ou obtenir des services»… le Faust de Goethe. Il est utile, il peut même nous sauver de l’auto-destruction dans un monde de plus en plus complexe. Mais il peut aussi être dangereux si nous n’y faisons pas attention. En avoir peur c’est avoir peur de nous. Peur de nos choix. Ou plutôt de nos non-choix.
Alors faut-il, comme le préconise Elon Musk, fusionner avec l’intelligence artificielle pour ne pas être dépassés par elle ?
Ou faut-il avant tout nous repositionner en tant qu’humains ? Reprendre le contrôle de notre futur c’est d’abord nous poser cette question simple : qu’est-ce qu’être humain ?
Benoît Raphaël est expert en innovation digitale et média, blogueur et entrepreneur.
Il est à l'origine de nombreux médias à succès sur Internet: Le Post.fr (groupe Le Monde), Le Plus de l'Obs, Le Lab d'Europe 1.
Benoît est également cofondateur de Trendsboard et du média robot Flint.
Lire aussi :
FrenchWeb se mobilise et organise la septième semaine de l’emploi dans le numérique (#SEN7) toute la semaine (portraits, interviews, offres d’emploi, tables rondes…). L’opération #SENFW, destinée à valoriser les opportunités d’emploi dans ce secteur, a lieu tous les 6 mois.
- Ask A VC : comment modéliser un compte de résultat — Partie 6/6 : analyse de sensitivité - 21/05/2024
- Ask A VC : comment modéliser un compte de résultat — Partie 3/6 : les Coûts Fixes - 16/01/2024
- Question à un VC : Pourquoi les marges unitaires sont-elles si importantes pour votre modèle d’affaires? - 13/11/2023