Les contributeursLes Experts

Réglementation de l’IA: la Commission européenne va-t-elle paralyser l’innovation?

Par Philippe Silberzahn, professeur d’entrepreneuriat, stratégie et innovation à EMLYON Business School et chercheur associé à l’École Polytechnique (CRG)

La Commission européenne vient de dévoiler un projet très ambitieux de réglementation des usages de l’intelligence artificielle (IA). Les plus de cent pages (!) de règles proposées couvrent un large éventail de sujets. Si les risques liés à des utilisations non éthiques de l’IA existent réellement, cette volonté de réglementation repose cependant sur une conception erronée de l’innovation technologique et pose un grave danger à l’industrie européenne en compromettant les chances que nous disposions d’acteurs majeurs dans le domaine. Si ce projet était adopté, il constituerait un formidable cadeau à la Chine et aux États-Unis.

Un spectre hante l’Europe, le spectre du principe de précaution. Hier berceau de l’innovation et du progrès, l’Europe est désormais paralysée par la peur du risque. C’est cette peur du risque qui motive le funeste projet de réglementation de l’IA. Sans même parler du fait que le terme « intelligence artificielle » est très contesté et mal choisi, le projet repose sur une conception erronée de l’innovation technologique.

En effet, une innovation technologique n’est pas un objet parfaitement identifiable et stable dans le temps. C’est un processus émergent étalé dans le temps. L’innovation « Internet » débute dans les années 60 et se poursuit aujourd’hui. De fait, ce processus est enveloppé d’incertitude sur les implications et les possibilités de la technologie. Toute l’histoire humaine montre ainsi qu’on ne peut pas juger aujourd’hui de l’impact qu’aura une technologie demain car il est impossible d’en anticiper les développements. En 1911, des ingénieurs découvrent qu’on peut utiliser des ultrasons pour détecter des sous-marins. En 1951, la technologie est promue par un médecin et un électronicien pour lutter contre le cancer. Leurs efforts ne mènent à rien mais à partir des années 1970 l’échographie commence à être utilisée dans l’obstétrique.

À partir des années 90, elle est largement utilisée en Asie pour les avortements sélectifs, usage qui sera responsable d’un fort déséquilibre hommes/femmes. Question: qu’aurait pu dire un régulateur aux ingénieurs de 1911? Il aurait été tout à fait incapable d’anticiper les utilisations de cette technologie. Autrement dit, une réglementation précoce, sur des applications qui n’existent pas encore, se fera de façon tout à fait aveugle, et reposera donc sur des croyances, voire sur des fantasmes, plutôt que sur des faits. Pour réglementer il faut comprendre, et pour comprendre une technologie émergente il faut faire. Réglementer trop tôt empêche de faire, et donc de comprendre.

Une réglementation précoce est d’autant plus dommageable que toute technologie est duale: elle peut servir à faire le bien comme le mal, et la nuance entre les deux est circonstancielle. Un couteau me sert à découper mon steak, mais il peut aussi me servir à tuer quelqu’un. Faut-il interdire le couteau? Mais tuer, est-ce toujours mal? Non si je suis en situation de légitime défense.

Une charge de preuve en défaveur de l’innovation

Le problème du principe de précaution est que les risques peuvent être facilement imaginés, il n’y a aucune limite, tandis que les bénéfices doivent être prouvés. Le principe considère les dangers potentiels, mais pas les bénéfices probables d’une innovation, et déplace ainsi la charge de la preuve vers l’innovateur à qui il incombe de prouver que son produit ne va pas nuire, sans lui permettre de démontrer qu’il sera bénéficiaire, ou qu’il remplacera un produit actuel nuisible.

Par exemple, en suivant ce principe de précaution, on interdira très certainement l’utilisation de l’IA dans la prise de décision de justice. Après tout, qui voudrait être jugé par une machine aux algorithmes probablement biaisés? C’est oublier que les juges le sont beaucoup plus. Dans une célèbre étude, des scientifiques ont montré que les peines étaient plus lourdes lorsque les juges avaient faim que quand ils venaient de manger! Quand on pointe les dangers de l’IA, on la compare souvent à une situation idéalisée qui est loin, très loin de la réalité. Quelque biaisée qu’elle soit, une IA sera sans doute plus objective et moins biaisée par des circonstances ou des états physiologiques. Une technologie ne doit donc pas être évaluée ex nihilo ou par rapport à un idéal, mais par rapport à la technologie actuelle et à ses insuffisances et ses nuisances.

Un énorme risque de se priver des avantages de la technologie

Aucune technologie, quelle qu’elle soit, n’est sans risque. Imaginez que vous soyez le ministre de l’industrie d’un grand pays au début du siècle dernier. Un ingénieur vient vous voir avec une toute nouvelle technologie qui va révolutionner la vie de tous les habitants du pays. Seul bémol: cette technologie causera directement la mort de 30 000 personnes par an en moyenne, ainsi que de nombreux accidents. Autoriserez-vous cette technologie? Avec le principe de précaution, probablement pas: 30 000 morts! Et pourtant, cette technologie s’appelle l’automobile, et elle tue effectivement 30 000 personnes par an aux États-Unis (environ un million dans le monde).

Le grave danger du principe de précaution a été particulièrement avéré ces dernières semaines avec la désastreuse affaire du vaccin AstraZeneca. Parce que l’on soupçonnait que dans certaines situations, une personne vaccinée pouvait développer une thrombose, la vaccination a été interrompue, suscitant une forte inquiétude dans l’opinion; ceci alors que le risque de thrombose était infime, en tout cas inférieur à celui, par exemple, de la prise d’une pilule contraceptive. Pour éviter, peut-être, quelques thromboses dont la plupart ne sont pas mortelles, on s’est privé de vacciner des centaines de milliers de personnes, ce qui entraînera des morts, mais aussi un prolongement de l’épidémie, augmentant ainsi le risque d’apparition de variants non couverts par les vaccins actuels. En résumé: le principe de précaution tue. Il tue les humains mais aussi les industries.

Une logique de mort industrielle

La démarche de la Commission européenne s’inscrit dans une longue série visant à brider l’innovation européenne. Sous couvert de concilier éthique et compétitivité, elle reflète une peur de l’avenir conçu exclusivement comme dangereux. Au final elle n’aura guère d’impact sur l’éthique: l’industrie européenne étant bridée, l’innovation se fera ailleurs, avec les emplois et la richesse qui vont avec, et on viendra pleurer sur notre souveraineté perdue. Sans acteur de poids dans le domaine, l’éthique nous sera finalement dictée par nos concurrents américains et chinois. Il est grandement temps d’inverser complètement la logique de mort industrielle qui prévaut dans cette instance.◼︎

Lire mes articles précédents sur la question de l’éthique et de la technologie: ▶︎IA et éthique: le contresens navrant de Cédric Villani et ▶︎Tech for good: Et si c’était une très mauvaise idée? Pour en savoir plus sur le projet de réglementation, lire l’article de France 24.

Le contributeur:

Philippe SilberzahnPhilippe Silberzahn est professeur d’entrepreneuriat, stratégie et innovation à EMLYON Business School et chercheur associé à l’École Polytechnique (CRG), où il a reçu son doctorat. Ses travaux portent sur la façon dont les organisations gèrent les situations d’incertitude radicale et de complexité, sous l’angle entrepreneurial avec l’étude de la création de nouveaux marchés et de nouveaux produits, et sous l’angle managérial avec l’étude de la gestion des ruptures, des surprises stratégiques (cygnes noirs) et des problèmes complexes (« wicked problems ») par les grandes organisations.

Découvrez WE, le nouveau media d'intelligence économique consacré à l'innovation en europe. Retrouvez les informations de plus de 4500 startups et 600 fonds d'investissements Pour en savoir plus, cliquez ici

Un commentaire

  1. Je loue mon Europe de protéger mes Libertés.

    Je m’étonne de cet article à charge alors que le texte est connu. Peut-être l’auteur l’avait-il écrit avant…
    En tout cas, cela donne un relent d’information faussée.

    Le règlement interdit l’IA sur la manipulation des comportements, le crédit social (à la chinoise) et la reconnaissance faciale, dans son article 5.
    Il prévoit (art.6) une analyse dans les domaines de la santé, la justice, les services publics et les infrastructures critiques et ça c’est nous protéger, en obligeant chacun à analyser sa responsabilité.
    Le reste est permis.

    Bref rien de choquant… non ?

Bouton retour en haut de la page
Share This