Les hauts et les bas du plan France Intelligence Artificielle
Le 21 mars 2017 était présenté devant le Président de la République un plan destiné à faire de la France un leader mondial de l’intelligence artificielle. J’avais eu l’occasion pendant l’été 2016 de décortiquer les grands plans technologiques français depuis les années 2000. Cette annonce était l’occasion d’observer la répétition ou pas des patterns qui sévissent lors de la création de ce genre de plans un peu fourre tout. Malheureusement, l’histoire a trop tendance à se répéter. Et nous allons essayer de comprendre pourquoi.
C’est un plan d’ampleur lancé sous l’égide de Bercy et du Ministère de l’Enseignement Supérieur et de la Recherche. 559 personnes ont été interrogées et ont participé à de nombreux groupes de travail: des chercheurs, des directeurs de recherche, des entrepreneurs de start-up, des représentants de grandes entreprises. Bref, la crème de la crème avec à sa tête d’éminentes personnalités telles que Cédric Villani (Institut Poincaré), Antoine Petit (INRIA), Rand Hindi (Snips) et tout le toutim.
Un diagnostic convenable
Les travaux de ces centaines de contributeurs se trouvent consolidé dans un épais document de 350 pages. Le rapport de synthèse d’une grosse trentaine de pages est assez concis. Ces documents semblent très exhaustifs. Ils couvrent presque tous les recoins des sujets sur l’IA, tant côté recherche, qu’industriels et sociétaux.
Le diagnostic d’ensemble n’est pas trop mauvais: notre recherche fondamentale est assez dispersée, elle est surtout financée et réalisée par le secteur public, l’investissement dans la R&D en IA provenant du secteur privé et notamment des grandes entreprises étant faible en contrepartie. Et pour cause puisque nous avons peu de pure players industriels dans le domaine. Ce tableau rappelle celui des biotechs où la recherche publique domine largement le paysage français.
Le rapport s’inquiète du manque de transferts technologiques provenant de cette recherche fondamentale. Les observateurs semblent engoncés comme d’habitude dans une vision linéaire des processus d’innovation allant de la recherche aux entreprises, via la création d’entreprise ou la valorisation. On retrouve cela dans l’organisation en groupes de travail: recherche amont, formation, transfert de technologies et développement de l’écosystème. Puis des groupes verticaux sur le véhicule autonome, la relation client et la finance (mais pas la santé). Puis sur la souveraineté et la sécurité nationale puis sur les impacts économiques et sociaux.
Le rapport évoque aussi plutôt bien le rôle stratégique des données qui alimentent l’IA. Le big data! L’or noir des données. On en parle cependant beaucoup plus qu’on ne trouve de manières de les valoriser économiquement et de manière différenciée.
On trouve dans le rapport des groupes de travail un état des lieux formidable. Il comprend une cartographie fouillée de la recherche français en intelligence artificielle, plus celle des entreprises l’utilisant. Il reprend peut-être l’effort initial de cartographie démarré par Paul Strachman, «France Is AI», le représentant du fonds d’investissement ISAI à New York.
Le plan IA évoque sinon l’habituelle question de la souveraineté, un sujet classique dans l’univers de l’immatériel. Il s’épanche aussi sur l’impact futur de l’IA sur l’emploi, sans rentrer dans le débat politique sur le revenu minimum.
Du côté sectoriel, le plan se focalise sur sept secteurs d’activité: la construction automobile, la la relation client, la finance, la santé, les énergies renouvelables, la robotique et l’éducation numérique. Nous avons en tout 9 pages avec des dizaines de recommandations diverses génériques, ou dans certains seulement de ces secteurs d’activité.
Un inventaire minutieux et bienvenu de l’IA en France
Donc, dans l’inventaire du plan, on apprend que la France comprend 5300 chercheurs plus ou moins spécialisés dans l’IA, un chiffre qui était difficile à obtenir jusqu’à présent. Ces effectifs sont bien répartis dans toute la France, l’Ile de France en représentant «seulement» 1154. C’est un chiffre à conserver en tête lorsque, par exemple, on apprend que Google fait l’acquisition de telle ou telle start-up dans l’IA, générant l’impression qu’ils vampirisent toutes les compétences mondiales dans le domaine. Lorsqu’ils ont fait l’acquisition de l’anglais Deep Mind en 2014, la start-up représentait 50 chercheurs. Elle en aurait maintenant plus de 200. Mais dans le même temps, Google serait en train de porter à 3000 le nombre de ses chercheurs en IA à Zurich. Oops.
Côté formation, elle répondrait tout juste aux besoins des start-up et des entreprises établies avec à peine plus de 1000 étudiants dans le large champ de l’IA dans l’enseignement supérieur. Quand on y regarde de près, on peut observer que la formation est encore trop faiblement verticalisée par domaines d’activités et d’applications (santé, transports, …).
L’autre élément intéressant de ce document est le découpage du vaste champ de l’intelligence artificielle par domaine, correspondant à la vue du sujet par la communauté des chercheurs. Cette vue rappelle, comme je l’avais fait en 2016 dans «Les avancées de l’intelligence artificielle», que les techniques de l’IA, vues de près, n’ont rien de fantasmagorique ou de magique. Ce sont des techniques mathématiques et logicielles qui, prises isolément, sont relativement simples. La magie vient de leur intégration et de la qualité des données qui les alimente.
Enfin, est présenté un panorama des stratégies d’IA des grands acteurs américains (GAGAMI…) et un inventaire de startups, PME et ETI du champ de l’IA en France.
Les déceptions habituelles des plans stratégiques à la française
Bref, les deux rapports France IA constituent un bel ouvrage, un inventaire de bon niveau de l’IA en France et de certains de ses enjeux. Ce plan a été réalisé en seulement deux mois, ce qui est un record de rapidité.
Et pourtant, il génère en arrière goût bizarre et une grande déception. Malgré toutes leurs qualités et celles de leurs contributeurs (j’ai d’ailleurs été invité à y contribuer, mais n’était pas disponible aux dates proposées), ce plan stratégique n’en est pas vraiment un. On n’y décèle qu’une eau tiède. Rien de bien enthousiasmant ou de mobilisateur, rien de bien différenciant avec les autres pays, surtout les USA ou la Chine. On veut faire de la France un leader de l’IA mais la dynamique industrielle associée semble traitée de manière distanciée, même si elle est couverte.
Pourquoi, après tant d’efforts, en arrive-t-on toujours là? Cela s’explique par quelques raisons structurelles auxquelles il est difficile d’échapper sans volonté politique forte. Les voici avec quelques pistes pour éviter cette fatalité habituelle.
Le plan conçu par des comités pléthoriques
Le syndrome classique du plan «fait en comité» se retrouve dans sa grande splendeur: pour plaire à tout le monde, on parle de tout. Il n’y a pas une ambition plus haute que les autres. Le niveau hétérogène des intervenants fait que l’on mélange allègrement stratégies et tactiques. Et qui plus est, il n’y a que des Français dans le tas, à part quelques rares exceptions, comme Liam Boogar, Américain basé depuis quelques années à Paris, et qui représente la start-up Algolia.
Un plan agrégateur représente les parties prenantes représentatives qui sont sélectionnées (cf la liste des 559 participants ci-dessous). La sélection était très large, couvrant à peu près tous les métiers et tous les types d’organisations concernées (chercheurs, start-up, PME, ETI, grandes entreprises, Etat). Or, la ventilation de ces parties prenantes incarne l’état des lieux actuel, pas forcément un état désirable. Par exemple, au niveau du poids des grandes entreprises ou des entreprises de services face aux éditeurs de logiciels ou aux pure players de l’IA. Plus on a de grandes entreprises impliquées, plus elles influencent les grilles de lecture et génèrent des conservatismes. C’est le phénomène de la VivaTechnologisation de l’innovation. Elle limite la capacité à se remettre en cause.
Cela se retrouvait aussi dans le groupe de travail sur la recherche qui ne comprenait que des chercheurs et quelques hauts fonctionnaires représentant la DGE et le CGI. Pas un seul «client» de la recherche! Donc, les priorités de la recherche étaient établies dans ce groupe de travail sans les relier à un quelconque besoin stratégique, entrepreneurial ou économique. Ce groupe de travail a défini 36 sujets de recherche disruptifs. Disruptifs? Les têtes de chapitre sont des généralités (apprentissage profond, recommandations, décision sous incertitude, causalité, optimisation, raisonnement sur l’autre, IA intégrative et robotique, IA embarquée, etc). Cela évoque même l’AGI, l’intelligence artificielle généralisée, un Graal de nombreux scientifiques et prospectivistes.
Dans le détail, prenons l’exemple de l’IA embarquée:
«Les réalisations récentes les plus marquantes de l’intelligence artificielle, telles que les assistants personnels (Siri, OK Google, Cortana, …) ou les machines à jouer (AlphaGo, DeepStack, Watson, …) utilisent une puissance de calcul qui ne peut, en l’état actuel de la technologie, être embarquée dans des dispositifs autonomes. Beaucoup d’applications de l’IA, civiles et militaires, seront cependant appelées à fonctionner sous contraintes fortes d’autonomie (absence de communication), de temps de réponse et de confidentialité. De nouvelles architectures de circuits, voire de nouveaux procédés, adaptés aux systèmes embarqués, restent à imaginer.»
Quelle est donc la disruption envisagée face aux mastodontes américains du sujet? L’état de l’art cite essentiellement des travaux de chercheurs étrangers! Et la disruption reste… à «imaginer»! Très fort!
A noter aussi que le plan d’action est sans «owner» des actions, ni budget ou timing. Ca rendra difficile le suivi de son exécution. Qui plus est, un plan réalisé par un gouvernement en fin de mandat a peu de chances d’être suivi d’effets.
Ce poids de la recherche fondamentale dans le plan vient du rôle du Ministère de l’Enseignement Supérieur et de la Recherche qui est l’un des deux co-sponsors du plan IA. Ce plan relève d’un compromis entre la Recherche et l’Industrie à Bercy. Il se cache probablement des guerres de clocher administratives et des luttes d’influences entre les administrations centrales de ces deux ministères, ce d’autant plus que Bercy est un peu fragilisé par un léger remaniement récent, Christophe Sirugue ayant repris au pied levé le portefeuille d’Axelle Lemaire qui a quitté le gouvernement fin février. Or c’est elle qui avait lancé l’initiative IA!
Nous avons aussi un exemple du «chacun voit midi à sa porte» dans le groupe de travail sur la formation. Celui-ci propose que l’enseignement «IA, traitement des données et sciences numériques» soit mis au programme de l’école primaire. C’est dans la lignée de l’apprentissage du code dès le plus jeune âge avec du Scratch. Ils y vont fort. Pourquoi ne pas enseigner en primaire la mécanique quantique, tant qu’on y est, avant l’écriture et le calcul?
Le groupe dédié au thème de la valorisation industrielle rassemblait des chercheurs et des entreprises de toutes tailles, ce qui était plus équilibré. Mais s’y développait une vision d’utilisation de l’IA et pas de création d’une industrie de l’IA. C’est la même chose que dans nombre de plans numériques du passé où l’on a toujours mis plus l’accent sur les usages du numérique par le grand public, les entreprises et l’Etat que dans la création d’entreprises créatrices de produits dans le secteur. On y trouve d’ailleurs les habituelles propositions de programmes de recherche collaborative et d’appels à projets divers, un vieux marronnier qui permet aux entreprises de toutes tailles de vivre sur des subventions.
Autre bizarrerie liée au casting, le centrisme sur les besoins de l’Etat. Le Rapport de synthèse contient une boite à idées hétéroclite Colbertiennes comme le développement d’assistant conversationnel intelligent en soutien à la modernisation de l’action publique. C’est peut-être le seul projet vraiment ambitieux de tout le plan car la création d’un tel agent est un véritable défi technologique du cinquième ordre!
Bref, quand il y a trop de monde impliqué, on saupoudre, on fait du puzzle, on noie le poisson. Ce genre de plan sert surtout à faire un état des lieux. Or établir une stratégie, c’est faire des choix, définir une ambition et ne pas tout faire. Cela demande du leadership. Visiblement, il n’existait pas du tout à l’échelon politique ou administratif.
L’excellence pas qualifiée
Les documents répètent à l’envie que la France dispose d’une recherche d’excellence. On retrouve cette rengaine dans de nombreux plans industriels. On se pose ensuite la question de la valorisation de cette excellence dans l’industrie.
Cependant, cette excellence n’est pas bien qualifiée. Les rapports mettent en avant différents benchmarks en termes de publications, brevets ou nombre de chercheurs. On se retrouve troisième en nombre d’articles scientifiques publiés. Et en second en Europe en start-up financées.
Est-ce la seule mesure de l’excellence? Comment cette excellence peut-être se développer et être valorisée? Peut-on se contenter de généralités et d’indiquer que l’enseignement des mathématiques en France est meilleur qu’ailleurs? L’excellence est une vision statique, pas dynamique. Ne peut-on pas se challenger et se donner des défis ambitieux?
Finalement, ou souhaite-t-on être excellent et durablement et avec un impact économique? Ce n’est pas indiqué dans le plan. C’est un secret d’Etat!
Le chiasme entre produit et services
En page 10 du Rapport de Synthèse, on trouve cette perle sur l’approche service vs produit:
«La France doit faire naître des leaders emblématiques en matière d’IA qui structureront les écosystèmes nationaux et joueront le rôle de figure de proue à l’international pour l’ensemble des acteurs français. De grands intégrateurs en IA proposant des systèmes clés en main peuvent jouer un rôle essentiel dans ce sens. En étant la pièce maitresse du couplage entre l’offre, portée le plus souvent par des startups et des PME, et la demande, tirée par les grandes entreprises et les grands groupes, les intégrateurs sont un élément charnière de la chaîne de valeur.Ils sont à même de devenir des leaders emblématiques de l’IA ou d’en permettre l’essor. Un atout de notre pays est de compter, d’une part, plusieurs entreprises de référence dans les services numériques et le conseil en technologies qui ont le potentiel pour s’imposer comme de grands systémiers de l’IA, et d’autre part, de grands groupes utilisateurs susceptibles de créer des spin-offs qui le deviendront.»
On sent l’influence des grandes entreprises de services numériques, qui pourtant n’étaient pas nombreuses dans les groupes de travail (il y avait surtout ATOS). Cette approche «service» est complètement hors des clous. C’est d’ailleurs elle qui plombe l’industrie du numérique depuis des décennies. Le poids des ESN (Entreprises de Services Numérique) a toujours été élevé dans l’emploi et la valeur ajoutée numériques en France. Alors que le poids des entreprises produits, notamment les éditeurs de logiciels et grands acteurs de l’Internet, est faible. Tout du moins, plus faible et moins influent qu’il ne l’est aux USA ou dans des pays très innovants dans le numérique tels qu’Israël, Taïwan ou la Corée du Sud. La contraposée au manque de GAFA en France est l’hyperprésence des grandes ESN. Elle relève de la lacune industrielle dans l’approche volume et produit vs l’approche projets et services. Ces ESN accompagnent surtout les grandes entreprises dans leurs projets. Mais jouent un rôle marginal dans la création d’une industrie de l’IA en tant que telle, avec des offres de produits. Elle créé d’ailleurs une forte concurrence côté emploi, en aspirant une bonne part des ingénieurs et universitaires qui sortent de l’enseignement supérieur.
Ca continue sur les start-up avec une curieuse proposition consistant à faire des ESN des entreprises d’intégration des solutions des start-up de l’IA! Donc, les start-up françaises de l’IA vont devenir des leaders mondiaux en s’adossant aux ESN qui eux-mêmes bossent pour les grands comptes français. On est bien partis!
«Les start-up et PME françaises fournisseurs de technologies, qui disposent souvent de peu de moyens à consacrer au marketing, sont en effet confrontées à l’enjeu de faire connaître leurs briques technologiques à une audience la plus large possible. Des plateformes mutualisées dans lesquelles ces entreprises mettraient à disposition leurs briques technologiques pour des tests par des tiers pourraient par exemple apporter une réponse concrète à cet enjeu. Ces plateformes devraient être focalisées sur une ou plusieurs thématiques techniques horizontales (par exemple analyse de texte, vision par ordinateur, etc.) et proposer des interfaces documentées permettant une prise en main rapide des briques exposées. Via ces dispositifs, les intégrateurs pourraient avoir une plus grande visibilité sur les solutions françaises disponibles et les tester facilement pour évaluer leur intérêt dans les champs d’application des systèmes qu’ils développent.»
L’oubli du hardware
Le plan IA recèle une grosse lacune sur ce qui pourrait être une force française: le hardware et les composants! Aucune société du secteur ne semble avoir été intégrée dans les groupes de travail.
Or, c’est un domaine où il existe une opportunité autour de l’IA et avec au moins deux technologies clés:
- Les processeurs synaptiques intégrant des réseaux de neurones qui sont notamment utilisés dans la reconnaissance d’images. Il y a pourtant des équipes du CEA qui planchent sur le sujet, en liaison avec STMicroelectronics à Grenoble qui apporte notamment sa technologie FD-SOI permettant de créer des processeurs spécialisés à basse consommation. Des startups se sont aussi positionnées sur le créneau comme Scortex.
- Les processeurs quantiques généralistes qui pourraient transformer radicalement le paysage informatique autour de l’IA dans les deux décennies à venir. C’est probablement l’un des enjeux les plus critiques pour faire avancer l’IA et le deep learning. Les grands acteurs sont américains et canadiens (D-Wave). Des chercheurs travaillent pourtant sur le sujet en France et notamment, encore, au CEA.
Ces investissements dans les composants d’acteurs américains ne sont d’ailleurs pas évoqués dans la cartographie des stratégies des grands acteurs, qu’il s’agisse de Google avec ses Tensor Processing Units (des circuits ASIC implémentant des réseaux de neurones exploitables via les API du SDK TensorFlow) et Intel avec son acquisition de Nervana ou son investissement dans le Français Chronocam. Et ne parlons pas de Nvidia qui est en train de se positionner comme le leader des processeurs embarqués dans les véhicules autonomes, notamment via ses accords récents avec les équipementiers allemands Bosch et ZF, ainsi que dans l’équipement de data centers en GPU servant au machine learning centralisé.
Dans ces deux domaines, l’excellence scientifique est pourtant un élément différentiateur clé. Surtout dans l’informatique quantique qui reste très complexe, si ce n’est mystérieuse. Elle a des implications énormes à tout point de vue… y compris au niveau de la souveraineté. Faut-il attendre 2030 pour que l’Etat lance un «ordinateur quantique souverain», évidemment bien trop tard?
Le manque d’ambition et d’approche par les besoins
Du fait de l’approche par comité, le travail de synthèse des rapports de ce plan relèvent d’une approche «bottom-up» qui part des détails. Elle mériterait d’être complétée par une vision «top-bottom» partant des besoins. Cela serait plus lisible, plus facile à communiquer, surtout au grand public. Et cela permettrait d’exprimer des ambitions claires.
Par exemple, en indiquant que la France pourrait être le premier pays à équiper une ville de taille moyenne en véhicules électriques autonomes. A charge d’assembler ensuite toutes les briques technologiques, économiques, d’infrastructures, sociétales et règlementaires pour y parvenir. Idem dans la santé: mettre en place une expérience de médecine prédictive basée sur l’IA et la génomique, en liaison avec le plan France Génomique 2025. Etc.
Les conclusions du groupe de travail sur l’automobile autonome sont sidérantes. Le rapport propose une vision bien trop technique et bas niveau du sujet. Il ne comprend pas d’analyse des grands enjeux technologiques et des acteurs. Il n’y est pas fait mention de Nvidia, Mobileye, Velodyne et autres acteurs clés de l’embarqué et encore moins des enjeux connexes de la 5G et du V2X. Il n’y a pas d’indications sur la manière de faire mieux que les autres. Y prédomine une approche scientifique es-abstracto faisant… abstraction de ce que font les autres et de l’état de l’art. La synthèse des propositions associées est édifiante:
L’une des cinq propositions consiste à préciser le code de la route! On croit rêver! Ca mérite de gros coups de pieds au cul! Devenir leader industriel en changeant le code de la route, c’est vraiment de l’innovation de rupture!
Du côté des start-up, le plan du groupe de travail «transfert de technologie» propose un plan de financement de 25 millions d'euros pour 10 startups dans l’IA. En lisant entre les lignes, on comprend qu’il s’agit de financer une douzaine de start-up à ce niveau là sur 10 ans, donc avec 300 millions d'euros. C’est pas mal mais dans la pratique, c’est petit joueur par rapport aux start-up américaines du domaine qui sont les mieux financées (cf cette petite liste réalisée début 2016). Pour jouer gros, il faudrait d’emblée annoncer soit des partenariats et financements internationaux, soit d’établir des startups à cheval entre la France et les USA.
Ailleurs dans le plan, il est proposé «d’étudier la possibilité et l’intérêt de favoriser, via une défiscalisation, le rachat de start-up de l’IA par les grands groupes français afin qu’ils s’approprient plus rapidement des technologies innovantes et pointues pour garder leur avantage compétitif». Pourquoi donc faudrait-il une fiscalité spécifique? Pour défiscaliser quoi précisément? Et pourquoi donc seulement dans l’IA?
Bref, le plan est bien trop sage. C’est le reflet compréhensible du poids des chercheurs qui sont raisonnables dans leur approche. L’inventaire des travaux de recherche qu’ils font dans le rapport de synthèse sert d’ailleurs aussi à démythifier le côté magique de l’IA et les commentaires parfois surréalistes à son sujet dans les médias. Le rapport comprend aussi de sages réflexions sur les usages dans la santé, dans l’industrie, dans les métiers juridiques ou la relation client. Mais cela ne débouche pas sur des paris ambitieux qui permettent de servir d’aiguillon. Donc, ce plan ressemble à celui sur objets connectés de 2014 que je vous avais décortiqué ici en septembre 2016. On veut être leaders mais on ne définit pas la nature du leadership recherché! On a eu la même chose sur le big data, le solaire photovoltaïque, le cloud et tant d’autres secteurs!
A côté de cela, nous avons Elon Musk qui enfume tout le monde avec sa startup Neurolink dont il se dit qu’elle connecterait directement le cerveau à l’IA. C’est un délire scientifique total, mais au moins, ça bouscule!
Le manque d’international
Dans ce plan sur l’IA, il y a la France et le reste du monde. David contre Goliath. Mais pas de judo ni d’effet de levier particulier. En fait, les intervenants des groupes de travail n’ont fait qu’enquiller des idées tactiques les unes derrière les autres sans réfléchir un peu côté stratégie. Comment créer une industrie de l’IA? Comment éviter de se faire déborder par les USA? Sur quel domaine peut-on devenir excellents non pas simplement d’un point de vue scientifique, mais d’un point de vue industriel?
Et surtout, avec qui pourrait-on s’allier? Au niveau Européen ou au-delà? Quels partenariats stratégiques imaginer pour nos grandes entreprises ou start-up. Ce genre de réflexion plutôt confidentielle ne peut évidemment pas être détaillé dans ce type de rapport. Mais au moins peut-on en relever l’importance!
Pourquoi donc?
Bref, avec ce plan, comme avec les précédents plans industriels, on ne risque pas d’aller bien loin. Je ne jetterai pas pour autant l’opprobre sur l’Etat et les deux Ministères impliqués. Les lacunes proviennent aussi bien de la puissance publique que des institutions et entreprises privées sollicitées dans la préparation du plan.
L’IA est aussi un domaine relativement nouveau dans l’écosystème de l’innovation. Les concepts de base sont encore mal maitrisés par nombre d’entrepreneurs et de grandes entreprises. Les chercheurs maîtrisent mieux la dimension scientifique mais pas forcément la dimension entrepreneuriale. L’IA est comme le logiciel ou l’IOT, un domaine technologique éminemment transversal. C’est à la fois un outil pour plein d’entités et potentiellement une industrie à part entière. Cela explique les difficultés à pondre un plan digne de ce nom.
Je vais utiliser une nouvelle fois le framework de plan stratégique, décrit pour la première fois en septembre dernier et testé sur le plan objets connectés de la nouvelle France Industrielle, et évaluer point par point son application dans le cas présent sur l’intelligence artificielle.
Le quoi:
- Il définit une forte ambition avec un leadership affiché, aligné sur un objectif difficile à atteindre et … qui n’est pas déjà atteint par d’autres pays.
Des ambitions sont affichées côté recherche, mais sans casser la baraque. Côté industrie, c’est encore plus timide.
- L’objectif part d’un problème complexe à résoudre qui a un impact sur la société à l’échelle mondiale.
Le plan part des détails et pas des objectifs!
- Le plan élabore un logique de plateforme et d’écosystème liés au secteur visé. Il identifie les éléments de commodité et les nœuds technologiques et de services à même de concentrer la valeur. Il ne le documente pas forcément explicitement, mais cette logique doit sous-tendre les choix stratégiques de positionnement du produit industriel à créer de la chaine de valeur associée.
Et bien, pas du tout!
Le quand :
- Il prend en compte la notion de timing dans un monde qui bouge très vite et est loin de nous attendre. Il permet au projet d’être en avance sur l’état de l’art mondial, donc d’avancer rapidement. C’est certainement ambitieux mais tout aussi indispensable. Ce n’est pas un plan «de rattrapage». Ces plans sont généralement dédiés aux usages internes au pays, comme dans l’équipement numérique des PME.
Aucune action du plan n’est timée ni n’a d’ailleurs de responsable. Or le timing sur ce genre de sujet est critique, notamment pour éviter que trop d’emplois soient supprimés par l’IA et pas remplacés assez rapidement par des emplois à forte valeur ajoutée, surtout si nos industries ne «produisent» pas assez d’IA.
Le qui:
- Le plan mobilise le secteur privé de manière précise et documentée sachant que cela peut et doit évidemment évoluer dans la durée. Il s’appuie sur des sociétés leaders capables d’entrainer d’autres acteurs avec elles, pas des sociétés en déclin.
Le plan évoque de nombreux acteurs privés, allant des start-up aux grandes entreprises. On va dire que c’est OK, mais tout juste.
- Il est de préférence piloté par une forte tête non conformiste, qui n’est si possible pas juge et partie et qui a déjà une certaine légitimité dans le secteur industriel concernés.
Il y avait bien une forte tête dans le comité de pilotage, avec Cédric Villani. Mais il n’a pas pour autant d’expérience industrielle permettant d’apporter un regard critique de ce côté là. Il en allait de même d’Antoine Petit, le patron de l’INRIA.
- Il propose des stratégies d’alliance si c’est nécessaire pour atteindre rapidement la masse critique, si possible à l’échelle internationale et au minimum, européenne.
RAS sur le sujet dans le plan.
Le comment:
- Il traite de la question du financement, lui aussi probablement international s’il s’agit de créer des leaders internationaux.
Le sujet est évoqué au niveau des startups avec ce financement de 300 millions d'euros pour une douzaine de start-up. C’est mieux que rien mais ne mènera pas forcément loin.
- Il propose éventuellement la mise en place d’une grande infrastructure publique, qui peut couvrir la recherche scientifique ou un instrument industriel fortement mutualisé.
Non. Mais pas forcément nécessaire sur l’IA. Sauf peut-être sur l’informatique quantique.
- Il évoque les compétences à créer et fédérer et des moyens associés.
Ce sujet était plutôt bien traité dans la dimension recherche et enseignement supérieur.
- Il met en branle tout l’appareil d’Etat transversal.
C’est à peu près OK.
- Il propose éventuellement des aménagements règlementaires pour favoriser l’adoption d’innovations.
C’est évoqué comme nous l’avons vu sur le code de la route et autour de la santé. Mais il y a probablement encore fort à faire.
Voilà qui permet de mieux identifier les lacunes dans l’approche, lacunes qui ne sont probablement pas exhaustivement décrites ici.
On fera mieux la prochaine fois… dans ce long long long processus d’apprentissage!
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
Lire aussi: Présidentielle 2017: pour «Uberiser» la politique, la révolte citoyenne doit avancer comme une start-up
- Ask A VC : comment modéliser un compte de résultat — Partie 6/6 : analyse de sensitivité - 21/05/2024
- Ask A VC : comment modéliser un compte de résultat — Partie 3/6 : les Coûts Fixes - 16/01/2024
- Question à un VC : Pourquoi les marges unitaires sont-elles si importantes pour votre modèle d’affaires? - 13/11/2023