Les plans industriels des 30 glorieuses
Premier volet d'une série d'articles publiés sur le blog d'Olivier Ezratty.
Les enjeux technologiques des années à venir ne manquent pas et ils risquent de bien chambouler les équilibres industriels mondiaux. Nous avons par exemple l’intelligence artificielle, la robotique, l’énergie, l’environnement et la génomique pour n’en nommer que quelques-uns, tous ayant, de près ou de loin, un lien avec le numérique.
A chaque nouvel enjeu, on en vient à se demander, au moins en France: «que fait l’Etat?» et «avons nous une stratégie industrielle digne de ce nom?». On se met à rêver d’un Colbert, d’un Louvois voire d’un De Gaulle, lançant de manière lyrique de grandes ambitions industrielle pour le pays.
Lorsqu’une telle stratégie est plus ou moins formulée dans moult rapports diligentés par l’Etat à des spécialistes du secteur ou à des hauts-fonctionnaires, la réaction est souvent violente. Le plan est à côté de la plaque, il arrive souvent bien trop tard et veut rattraper un retard, il est trop compliqué, les priorités ne sont pas claires, il n’y a pas d’ambition, et souvent, sont privilégiés des usages internes au pays face aux enjeux industriels mondiaux, notamment à l’export. Et la technologie l’emporte sur les besoins du marché. Que l’on observe le passé ou les plans industriels proposés dans la palanquée de rapports au gouvernement publiés ces dernières années, on reste généralement sur sa faim.
Pourtant, ce n’est pas qu’une affaire de communication politique maladroite. La société civile est massivement impliquée dans la production de ces plans. Sont fréquemment impliqués des dirigeants de haut niveau d’entreprises établies, et même, plus récemment, de start-up. S’y associent des dirigeants d’institutions diverses, économistes et laboratoires de recherche. Bref, des élites multiformes. De manière transversale, de la création de Sophia-Antipolis au pôle technologique de Grenoble en passant par les «clusters» et les pôles de compétitivité, les pistes pour dynamiser l’innovation industrielle n’ont pas manqué par le passé. Si elles n’ont pas servi à rien, elles n’ont pas permis pour autant de briller suffisamment.
J’en viens donc ici à me poser quelques méta-questions: l’Etat peut-il donc encore créer de véritables stratégies industrielles? A-t-il d’ailleurs pu le faire dans le passé et avec succès? Quels sont les programmes et pays de référence dans le domaine? Que faudrait-il faire et attendre de l’Etat et des élites face aux grands enjeux industriels du moment? Comment le numérique a-t-il changé la donne? Et surtout, quelle formes innovantes pourraient prendre des initiatives de mobilisation industrielle ambitieuses?
Dans cet article en trois parties, j’aborderai dans un premier temps l’archéologie des grands projets industriels dits gaulliens. Dans un second, je m’attaquerai aux plans industriels des quinze dernières années. Enfin, dans une dernière partie, nous ferons un tour du cahier des charges d’un Etat stratège capable de favoriser l’innovation et un renouveau industriel dans le pays, tout en tenant compte de la nouvelle donne. Vaste programme!
Les plans industriels des trente glorieuses
L’aspiration à voir l’Etat endosser le rôle de stratège industriel est liée à la nostalgie des années dites Gaulliennes, qui démarrent en fait sous la Quatrième République et se terminent avec le premier mandat de François Mitterrand. Les principaux plans industriels étaient poussés en partie par le Commissariat Général au Plan et par les corps techniques de hauts-fonctionnaires, issus principalement de l’Ecole Polytechnique.
Ces plans relevaient à la fois de la reconstruction d’après-guerre des infrastructures industrielles du pays, dans le cadre du plan Marshall, et de plans plus spécifiques dans l’énergie nucléaire, les transports, l’armement, les télécoms et le numérique (plans calcul). Et il a eu aussi des plans dans les travaux publics, les grandes infrastructures, les barrages, le charbon et l’acier.
A de rares exceptions près, ces plans visaient à garantir l’indépendance technologique du pays, notamment face aux USA. Certains ont permis à la France de devenir exportatrice nette, en particulier dans les industries militaires. Dans d’autres cas comme dans le numérique, les résultats ont été plutôt nuls et nous sommes devenus, comme tous les pays européens, de gros importateurs nets de technologies.
Ces plans se situaient aussi dans un contexte de fort interventionnisme de l’Etat dans l’économie. Il s’était notamment manifesté par les grandes nationalisations au sortir après la Libération, en 1945, avec Renault ainsi que le secteur bancaire, celui des assurances, le secteur de l’énergie (charbon, pétrole, gaz, électricité), la construction aéronautique, les transports aériens (la SNCF ayant été créée en 1937). La sidérurgie a été entièrement nationalisée en 1978 et la chimie pendant les années 60/70 avec notamment CDF Chimie (1969), Sanofi (1973). Dans un grand nombre de cas, l’idée sous-jacente était de créer des économies d’échelle par regroupement de secteurs d’activité très fragmentés, comme dans la construction aérienne.
Ont suivi les nationalisations de 1982 sous François Mitterrand avec Thomson Brandt, Saint Gobain, Pont à Mousson, Péchiney Ugine Kuhlman (PUK) et Rhône-Poulenc, plus le contrôle de Dassault Aviation, Matra et Roussel-Uclaf. Dans un premier temps, cela a apporté une manne de fonds propres à ces entreprises délaissées par leurs actionnaires, leur donnant les moyens de se restructurer. Certaines ont ensuite fusionné (Elf avec Total, Roussel Uclaf, dans Hoechst puis Sanofi), disparu (Charbonnages de France) ou ont été absorbées par des groupes ou investisseurs étrangers (Arcelor, Pechiney, Rhône-Poulenc, l ‘activité grand public de Thomson…). L’arrivée de Jacques Chirac à Matignon en 1986 a déclenché ensuite une douzaine de privatisations (Saint Gobain, Paribas, CGE, CCF, Havas, Société Générale, TF1, Suez, Matra). Le reste a suivi jusqu’aux années 2000.
Le nucléaire civil
On doit au Général de Gaulle la création du CEA en 1945. La première pile atomique a été lancée au CEA à Fontenay-aux-Roses en 1948, sous la quatrième république. C’est le retour de De Gaulle aux affaires en 1958 qui relance les efforts industriels dans le nucléaire avec comme visée la possession de l’arme nucléaire, démontrée la première fois en 1960. Les centrales nucléaires civiles sont ensuite déployées en France entre 1966 et 1997. La France a pu atteindre un record mondial dans la production d’électricité d’origine nucléaire, environ 77% à ce jour.
Cet investissement stratégique est très contesté aujourd’hui, du fait de ses retombées à long terme, dans le retraitement des déchets, et par son côté non démocratique. A vrai dire, aucun pays n’a fait de référendum pour construire des centrales nucléaires. L’accident de Tchernobyl marqua un coup d’arrêt dans le monde aux déploiements de centrales nucléaires. Celui de Fukushima 2011 également. A ce jour, les nouveaux déploiements de centrales ont surtout lieu en Chine et en Corée du Sud.
Côté industriel, Framatome construisait les réacteurs, Technicatome réalisait l’ingénierie civile et la fabrication des réacteurs nucléaires de la marine militaire, Alstom fabriquait les turbines et la Cogema s’occupait des matières premières et du recyclage, comme à l’usine de retraitement de la Hague. Framatome, Technicatome et la Cogema ont fusionné en 2001 pour devenir Areva. Les centrales françaises, opérées par EDF, ont été construites en exploitant des brevets américains: ceux de General Electric pour la première génération de réacteurs à eau bouillante (mais dont la commande a été annulée par EDF en 1975) puis ceux de Westinghouse pour les réacteurs à eau pressurisée (PWR). Mais l’essentiel de la valeur ajoutée industrielle a l’air bien française.
Si Areva est bien le leader mondial du secteur du nucléaire civil, il est bien mal en point, étant notamment plombé par les retards de fabrication des réacteurs de nouvelle génération EPR autant en France (Flamanville) qu’à l’étranger (Finlande, Chine). La société a cependant affiché des résultats financiers positifs pendant une bonne quinzaine d’années depuis sa création ce qui n’est pas le cas de nombre d’entreprises issues des grands projets gaulliens.
Le nucléaire militaire
Le nucléaire civil et militaire étaient étroitement liés, pilotés à l’origine par le CEA. Le nucléaire militaire dépend de la DAM du CEA (Direction des Affaires Militaires). Les débuts des projets de création d’arme atomique remontent à la défaite de Dien Bien Phu au Vietnam, en 1954, sous Pierre Mendès-France.
Cette indépendance a nécessité un effort industriel énorme touchant à l’ensemble des vecteurs de missiles nucléaires : les sous-marins nucléaires (classes Redoutable puis Triomphant), les missiles du plateau d’Albion puis les capacités d’emport de l’aviation militaire (Mirages IV puis Rafale). Dans ce domaine, nous n’avons, et pour cause, jamais été véritablement exportateurs. Nous avons d’ailleurs été plutôt importateurs, de savoirs et technologies américaines, mais sous le manteau et de manière très ponctuelle. La dissuasion nucléaire a représenté jusqu’à un point de PIB de la France. Son coût est ensuite retombé à 0,15% (en 2013) ! Autant dire que nos exportations dans le domaine sont nulles. Tout du moins officiellement.
Le plan calcul
Lancé en 1966, le plan calcul est le premier «plan numérique» de l’Etat français. La France souhaitait se doter de supercalculateurs dans le domaine de la gestion. Côté nucléaire, elle s’était initialement équipée en calculateurs américains originaires de Control Data et IBM. Le plan calcul visait à créer une filière française et européenne, notamment autour de ce qui deviendra Bull. Le plan a été stoppé en 1975 sous VGE. Mais les aides publiques à cette filière ont perduré après, sans grand succès industriel.
Le marché des grands calculateurs s’était dans la pratique développé autour d’un standard de fait, celui d’IBM avec ses mainframes 360 (1965), puis 370 (1971), 43XX (1979) et 308X (1980). IBM a pas à pas écrasé l’ensemble de ses concurrents, américains et européens, que l’on regroupait sous l’acronyme de BUNCH, sorte de “GAFA de losers” : Burroughs (devenu Unisys en 1986, encore en activité), Univac (fusionné avec Burroughs), Nixdorf (allemand, absorbé par Siemens en 1990), Control Data (vendu en appartements dans les années 80/90) et Honeywell Bull (devenu Bull, puis intégré dans ATOS en 2014). Cela a d’ailleurs valu un procès antitrust pour IBM, intenté en 1969 par le DOJ américain, et abandonné en 1982. Le DOJ demandait à IBM de séparer clairement les ventes de matériel et de logiciels. Cela a indirectement permis le développement de sociétés telles que SAP (créé en 1972) et Oracle (créé en 1977).
Les supercalculateurs sont restés un enjeu industriel jusqu’à nos jours, et en particulier en 1995, lorsque Jacques Chirac décida de lancer le dernier essai nucléaire dans le Pacifique, juste avant que les outils de simulation numérique permettent de s’en passer. A noter un reste encore en état du plan calcul: l’INRIA, créé en 1967. Chez ATOS, Bull continue de déployer les évolutions des super-calculateurs TERA à la DAM du CEA. Tous les cinq ans, une nouvelle génération est mise en route: TERA 1 en 2001, TERA 10 en 2005, TERA-100 en 2010, TERA-1000 depuis 2015 et un Exa-1 prévu d’ici 2020. Ils seraient les plus performants d’Europe.
La France, comme toute l’Europe, a par ailleurs complètement raté la vague de la micro-informatique, lancée d’abord en 1975 aux USA (Altair, Microsoft), puis par Apple (1977) et surtout par IBM (1981) avec les débuts du PC. Ce sont pourtant deux français, André Truong et François Gernelle, qui étaient à l’origine d’un des premiers micro-ordinateurs en 1973, le Micral, lancé avant l’Altair américain. Leur société R2E a été rachetée par Bull en 1978. Et cela n’a pas donné grand chose, ce dernier ne croyant pas au développement d’un marché de masse pour ses micro-ordinateurs, erreur fatale aussi commise par Digital Computers aux USA. L’industrie du PC a échappé à la France, puis en grande partie aux américains, pour être finalement contrôlée par les asiatiques, surtout Taïwan et la Chine. Elle est actuellement en déclin car les taux de pénétration des PC sont déjà élevés et la mobilité a pris le relai comme outil numérique prioritaire pour le grand public dans les pays émergents.
L’aviation civile et militaire
La France a été longtemps exportatrice dans le civil avec la Caravelle (EADS) puis avec l’Airbus lancé à l’échelle européenne. C’est l’un des rares cas de stratégie industrielle franco-européenne réussie. Le premier Airbus a été lancé en 1972. Et la société tient tête à Boeing depuis pas mal de temps. Elle est l’objet de disputes avec les partenaires européens du projet, notamment allemands, pour savoir qui fabrique les composants des avions et qui les assemble. L’Airbus A320 est le recordman des grands produits industriels français ou franco-européens en termes de volume avec plus de 4200 unités livrées.
Dans le militaire, la France a été exportatrice avec les Mirage de Dassault Aviation. Son successeur, le Rafale, a été lancé dans les années 1980 mais il a fallu attendre ces dernières années pour voir les premiers contrats de vente à l’international être signés, et non sans mal (Inde, Qatar, Egypte). L’entreprises privée qu’est Dassault Aviation s’en est bien mieux sortie avec ses Falcon civils que dans l’aviation d’affaire.
Il faut aussi signaler l’échec commercial du Concorde, dont le premier vol a eu lieu en 1969, le premier vol commercial en 1976 et le dernier en 2003. Il n’a été utilisé que par Air France et British Airways, et pour cause puisque c’était un projet industriel franco-anglais. Les américains ont bloqué le projet car l’avion “était bruyant”, ce qui n’était probablement pas la seule raison.
La marine militaire
La France est autosuffisante pour l’ensemble des bâtiments de sa Marine Nationale: frégates, destroyers, navires de soutien, sous-marins d’attaque et lanceurs d’engin et porte-avions. La filière est légèrement exportatrice, on l’a vu récemment avec les fameux navires de support Mistral, vendus initialement aux Russes, puis soldés à l’Egypte après l’affaire Ukrainienne. Mais il ne s’agit pas d’un «plan industriel» en tant que tel.
La France a choisi l’indépendance technologique depuis la nuit des temps, qui remonte aux arsenaux lancés par le Cardinal de Richelieu. Issue de ces arsenaux, la DCNS – dont l’Etat et Thalès sont actionnaires – fabrique les navires de la Marine Nationale. Elle a du régulièrement dégraisser ses effectifs ces 20 dernières années. Et depuis que la branche énergie d’Alstom a été cédée à General Electric en 2014, les turbines qui équipent les réacteurs nucléaires de la Marine Nationale sont maintenant sous dépendance américaine, même si elles sont encore fabriquées en France.
La DCNS et ses ancêtres est à l’origine des porte-avions Foch et Clémenceau, lancés sous la 4e République et mis en service au début des années 1960 et vendus ou scrapés depuis, et du fameux Charles de Gaulle, dont la mise en route a été difficile, du fait de défauts dans ses hélices qui vibraient trop. Il y a eu des tentatives de lancer un porte-avion franco-anglais, qui n’ont jamais abouti. Cela aurait permis de générer des économies d’échelle, passant de 1 à 3 ou 4 exemplaires. On est loin des marchés de masse!
Côté exportations, la DCNS s’est plutôt illustrée dans les sous-marins, avec des contrats destinés au Pakistan, au Chili, avec la Malaisie, à l’Inde, au Brésil, et récemment avec l’Australie, dans un deal record de 34 milliards d'euros portant sur 12 sous-marins. Cela permet de générer de meilleures économies d’échelle que dans les porte-avions.
Côté USA, les chantiers navals militaires américains sont privés. Le marché y est dominé par la société Huntington Ingalls Industries qui possède notamment les chantiers navals NewPort News Shipbuilding en Virginie, sur la côté Est. Ils emploient environ 40 000 personnes. Ces chantiers produisent tous les porte-avions et la moitié des sous-marins nucléaires américains. Les grandes séries? Un porte-avion à $10B environ tous les 4 ans! Ils n’exportent quasiment pas leur production, et dans ce cas, uniquement pour des bâtiments de faible tonnage.
Ariane
Voilà un exemple voisin du programme Airbus avec une réussite à la fois technique, économique et collaborative avec de nombreux pays européens. L’industrie française y joue un rôle clé, aussi bien dans les équipements, la motorisation que dans les lancements avec la base de Kourou en Guyane et enfin, dans la construction de satellites dans le groupe Airbus (anciennement Astrium). Plus de 200 lancements ont été réalisés par les fusées Ariane depuis le premier en 1979. C’est probablement le grand projet industriel le plus scalable de France après Airbus.
La France est également impliquée dans de nombreux autres projets spatiaux : dans la station spatiale ISS, les instruments de mesure de Curiosity sur Mars ou avec la sonde Philae.
Le TGV
Lancé en 1969, mené par Alstom, le TGV fut plutôt une réussite en France dans son déploiement par la SNCF à partir de 1981 et la création de nombreuses lignes à grande vitesse, y compris celle qui va jusqu’à Londres et Bruxelles.
A l’export, c’est moins brillant. Un dérivé du TGV roule en Corée du Sud – qui est devenue indépendante technologiquement depuis – et un autre doit être mis en service au Maroc. Les allemands de Siemens et les espagnols sont devenus nos principaux concurrents. Et le marché est moins bien important que prévu. Dans le même temps, le principal marché ferroviaire est celui des trains classiques, notamment «de banlieue» et les tramways et là, nous sommes notamment face à un concurrent de taille, Bombardier.
Les télécommunications
La DGT qui dépendait de l’Etat a été longtemps en retard dans l’équipement du pays en téléphone. Nous avions dans les années 60 à 70 plusieurs décennies de retard par rapport aux USA (cf Un retard qui ne date pas d’hier que j’ai publié en 2011). Ce retard n’a été comblé qu’au début des années 1980. S’en est suivi en 1981 le lancement du Minitel et de la télématique, une réussite en son temps. Mais ne fut pas exportée et généra un sérieux retard à l’allumage dans l’adoption d’Internet à partir de 1995. Le Minitel n’a été entièrement débranché en France qu’en 2011 et jamais vraiment exporté à grande échelle (voir dans le détail de l’histoire dans les commentaires).
Un Minitel «export» exposé au Musée des Sciences de Vienne en Autriche. Il n'a jamais été exporté.
Comme les créateurs du MICRAL dans la micro-informatique, nous avons eu nos inventeurs dans les réseaux comme Louis Pouzin, à l’origine du datagram, une technique reprise dans l’infrastructure d’Internet et TCP/IP. Mais c’est une chose que d’avoir un inventeur, c’en est une autre que de lancer une industrie et un standard mondial avec!
Les semi-conducteurs
La place manque pour les décrire en détail mais la France n’a pas manqué de plans et d’ambition autour de l’électronique civile, qu’il s’agisse des centraux téléphoniques créés par Alcatel ou des semi-conducteurs, dont la filière est devenue après de nombreuses fusions/acquisitions, le groupe franco-italien STMicroelectronics.
La recherche fondamentale est notamment alimentée par le CEA-LETI à Grenoble, une ville qui ressemble de près à la Silicon Valley des origines. En est sortie une société comme SOITEC, qui conçoit et fabrique des wafers SOI à isolant, permettant de créer des processeurs économes en énergie.
Le site de production STMicroelectronics de Crolles avec la Fab300 fabricant des wafers de 300 mm en technologie 28 mm.
La technologie SOI est intégrée dans le FD-SOI de STMicroelectronics, qui est maintenant utilisé sous licence par Samsung et d’autres fondeurs comme Global Foundries. STMicroelectronics est bien positionné sur le marché des capteurs et des micro-contrôleurs dans l’IOT, mais a du mal dans d’autres secteurs. Il annonçait en début 2016 arrêter son activité de conception et fabrication de chipsets pour les set-top-box TV.
L’usine de production de semi-conducteurs de STMicroelectronics de Crolles près de Grenoble est un fleuron technologique, fabricant notamment des wafers de 300 mm en technologie 28 nm. C’est malheureusement un nain par rapport aux leaders du marché que sont Intel, TSMC et Samsung, qui ont tous des unités de production plus modernes, utilisant une technologie 14 ou 16 nm.
Le plan informatique pour tous
Lancé sous Laurent Fabius en 1985, alors Premier Ministre, ce plan visait à la fois à déployer la micro-informatique dans les écoles et à aider l’industrie micro-informatique française naissante. Les déploiements étaient réalisés avec des TO5 de Thomson couplés à des PC Micral de Bull servant de cœur de réseau local.
Partie prenante du projet, Jean-Jacques Servan-Schreiber avait tenté sans succès d’imposer le Macintosh. Personne n’avait pensé à pousser des PC! Le pilote initial du projet était Gilbert Trigano, le créateur du Club Méditerranée, on imagine, très compétent en informatique. A cette époque, l’industrie du PC était déjà en train de décoller depuis quatre ans et le rouleau compresseur était difficile à arrêter! Encore une mauvaise compréhension des standards de facto et des écosystèmes! Il aurait fallu se bouger au moins 5 à 10 ans plus tôt pour avoir une place dans ce marché. Encore un problème de timing!
Le plan «autoroutes de l’information»
En 1994, le Vice Président Al Gore s’était fait remarquer en évoquant l’enjeu des autoroutes de l’information dans un discours célèbre qui faisait suite à des travaux législatifs démarrant en 1991. C’était le premier VP américain avec une véritable culture geek, bien avant tous les autres dirigeants du du monde (sauf en France, dira-t-on). Al Gore n’avait pas inventé Internet mais avait toutefois imaginé l’importance économique et sociétale d’un réseau mondial ouvert. L’administration Clinton de l’époque ambitionnait de lancer un grand plan d’équipement en infrastructures télécoms numériques, mis en oeuvre évidemment par le secteur privé, AT&T et les autres baby-Bells en premier. In fine, ils n’ont pas été bien plus brillants que nos opérateurs télécoms en France. L’infrastructure télécom haut-débit américaine est encore très inégale.
La France s’est emparée du sujet en confiant au père du Minitel, Gérard Théry, la rédaction d’un rapport, adressé en 1994 au Premier Ministre de l’époque, Edouard Balladur. Bien décrites par Philippe Zilberzahn en 2013, les erreurs de prévision de ce rapport sont bien connues. L’Internet avait été balayé d’un revers de main par les auteurs, car il incarnait une approche trop décentralisée par rapport à l’approche centralisée du Minitel et du X25 de l’époque. Et Gérard Théry ne voyait pas comment on pouvait faire émerger de business models d’un réseau aussi ouvert à tous vents.
Gérard Théry avait cependant vu juste sur au moins deux points : l’importance de la fibre optique dont il recommandait le déploiement – et nous y sommes encore plus de 20 ans plus tard – et le rôle des places de marché d’applications comme modèle économique. Ces app stores sont des approches centralisatrices très voisines dans l’esprit de celle du Minitel ! Et une bonne part de l’Internet est très centralisée, notamment autour de Google Search ou de Facebook. Internet est décentralisé en tant que réseau, mais l’ICANN américain en contrôle l’espace de nommage, et les grands services applicatifs sont mondiaux. La véritable décentralisation de l’Internet revient au gout du jour avec les promesses de la technologie des Blockchains. Comme quoi, l’histoire peut se répéter !
Le laboratoire de Marcoussis d'Alcatel-Lucent en 2013, à la pointe de l'expérimentation et des productions en petite série de composants d'optronique pour les réseaux de fibre optique.
Côté industries dans les couches basses des autoroutes de l’information, nous avions la CGE, devenue Alcatel, fusionné avec Lucent, puis absorbée récemment par Nokia. Au moins, c’est resté européen ! Alcatel a souffert d’une fusion difficilement consommée avec Lucent, d’avoir raté la vague de la 3G, et d’une manière plus générale, de ne pas avoir pu valoriser sa bonne R&D dans des produits de qualité arrivant à temps sur le marché. C’est le symbole d’une lacune, toujours présente dans l’écosystème : la confusion des genres entre la R&D et la capacité à créer des produits industrialisés, conçus pour des marchés de volume, et répondant à une demande client dans un marché où la compétitivité dépend autant du prix que de la qualité et du timing des offres.
La génomique
Un rapport récent a été publié par l’Aviesan (Alliance nationale pour les sciences de la vie et de la santé) préconisant le lancement d’un grand plan de génomique en France (France Médecine Génomique 2025). Nous y reviendrons.
Citons d’abord Jacques Monod et François Jacob, prix Nobel de médecine en 1965 pour avoir découvert le rôle de l’ARN dans le métabolisme des cellules et la production des protéines. Tout juste trois ans après le prix Nobel de Watson et Crick qui avaient découvert la structure en hélice de l’ADN, avec l’aide reconnue plus tard de Rosalind Elsie Franklin.
Longtemps après, les chercheurs français ont été parmi les contributeurs non américains les plus actifs du premier séquençage complet du génome humain, terminé en 2003. En 1990 était même lancé un projet français de séquençage du génome humain. La première cartographie à haut niveau du génome humain a été créée par le Généthon en 1992 et 1993, reprenant pour une part des travaux de l’Institut Pasteur. S’en suivit la cartographie de 30 000 gênes en 1996. Le Généthon avait été créé conjointement par l’AFM Téléthon et le Centre d’Etude Polymorphisme Humain (CEPH) créé par le prix Nobel 1980 de médecine Jean Dousset.
En 1988 avait même été lancé le projet Labimap 2001, piloté par la société d’ingénierie Bertin, pour créer des machines de séquençage européennes. Il fut financé par l’initiative européenne Eureka et regroupait, outre le CEPH et des chercheurs anglais. Les machines de Labimap ont permis au Généthon de produire ses résultats des années 1990 grâce à une automatisation très poussée. Mais Labimap a été un échec industriel et n’a pas permis à la France et à l’Europe de créer une industrie du matériel de séquençage de l’ADN, qui est maintenant contrôlée par les américains et en particulier par Illumina. Question de stratégie industrielle et aussi de «time to market». Mais la France a plus ou moins laissé tomber son effort dans la génomique, se concentrant sur les thérapies géniques, notamment au Généthon. Ce fut le résultat d’un complexe jeu d’influence entre scientifiques et pouvoirs publics de l’époque.
Cette histoire est documentée par le chercheur Antoine Danchin dans La Recherche en 2000 et en version longue dans Bioinformatics ainsi que par l’israélien Yossi Segal. Dans sa thèse de 2004 La Construction de l’espace génomique en France : la place des dispositifs instrumentaux, Ashveen Peerbaye dresse un panorama édifiant du retard français dans la génomique qui remonte à l’entre deux guerres ! Il montre que ces grands succès de la génomique française sont à la croisée des chemins entre une association de malades (l’AFM) très bien financée par le Téléthon et un laboratoire privé (CEPH) financé initialement par une donation. Cela a continué avec le lancement par le Généthon de BioProd à Evry, un centre de production de médicaments de thérapie génique unique en son genre en Europe. Tout cela avec une très faible implication de l’Etat.
De son côté, la coordination des efforts de recherche publique a toujours été très laborieuse, sans compter des moyens financiers limités et éparpillés (CNRS, INSERM). Ces derniers ont d’ailleurs refusé de s’impliquer dans le Human Genome Project! Comme l’indique Ashveen Peerbaye, l’absence de grand corps technique de l’Etat dans la santé a été plutôt un inconvénient, au regard des grands projets industriels cités précédemment. Sans compter l’ignorance totale du politique sur le sujet de la génomique. Il fait aussi état de la lutte entre recherche fondamentale et recherche appliquée, la génomique et le séquençage étant de la dernière catégorie et peu valorisés par les chercheurs en biologie fondamentale. Le côté bourrin et très industrialisé du séquençage n’était pas assez noble pour ces derniers, plus favorables à une recherche artisanale, gène par gène. On comprend mieux cette erreur avec le regard actuel sur la discipline, maintenant que l’on a découvert l’intérêt de croiser les bases de génomes et de ses variations (SNP) avec les bases de phénotypes qui décrivent les pathologies des individus dont l’ADN a été séquencé.
En 2007, le Genoscope, créé en 1997, et le Centre National de Génotypage ont été rattachés au CEA dans l’Institut de Génomique. Il existe même une initiative France Génomique, financée par le Plan Investissement d’Avenir, qui regroupe les efforts français de recherche en génomique.
Les raisons des échecs industriels
La plupart des plans que nous avons cités n’ont pas faire des merveilles côté compétitivité industrielle. Ils ont cependant apporté au pays une certaine indépendance technologique, dans le nucléaire, le spatial, l’aviation et dans l’armement. Ces plans ont probablement généré des retombées industrielles indirectes, comme le programme Apollo aux USA. Dans le numérique, la France a eu presque tout faux. Dans la génomique, elle a lâché prise après avoir été précurseur du domaine avec les américains jusqu’à la fin des années 1990.
Des grands projets que nous avons évoqués, ceux qui ont le mieux fonctionné d’un point de vue industriel étaient d’ampleur européenne : Airbus et Ariane! Ce, malgré les grandes difficultés à coordonner les industries de plusieurs pays, illustrées notamment par les problèmes de câblage électrique survenus aux début du programme Airbus A380 et résolus depuis. Eux seuls ont généré des ventes avec un volume respectable.
Qui plus est, les grandes sociétés industrielles du CAC40 qui sont parmi les leaders mondiaux dans leurs domaines ne sont pas directement issues des projets «gaulliens»: L’Oréal, Total, Danone, LVMH, Vinci, Air Liquide, Essilor, Michelin, Legrand, Veolia et Bouygues.
D’où viennent ces difficultés à transformer une excellence technique en réussites industrielles de grande ampleur? Les raisons sont évidemment multiples. La principale est la nature faiblement entrepreneuriale de ces projets lancés par l’Etat, gérés par des hauts-fonctionnaires, sans grandes contraintes économiques, avec des subventions en tout genre, et sans approche marketing digne de ce nom, que ce soit dans le positionnement marché ou dans le marketing opérationnel des offres.
On peut évidemment dénoncer les élites, les Polytechniciens et les énarques, à l’origine de nombre de ces plans. Puis, passent au hachoir nos grandes écoles, reproductrices d’une élite dirigeante incompétente, peu créative et surtout, pas assez entrepreneuriale. C’est évidemment un peu rapide même si certaines explications se valent sur les mécanismes de reproduction sociale générée par ces écoles, leur place à part face aux universités étrangères et sur leur faible dimension entrepreneuriale, tout du moins jusqu’à il y a une dizaine d’années. Maintenant qu’une bonne part des startups françaises émergent de ces mêmes grandes écoles, on les accuse d’alimenter une bulle entrepreneuriale de fils/filles à papa. Ce qui n’est pas entièrement faux si l’on s’en tient à l’origine sociale dominante des fondateurs.
Les élites techniques françaises ont créé de grands projets industriels qui étaient faiblement entrepreneuriaux dans leur substance. Il s’agissait de créer de grandes infrastructures locales ou des produits complexes sur des marchés très protégés. A part le Minitel, la majorité des projets couvraient des «produits» à très faible volume (genre «un exemplaire», comme pour le porte-avion Charles de Gaulle), quelques dizaines (tranches de centrales nucléaires) ou centaines (dans l’aviation). Ces projets étaient à l’opposé d’approches fordiennes avec de grandes économies d’échelle. Ils étaient fortement intégrés verticalement avec une grande part de la chaine de valeur provenant d’industriels français. Sauf pour les projets européens style Airbus et Ariane. Ils n’impliquaient pas directement le consommateur comme on le fait aujourd’hui dans l’économie «2.0». D’ailleurs, une bonne part des industries manufacturières grand public du pays ont été abandonnées, notamment dans l’électro-ménager, à part ce que produit le groupe Seb. C’est une tendance générale en Europe.
La dimension marketing des grands projets est très limitée. Il s’agit surtout de longs processus de signature de contrats impliquant de douloureux transferts industriels avec une part de la production – au minimum de l’assemblage – qui est délocalisée dans le pays du client. Les contrats intègrent de la formation et des engagements de maintenance sur des décennies. On est très loin du business model répétable des startups professé dans «Customer Development» de Steve Blank! Le marketing se situe aussi au niveau de la diplomatie d’Etat à Etat, quand il ne s’agit pas de mécaniques de pots de vin et de rétro-commissions.
C’est de l’artisanat industriel de produits ultra-complexes pouvant faire la fierté de nos ingénieurs. Cela explique d’ailleurs la forme de l’écosystème numérique français, avec une surpondération de sociétés de services informatiques et de sociétés d’ingénierie (comme Alten ou Altran) au regard de sociétés de création de produits comme les éditeurs de logiciels.
Le fait d’allouer des marchés protégés à nos industriels permet de leur assurer un carnet de commande, mais si leur offre n’est pas assez compétitive, cela ne mène pas loin. C’est l’une des raisons pour laquelle l’Etat commande maintenant sans hésiter des biens d’équipement à des constructeurs étrangers, comme dans les transports routiers (Gendarmerie, armée de terre, …). Les marchés protégés ne le sont plus comme avant lorsque l’Etat doit se serrer la ceinture budgétaire. Cela explique la décision du Ministère de la Défense de remplacer le légendaire fusil d’assault FAMAS par une arme qui sera probablement fabriquée ailleurs en Europe.
Depuis les privatisations de nombreux services public (France Telecom, EDF, …), un autre phénomène s’est mis en branle : le déclin progressif de l’influence des grands Corps techniques de l’Etat – issus de Polytechnique – au profit des Corps administratifs alimentés par l’ENA. Un mal pour un mal différent? On a remplacé des élites techniques plus ou moins visionnaires selon les cas par des élites qui ne sont plus du tout techniques mais pas plus entrepreneuriales ou visionnaires pour autant. Le pays n’a pas forcément gagné au change. Il n’y a même plus un seul scientifique dans le gouvernement, et encore moins d’entrepreneurs ou même d’anciens cadres de l’industrie. A contrario, une majorité des membres du gouvernement chinois sont des scientifiques et des ingénieurs. Cela aide à comprendre les enjeux industriels du moment!
On se plaint de notre sort, mais qu’en est-il du reste de l’Europe? Le bilan n’est pas bien plus brillant que celui de la France. Il y a bien eu le pôle de la mobilité dans les pays nordiques avec Nokia en Finlande et Ericsson en Suède, mais ils ne sont plus en pleine forme. L’industrie du Royaume-Uni? Elle a migré vers la finance. L’Allemagne est toujours à la pointe dans l’équipement industriel ainsi que dans le solaire photo-voltaïque. Mais il n’y a pas de Google allemand plus qu’il n’y en a un d’anglais ! Le plus gros éditeur de logiciels anglais est Sage (3,38 milliards d'euros), juste devant Dassault Systèmes (2,85 milliards d'euros). Le plus grand est SAP – allemand – et fait 20 milliards d'euros de chiffre d'affaires (+18% en 2015) mais sans avoir l’impact sur l’écosystème numérique des GAFA. L’Europe n’a pas de véritable grand acteur mondial de l’Internet.
Aux USA, l’équilibre semble plus abouti entre le rôle du secteur public et celui du privé. L’Etat fédéral finance la recherche dans les universités (comme via le NIH dans la santé ou la NSF) et dans les entreprises (via la NASA par exemple), avec une approche projet plus développée (notamment via la DARPA, la CIA et la NSA). L’Etat fédéral finance et le privé réalise. Ce mode de financement complété par les business angels et le capital risque aboutit à une tradition entrepreneuriale plus forte, même si cette mécanique de financement doit générer des effets de bords.
Selon Suzanne Berger du MIT dans son rapport «Reforms in the French Industrial Ecosystem» publié à l’attention du Ministère de la Recherche, 90% du financement de la recherche dans les universités américaines provient de l’Etat fédéral. Et d’ailleurs, la valorisation de leurs brevets leur apporte une maigre part de leurs ressources financières (3%). Certains commentateurs n’hésitent pas à mélanger les sociétés entre elles et attribuent les succès d’entreprises américaines du web à la commande publique ou au complexe militaro-industriel. S’il est vrai, par exemple, que l’éditeur Oracle a eu comme premier client la CIA dans les années 1970, il n’en est rien pour les leaders du web que sont Google, Facebook ou Twitter, même si le premier a bénéficié d’aides fédérales lors de ses débuts à Stanford, comme de nombreux projets universitaires. Avec la micro-informatique puis Internet et la mobilité, les industries du numérique ont volé de leurs propres ailes sans dépendre de l’état fédéral. La consummérisation du marché du numérique a complètement changé la donne!
Olivier Ezratty est consultant en nouvelles technologies et auteur d’Opinions Libres, un blog sur les médias numériques (TV numérique, cinéma numérique, photo numérique) et sur l’entrepreneuriat (innovation, marketing, politiques publiques…). Olivier est expert pour FrenchWeb.
- Ask A VC : comment modéliser un compte de résultat — Partie 6/6 : analyse de sensitivité - 21/05/2024
- Ask A VC : comment modéliser un compte de résultat — Partie 3/6 : les Coûts Fixes - 16/01/2024
- Question à un VC : Pourquoi les marges unitaires sont-elles si importantes pour votre modèle d’affaires? - 13/11/2023