Les cycles longs de l’innovation
Par Olivier Ezratty, expert FrenchWeb
Tout s’accélère. L’innovation soumet les entreprises à un flot continu d’innovations difficiles à absorber et qui les mettent en danger. Les disruptions sont innombrables et soudaines. Qui plus est, les innovations suivent des lois exponentielles qui les rendent invisibles pendant longtemps et qui explosent alors qu’il est déjà trop tard pour s’adapter. Et les futurologues prévoient avec précision l’arrivée de telle ou telle prouesse comme celle de l’intelligence artificielle générale capable de rivaliser avec l’intelligence humaine et, soudainement de la dépasser. Nous allons aussi prochainement nous déplacer dans les villes en drones hélicoptères autonomes. Et la génomique va rapidement allonger notre durée de vie si ce n’est nous rendre immortels.
Voilà le moto depuis des années qui caractérise l’ambiance autour du numérique et des nouvelles technologies en général. Il adopte un déterminisme forcené de l’innovation. Il se retrouve dans de nombreux ouvrages, notamment ceux qui portent sur la singularité, qui cependant n’ont pas bénéficié de mises à jour depuis quelques années. Le business des porteurs de futurs n’a jamais été en si bonne forme. Ils agitent le drapeau d’un déterminisme forcené.
Je voudrais prendre un peu de recul par rapport à ces thèses et illustrer le fait, qu’au contraire, dans la majorité des cas, les grands cycles de l’innovation sont longs et non déterministes et le demeurent, en tout cas pour les grandes innovations dites de rupture. C’est lié à la variété des incertitudes et lenteurs qui, selon les cas, sont d’origine scientifique, technologique, économique, sociétale et/ou politique. Par contre, certains facteurs, surtout liés aux applications numériques, contribuent à l’accélération de la création et de la diffusion d’innovations.
L’innovation fait face à des forces antagonistes qui évoluent avec le temps et que je vais essayer de mettre en regard. Le monde des innovations incrémentales est par contre un fleuve plus tranquille et lissé dans le temps, avec moins d’accrocs.
Ces cycles longs et des décisions stratégiques prises longtemps à l’avance expliquent aussi la position dominante de certains pays dans de nombreux domaines, au-delà de la taille de leur marché intérieur. Nous verrons cela à la fin.
Un peu d’Histoire
La perception de l’accélération des progrès technologiques et de l’innovation est un vieux sujet qui a traversé les 19e et 20e siècles. Les décennies de l’invention de la machine à vapeur, du train, de la boite de conserve ou de l’aviation ont marqué leur temps. Comme l’illustre très bien What was the greatest era for innovation de Neil Irwin en 2016, chaque décennie passée a radicalement changé la vie des foyers, tout du moins dans les pays développés. Ma grand mère qui avait connu l’arrivée de l’électricité aux débuts du 20e siècle s’émerveillait de la conquête de la Lune en 1969 puis de l’arrivée des micro-ordinateurs en passant par celle de la radio et la TV.
L’indicateur le plus souvent utilisé pour justifier de l’accélération technologique est ce fameux graphe qui décrit la vitesse à laquelle les foyers s’équipent en nouvelles technologies depuis plus d’un siècle aux USA. Il montre à quelle vitesse les foyers sont pourvus à 50% ou plus de nouveaux équipements. Avec des données bien présentées, le rythme d’équipement s’accélère. Mais en y regardant de près, on se rend compte que cette accélération est en partie une vue de l’esprit.
Comme le relèvent très bien Anders Bjerre et Klaus Mogensen dans l’excellent Is acceleration in reality just an illustion? en 2013, certains produits ont connu des rythmes d’adoption aussi rapides sur plusieurs décennies d’écart et d’autres ont été plus lents.
Ainsi, l’adoption de la TV dans les années 1950 a-t-elle été aussi rapide que celle des fours à micro-onde dans les années 1980, de l’Internet, des mobiles ou des tablettes dans les décennies récentes. Les produits dont l’adoption a été plus lente sont les lave-vaisselle, les sèches-linge, l’automobile et les micro-ordinateurs. Quand aux tablettes, si elles ont connu une belle accélération de 2010 à 2015, leur pénétration s’est calmée depuis, et cela n’apparait pas encore dans les charts.
En France, l’adoption de la radio, de la TV et du téléphone ont été bien plus lents qu’aux USA, surtout pour ce dernier. Cf à ce sujet ma série de deux articles Un retard qui ne date pas d’hier publié en 2011.
Anders Bjerre et Klaus Mogensen mettent aussi en avant la valeur relative des innovations technologiques, la radio et les premières TV noir et blancs ayant eu plus d’impact sur la vie des foyers que les TV couleur et à écran plat, presque considérées comme des innovations incrémentales. Par contre, l’évolution des contenus a été plus marquée avec l’hyperchoix véhiculé par le câble, le satellite, l’IPTV puis l’OTT (contenus TV et vidéo “over the top”, récupérés via Internet), illustrant la valeur relative du contenant et du contenu. Une fois les infrastructures et les équipements de réceptions en place, de nouvelles formes de contenus peuvent émerger bien plus rapidement.
Ce tableau présente aussi la particularité de n’être ni complet, ni régulièrement mis à jour. On n’y voit pas l’impression 3D, les thermostats connectés, la TV 4K, les aspirateurs robots ou autres produits relativement récents. Philippe Meda et Stéphanie Mitrano illustrent bien ce biais dans L’illusion de l’accélération qui met en avant cette perception déformée de l’accélération de l’innovation (en 2014) et qui contenait le schéma ci-dessus.
Il existe de nombreuses variantes de ce graphe, qui ne sont pas plus actualisées (source 1 et source 2).
Le dernier schéma ci-dessous illustre un point clé : l’adoption des nouveaux est légèrement plus rapide pendant ces deux dernières décennies mais ce qui change est plutôt, tout du moins en apparence, la diversité des nouveautés produits qui entrent dans les foyers. Elle traduit aussi un glissement des dépenses des foyers, celles-ci étant plus faibles dans l’alimentation et plus grandes dans les loisirs.
D’ailleurs, l’article de Philippe Méda et Stéphanie Mitrano n’évoquaient ni l’IA ni les véhicules autonomes ou la blockchain alors que ce sont les grandes tendances du moment à peine quatre ans plus tard. Cette bougeotte innovationnelle est une constante des industries du numérique.
Ce remue-ménage technologique permanent est parfaitement incarné par le fameux slide du Gartner Group sur l’évolution du “hype cycle” des technologies qui affectent les entreprises. Ce hype cycle présente la particularité de mélanger des domaines où persiste une incertitude scientifique (informatique quantique, brain computer interface) et d’autres où l’incertitude est plus économique ou sociétale (blockchain, maison connectée, assistants virtuels).
Dans L’accélération du monde est une illusion, Frédéric Fréry de l’ESCP Europe explique début 2018 que les disruptions ont toujours affecté les grandes entreprises, en prenant notamment l’exemple des compagnies aériennes comme TWA et Pan-am qui ont disparu, et pas à cause du numérique. Le monde est aussi incertain aujourd’hui qu’il l’était avant. Chaque génération est convaincue de vivre un monde inédit. Nous nous pensons que tout change plus vite qu’avant mais c’est surtout un biais cognitif et surtout, cela dépend du sujet ! Cette multiplication des tendances et technologies qui évoluent en parallèle peut générer cette perception. Elle noie l’observateur. Il devient difficile de comprendre les tenants et aboutissants de toutes les tendances, comme l’intelligence artificielle, la génomique, la blockchain, avec une sauce pimentée d’uberisation et un peu de pipeau conceptuel de transformation digitale technologique ou managériale selon les gouts.
D’autres thèses vont jusqu’à affirmer que le rythme de l’innovation est en pleine décélération. C’est celle de Fredrik Erixon et Björn Weigel dans The Innovation Illusion- How So Little Is Created by So Many Working So Hard, paru en 2016. Dans Entering a dark age of innovation, Robert Adler évoque la thèse de Jonathan Huebner selon laquelle l’innovation aurait ralenti dès le début du 20e siècle. L’unité de mesure ? Le nombre de brevets par habitant aux USA !
C’est un peu court dans la mesure où les sources de l’innovation sont devenues mondiales et plus seulement américaines. Comme quoi ont peut faire dire n’importe quoi à des statistiques. Et surtout, il ne faut pas confondre brevets et innovations. L’exemple de l’Internet qui s’est largement développé grâce aux logiciels open source en est un cas extrême mais très illustratif. Qui plus est, cette étude date de 2005, avant quelques révolutions significatives comme celles des smartphones et des tablettes et leurs usages associés.
Il serait préférable d’évaluer l’investissement des entreprises en R&D et la création de startups et leur financement. Même si c’est une mesure de l’input plus que de l’output.
Ce qui rallonge les cycles de l’innovation
Certains éléments constitutifs de la diffusion des innovations vont dans le sens d’une stagnation, ou tout du moins ralentissent sérieusement toute accélération. Ces composantes de l’adoption des innovations ne sont pas plus rapides aujourd’hui qu’il y a quelques décennies. Elles sont bien plus importantes dans le matériel, quel qu’il soit, que dans le logiciel.
Incertitudes scientifiques
Dans la plupart des champs scientifiques modernes, les cycles de la recherche sont toujours aussi longs qu’avant. Les phases de recherche fondamentale et appliquée continuent de s’étaler sur une à trois décennies. Presque toutes les avancées technologiques attendues d’aujourd’hui dépendent de tels cycles longs. C’est notamment la thèse de Mariana Manzzacuto dans The Entrepreneurial State (2013), qui met en avant la capacité de prise de risque scientifique des états qui ouvre ensuite la voie aux innovations du marché, en s’appuyant surtout sur l’exemple de l’iPhone.
Voici donc quelques exemples de cycles scientifiques plutôt longs. J’ai d’ailleurs bien du mal à identifier des cycles scientifiques courts, de moins d’une dizaine d’année, ayant mené à des innovations de rupture récentes.
L’intelligence artificielle a progressé en apparence de manière fulgurante ces dernières années. Mais c’est dans le champ spécifique et spectaculaire des réseaux de neurones et du deep learning. Or ceux-ci ont été conceptualisés en 1943 (McCullough & Pitts), inventés en 1957 (Perceptrons de Rosenblatt), puis ont connu de nombreux progrès avec la backprop (méthode d’entraînement des réseaux de neurones, 1986), les réseaux convolutionnels en 1989 (LeCun) et les progrès plus récents dans les applications du deep learning au traitement du langage naturel. Les applications de ces réseaux se déploient ensuite à des vitesses très variables selon les domaines. Les agents vocaux sont largement disponibles dans les mobiles et enceintes à commande vocale mais encore moyens tandis que l’interprétation d’imagerie médicale à base d’IA fonctionne bien mais n’est pas encore largement diffusée chez les professionnels.
Dans l’IA, les prévisions prévoient un étalement sur plusieurs décennies des innovations à venir (cf la chronologie ci-dessous). Dès qu’une date de disponibilité est prévue au-delà de cinq ans, l’incertitude est avant tout de nature scientifique. C’est pour cela que nombre de prévisions sur les destructions de l’emploi liées à l’IA sont à prendre avec des pincettes. Elles s’appuient souvent sur des prévisions de déploiement de solutions qui ne relèvent pas encore de l’état de l’art dans les laboratoires de recherche, comme les robots qui remplaceraient les infirmiers/ières dans les hôpitaux.
On a beau avoir séquencé l’ADN humain il y a une quinzaine d’années et réduit son cout à environ un millier de dollars, on n’a pas pour autant traité la myopathie de Duchesne, une maladie d’origine génétique qui fait l’objets d’efforts bien financés, par le Téléthon, et depuis plus de trente ans. Quoi qu’il arrive, les tests cliniques de nouvelles biotechs durent en moyenne plus de 10 ans et sont pour l’instant difficiles à accélérer, ne serait-ce qu’en raison de leur cout qui est très élevé, peut facilement atteindre $1B et a tendance à augmenter. Une étude récente montre qu’aux USA, environ 13% des tests cliniques sont positifs. Dans la pratique, on est plutôt autour des 10%, ce niveau étant plombé par les biotechs en cancérologie qui obtiennent les plus mauvais résultats, accentués dans les phases III et en particulier dans les cancers du pancréas (source).
Dans la réalité augmentée et la quête de lunettes discrètes et légères offrant un grand champ de vue réel et virtuel, les chercheurs bloquent sur les lois de l’optique et les guides de lumière. On attend comme le Messie les lunettes de Magic Leap, qui sont arrivées chez quelques développeurs. Il semble qu’elles ne les déçoivent pas mais ne sont pas extraordinaires pour autant du point de vue du confort et de l’angle de vision. Mais les travaux sur la réalité augmentée ont démarré dès 1968 !
Dans l’informatique quantique, les concepts principaux datent des années 1980 (Feynman) et les premiers qubits des années 2000. Les spécialistes prévoient que les ordinateurs quantiques utilisables pratiquement n’arriveront pas avant une à deux décennies. Et on parle bien d’un risque scientifique, et pas encore d’une incertitude technico-économique qui semble d’ailleurs moins grande. Pour certains chercheurs tels que Gil Kalai, il serait même impossible de créer des ordinateurs quantiques viables. On a là un écart-type très large d’incertitude entre le “ça pourrait marcher dans 5 à 30 ans” à “ça pourrait ne jamais marcher”. Cela n’empêche pas les chercheurs d’inventer depuis 1992 plus d’une douzaine d’algorithmes capables d’exploiter les ordinateurs quantiques lorsqu’ils seront disponibles (ci-dessous) !
Ce n’est pas un scénario si nouveau que cela. Il est intervenu au moins deux fois dans l’Histoire, avec Charles Babbage et Ada Lovelace qui créaient les premiers algorithmes et programmes de 1837 à 1842 pour cette dernière, qui devaient exploiter la machine (mécanique) de calcul analytique du premier. La machine n’existait que sur plan et ne fut jamais construite. Il fallut attendre la seconde guerre mondiale pour qu’elle prenne forme avec des lampes électriques. La seconde fois correspond aux débuts de l’IA à la fin des années 1950 avec ses “pères fondateurs” qui devisaient sur une discipline pour laquelle les machines de l’époque étaient largement sous-dimensionnées.
La notion de pivots des startups est ici remplacée par une forte parallélisation des efforts. Nombre de pistes ont été lancées pour créer des ordinateurs quantiques stables à grande échelle (supraconducteurs, ions piégés, fermions de Majorana, …). Il est possible qu’une seule de ces voies aboutisse !
Côté énergie, la fusion nucléaire en est encore au stade pré-expérimental. Le projet ITER de Caradache a été conçu en 1988. Sa mise en route est pour l’instant prévue pour 2025 avec une montée en puissance d’ici 2035 ! Si ça marche ! Cela fait aussi des années que les chercheurs planchent sur les batteries du futur, plus denses énergétiquement et plus sûres. On entend parler de graphène et d’autres nouveaux matériaux. Mais en attendant, on continue de vivre avec les batteries Lithium-Ion avec leurs nombreux défauts. Et les progrès dans les batteries avancent très lentement.
Nombre de futurologues ne tiennent pas compte de ces nombreuses incertitudes scientifiques pour faire leurs prévisions. C’est le cas par exemple dans What’s Next de l’Anglais Jim Al-Khalili, traduit en français en “Ce que la science sait du monde de demain” qui compile les contributions de différents scientifiques sur différents aspects du futur dans la santé, les transports, l’énergie, l’IA, l’informatique quantique, la téléportation, etc. On y voit bien que si certains principes scientifiques permettent d’imaginer le meilleur, le chemin de leur mise en œuvre pratique est semé d’embuches, essentiellement scientifiques.
Bref, tant que les innovations du futur en sont encore au stade de l’incertitude scientifique, on peut attendre et assez longtemps et l’incertitude reste très élevée. L’adoption des innovations peut éventuellement intervenir une fois ces incertitudes levées.
Est-ce que les méthodes des chercheurs ont évolué au point d’accélérer leur production ? Cela dépend des secteurs. Les outils numériques ont sans doute contribué à les aider, mais cela ne suffit pas, notamment lorsque la recherche passe par l’expérimentation dans le monde réel, comme pour le in-vivo dans les biotechs. Même dans l’IA, la recherche passe par de nombreuses itérations pour évaluer des algorithmes avec des jeux de données.
Incertitudes technologiques
Une fois la science au point, on passe alors à la mise en œuvre technologique et c’est là que l’on peut généralement commencer à parler d’innovations, car celles-ci consistent à mettre des solutions nouvelles dans les mains des utilisateurs et du marché. En quoi les incertitudes associées sont-elles différentes de celles du champ scientifique ? C’est peut-être jouer sur les mots. Cela concerne les phases d’industrialisation et de déploiement qui peuvent être aussi relativement lentes, surtout pour tout ce qui est matériel ou vivant et encore plus lorsque des infrastructures sont en jeu.
Cela concerne par exemple la mise en place d’usines, qui est très lente comme pour les semi-conducteurs ou pour la construction automobile comme l’illustrent les déboires actuels de Tesla qui a du mal à produire en quantité suffisante ses véhicules électriques, malgré un carnet de commandes bien rempli, surtout pour sa Model 3. Pourtant, aucun obstacle scientifique n’empêche Tesla de produire ses véhicules ! C’est un problème d’ingénierie et de mise au point de lignes de production fortement automatisées. C’est vrai aussi du lancement d’un nouvel avion.
Les batteries avec des électrodes au graphène, permettant une charge rapide, sont difficiles à fabriquer en volume et à un cout raisonnable. Ce sont des obstacles plus technologiques et économiques que scientifiques.
Ce sont aussi des incertitudes technologiques et la longueur des tests qui expliquent les retards à répétition du lancement du télescope JWST de la NASA et de l’ESA, dont la construction est terminée depuis longtemps. Il doit prendre le relai de Hubble qui est opérationnel depuis 1993 après avoir été planifié pour 1986 et retardé à cause de l’accident de Challenger puis de ses défauts optiques.
Il en va de même pour le ralentissement de la loi de Moore et les retards répétés d’Intel sur la mise en production de processeurs en technologie 10 nm alors que les machines de production sont disponibles. C’est une affaire de longue mise au point de processus industriels avec beaucoup de tests et d’erreurs.
Nombre d’innovations sont aussi une affaire de synchronicité et d’intégration. De grandes innovations des dernières décennies ont dû attendre que diverses technologies soient disponibles pour voir le jour. L’un des exemples les plus connus est celui de la souris, inventée en 1965 par Doug Engelbart au SRI à Palo Alto (ci-dessus, prise en photo par mes soins à l’accueil du SRI en 2007). Il fallu attendre 1980 pour qu’elle apparaisse dans un véritable ordinateur, le Star de Xerox, puis soit popularisée dans les PC sous MS-DOS et les Lisa et Macintosh d’Apple à partir de 1983. Entre les deux intervenait la création des premiers microprocesseurs par Intel et Motorola !
Il en va de même avec le mythique iPhone qui avait besoin d’écrans à matrice capacitives, inventées en 1967 mais devenues opérationnelles en 2006, et aussi de 3G provenant des équipementiers et opérateurs télécoms, sans compter les processeurs mobiles à noyaux ARM et les écrans LCD. Tout ceci n’était pas disponible au début des années 2000 !
Parfois, les cycles technologiques peuvent dépendre de l’accès aux matières premières même si celles-ci ont rarement été à l’origine du ralentissement de la diffusion d’innovations. Le cadmium est produit à raison de plus de 20 000 tonnes par an, par dérivé des minerais de zinc. Le niobium est produit à plus de 65 000 tonnes par an. D’autres métaux rares sont produits en plus faibles quantités, comme l’indium, avec un peu plus de 700 tonnes produites par an et le gallium à moins de 400 tonnes par an. Ces différents matériaux sont utilisés en photonique, pour produire des LED et des écrans plats ! Le niobium est utilisé dans les simulateurs quantiques du Canadien D-Wave !
Incertitudes économiques
Les incertitudes technologiques sont souvent couplées avec des incertitudes économiques. En effet, produire un bien matériel doit répondre à des contraintes de couts et de prix pour toucher un marché cible aussi large que possible. On peut produire un processeur en 10 nm mais il faut le faire avec un taux de rebus acceptable permettant d’avoir un prix cible adapté aux besoins du marché. De même, certaines technologies de panneaux solaires photovoltaïques à haut rendement, en silicium monocristallins, sont invendables car trop chères à produire.
L’autre incertitude porte sur la capacité à offrir l’innovation à un prix acceptable par les consommateurs et les entreprises compte-tenu de leur pouvoir d’achat et de leurs priorités. Elle explique la lenteur relative du développement du marché de la maison connectée. Les produits associés ne sont d’ailleurs pas si chers que cela à produire, mais leur marketing, leurs logiciels et leur installation alourdissent l’addition.
Autre exemple, les TV 4K ont beau être maintenant largement déployées dans le grand public, les contenus associés ne sont pas pour autant abondants. Les ayant-droits s’y mettent lentement car le surcout de leur production et ou de leur diffusion n’est pas compensé par une augmentation de revenus.
L’une des incertitudes clés à lever dans toute industrie émergente est la compréhension des mécanismes de création de plateformes qui l’animent. Où la valeur va-t-elle se concentrer ? Les tuyaux, le hardware, les composants, les contenus, les données ou les contenants ? La réponse n’est jamais immédiate. Il fut un temps où une partie de l’industrie du numérique ne jurait que par les tuyaux. On en est revenus depuis, avec l’avènement des GAFA. Aujourd’hui se dégage un consensus sur l’importance stratégique des données pour l’IA. Mais si celles-ci deviennent ouvertes et des commodités, sont-elles vraiment le nœud gordien des modèles économiques de l’IA du futur ? En être trop sûr pourrait nous faire rater une migration de valeur à venir.
L’ensemble peut aussi être affecté par les crises économiques, par les évolutions à la hausse et à la baisse du prix du pétrole et du gaz tout comme des matières premières.
Ici, les logiciels et les services en ligne ont la part belle car ils permettent de grandes économies d’échelle économiques. Malgré la production en Chine, le matériel n’a pas les mêmes faveurs. Cela explique d’ailleurs pourquoi une grande majorité de startups s’appuient uniquement sur du logiciel, quelle qu’en soit la forme.
Incertitudes sur les infrastructures
Les infrastructures physiques sont incontournables pour permettre à d’autres innovations de se déployer.
La vente par correspondance s’est développée à la fin du 19e aux USA grâce à la création de lignes ferroviaires traversant le pays d’Est en Ouest. Le commerce a ligne a de même été, entre autres choses, la conséquence de la numérisation des télécommunications avec le haut débit fixe puis mobile. L’iPhone a bénéficié de la 3G et Periscope ou Instagram ont profité de la 4G. Les véhicules autonomes se serviront de la 5G et de la communication entre véhicules et avec les infrastructures connectées des villes si ce n’est avec les passants qui seront aussi connectés.
La 5G est censée révolutionner les télécoms et ses usages, comme dans la santé, l’industrie et les véhicules autonomes. Mais les opérateurs télécoms voient pour l’instant un faible intérêt à investir dedans, en tout cas en France.
Le déploiement ou le non déploiement d’infrastructures expliquent aussi pourquoi le Wi-FI ou la 4G ne sont pas encore généralisés dans le métro, tout du moins à Paris.
Il en va de même des projets Hyperloop dont j’avais fait un tour d’horizon en février 2018. Après avoir levé les incertitudes technologiques dans des tests à petite échelle, il faudra financer des infrastructures qui se chiffreront en milliards d’euros, pas facile à trouver. Et il faudra les rentabiliser ! Le déploiement éventuel de drones transporteurs de passagers dépend aussi largement d’infrastructures au sol, ainsi que de systèmes d’aiguillage aérien assez poussés.
Incertitudes sociétales
Avant-dernière forme d’incertitude, celle de l’acceptation des innovations par la société en général.
Elle peut relever d’une simple résistance aux changements, classique, compensée par des phénomène d’adoption par cercles concentriques d’early adopters et de suivisme.
Elle peut dépendre de l’évolution de gestion de notre temps. Le temps passé dans les embouteillages augmente mais le numérique en fait gagner ailleurs, pour mieux le perdre encore ailleurs. La capacité d’absorption des innovations par le grand public est matériellement limitée par leur temps, leur intellect et leur budget.
La physiologie peut aussi expliquer en partie les déboires de la TV 3D ou ceux, actuels de la réalité virtuelle. Il est difficile d’imaginer passer beaucoup de temps avec un casque de 700g sur la tête plus de 10 mn par jour. Leur allègement est donc une évolution technologique clé pour développer leur usage.
Suit une évolution du principe de précaution dans une société qui peut avoir tendance à avoir de plus en plus peur des technologies, sauf lorsque leur bénéfice est manifeste et outrepasse de loin ses inconvénients réels ou perçus. Les craintes sur la vie privée affectent l’IA en ce moment, même s’il faut les relativiser. Grande est la tentation de mettre l’éthique avant l’innovation comme on l’a vu dans les préconisations du Rapport Villani en mars 2018 ainsi qu’au Royaume Uni dans le récent rapport de la Chambre des Lords. Bien sûr qu’il faut de l’éthique dans l’application de toutes les technologies. Mais il faut aussi valoriser ce que l’on peut faire d’extraordinaire avec. Le leadership industriel passe par là.
En IA, robotique et avec les véhicules autonomes, le niveau de confiance dans la machine est bien plus exigeant que vis à vis de l’Homme. Il boucle avec les incertitudes technologiques.
Une autre composante sociétale peut aussi ralentir l’accélération de l’innovation : le manque de compétences techniques ! Dans les pays occidentaux, l’intérêt des jeunes pour les sciences est en baisse. En France, il n’y a pas assez de candidats dans les écoles d’ingénieurs ou pour devenir chercheurs. La situation n’est pas meilleure aux USA. Il y un déplacement de cet intérêt vers l’Orient. Le manque de femmes et de diversité dans les filières scientifiques en général et dans celles du numérique en particulier est aussi un frein au développement d’innovations inclusives.
Enfin, on assiste à un retour en force de la superstition et à une méfiance vis à vis des sciences. Elles se manifeste contre les OGM ou avec les ondophobiaques. De même, l’histoire de la crise du nouveau Levothyrox n’est pas rassurante. Elle témoigne du fort décalage entre les retours empiriques des patients et une approche véritablement scientifique de l’analyse de leurs problèmes qui n’a pas vraiment eu lieu.
Incertitudes politiques
L’élément politique a pu jouer un rôle dans les accélérations ou décélérations technologiques et cela va continuer.
La guerre froide explique en particulier la conquête spatiale et le programme Apollo. Après la Navette Spatiale qui a volé entre 1981 et 2013, les plus grosses évolutions récentes sont la récupération des fusées avec Falcon 9 et heavy de Space X et celles de Blue Origin (récent décollage). Ce ne sont pas des progrès très rapides.
Le politique et le protectionnisme américain expliquent aussi échec du Concorde dans les années 1970. Sa fin d’exploitation a même généré une régression pour quelques passagers fortunés, obligés de passer de 3h30 à 8h pour un Paris-New York.
La vitesse des transports ne s’est pas améliorée depuis 30 ans. On baisse même la vitesse limite règlementaire sur les routes, une sorte de régression pour ce qui est de la durée de transports, hors périodes de pointe. Cette régression est censée sauver des vies, même si ce n’est pas forcément facile à prouver.
Aux USA, les scientifiques craignent l’impact délétère de l’administration Trump qui a voulu couper les budgets de la recherche fédérale. Coupes heureusement contredites par les décisions du Congrès, un des rares domaines de désaccord entre la majorité Républicaine et l’exécutif. C’est à l’EPA (Environment Protection Agency) que la politique trumpienne se fait le plus sentir. Mais sans forcément d’impact sur le déploiement d’innovations dans les énergies renouvelables. Et la société civile continuer de fonctionner de son côté sans dépendre de l’atmosphère qui sévit dans l’exécutif fédéral. Il ne faut pas se laisser endormir par ce soubresaut de l’Histoire.
De son côté, la Chine assume son soft power en investissant à tour de bras dans la recherche et l’innovation, ambitionnant de devenir leader dans l’IA, dans les véhicules autonomes tout comme dans l’informatique et les télécommunications quantiques, pour ne prendre que quelques exemples. Elle sécurise son accès aux matières premières stratégiques avec des investissements économiques long terme dans divers pays émergents.
A contrario, les fluctuations des prix des énergies fossiles peuvent influencer aussi bien à la hausse comme à la baisse l’adoption d’énergies renouvelables que d’encourager à utiliser des moyens de communication à distance en lieu et place de déplacements physiques. Les attentats du 11 septembre 2011 ont aussi eu un impact dans l’adoption de la visioconférence dans les grandes entreprises, surtout américaines !
Toutes ces incertitudes que je viens d’égrener n’empêchent pas du tout les principales innovations d’émerger et de changer positivement notre vie. Les innovations positives qui n’ont pas vu le jour sont bien rares. Ces incertitudes n’ont pas qu’allonger la durée de l’émergence des innovations. D’où le titre sur les cycles longs de l’innovation !
Ce qui accélère les cycles de l’innovation
Quels sont les facteurs qui peuvent accélérer le déploiement des innovations au lieu de les ralentir ? En voici quelques-uns et j’en oublie surement.
Le premier facteur tient probablement aux usages du numérique qui accélèrent tout, de la conception à la diffusion des innovations. Je ne vais pas m’étendre sur les diverses variantes de la loi de Moore dans les processeurs, le stockage et les télécommunications. Elles alimentent la pompe à innovations dans le secteur.
Les télécommunications facilitent les échanges et le partage. Les communications sont plus faciles entre parties prenantes, notamment entre chercheurs, et entre chercheurs et entreprises. Les publications scientifiques et brevets sont plus faciles d’accès. On peut apprendre plus vite grâce à Internet. Le savoir circule plus rapidement. C’est notamment le cas dans le domaine de l’intelligence artificielle avec un passage assez rapide de la recherche à la mise en œuvre, amplifié par l’abondance d’outils open source largement diffusés et de ressources matérielles disponibles dans le cloud. Cela se matérialise dans nombre de produits issus aussi bien de startups que d’entreprises établies. Ces échanges pourraient progresser d’un cran grâce aux techniques de traduction automatique qui s’améliorent de jour en jour.
L’innovation peut aussi être accélérée par la diversification de ses sources. Même si la Silicon Valley reste très influente et que le marché Nord-Américain est toujours un grand déterminant du succès d’un grand nombre d’innovations, les innovations viennent de partout, d’Europe et d’Asie. Cette dernière, surtout la Chine, forme de plus en plus de scientifiques et d’ingénieurs. Elle dynamise la concurrence entre les écosystèmes d’innovations. Celle-ci reste un puissant moteur de l’innovation, comme l’a été la guerre froide dans le spatial ou même la création du réseau Internet.
Cela se manifeste de manière indirecte dans les dépôts de brevets. J’ai fait un petit tour du côté du WIPO (l’AFNOR mondial) et les données sont éloquentes. Les dépôts de brevets progressent bien plus vite que le PIB mondial, à un rythme soutenu de 7,7% en 2015 et 8,3% en 2016. C’est principalement dû à la Chine qui est devenu le pays déposant le plus de brevets au monde (ci-dessus), même si certaines de leurs PME ne respectent pas toujours la propriété industrielle de leur côté. La Corée du Sud, la Chine et le Japon sont aussi les plus gros déposants de brevets rapporté à leur PIB (ci-dessous) !
Le “test and learn” est plus rapide pour les startups, tout du moins dans le logiciel. Les réseaux sociaux et le web amplifient la viralité de l’adoption de certains usages, ceux du virtuel en premier. Les cycles d’adoption sont plus rapides dans le logiciel et les contenus, comme l’illustrait parfaitement le foudroyant phénomène Pokemon Go de l’été 2016. C’est d’autant plus vrai que la part des innovations de rupture qui dépend du logiciel est en constante augmentation.
Les délocalisations de la production manufacturière dans les pays à faible cout de main d’œuvre a aussi joué un rôle clé dans le taux d’équipement en bien de consommation divers, numériques ou pas. Cela a détruit des emplois en Occident mais en retour permis d’obtenir des taux d’équipement plus élevés dans l’ensemble du monde, en particulier pour les smartphones. Par contre, les délais de fabrication et d’approvisionnement, via le long circuit des porte-containers et des transports ferroviaires, routiers ou aériens n’ont pas significativement évolué en 30 ans.
Pour les industries plus traditionnelles comme dans les transports et l’énergie, l’impact du numérique a été plus modéré. Les économies d’échelle sont moindres. La principale rupture technologique reste la propulsion électrique, lente au démarrage à cause du cout et de la faible autonomie des batteries, sans compte la question des sources d’énergie primaires pour produire l’électricité qui les alimente.
Dernier élément d’accélération, l’augmentation moyenne du niveau et de la qualité de la vie dans le monde qui est manifeste selon tous les indicateurs. L’Asie est le continent qui s’est le plus modernisé en 30 ans, générant une population consommatrice d’innovations encore plus importante que celle des pays développés. Cela a contribué à augmenter le volume et les économies d’échelle des produits grand public, les smartphones en étant le meilleur exemple. Les 1,5 milliards d’unités vendues chaque année ont permis de baisser les prix des composants associés, que l’on retrouve dans une palanquée de catégories d’objets connectés. C’est un phénomène de “spill over” d’une innovation de rupture sur d’autres domaines. Au même titre, par exemple, que les télécommunications et l’Internet sont en train de transformer le marché de la santé avec la télémédecine, la médecine prédictive ou les diagnostics à distance, en particulier dans l’interprétation d’imagerie médicale.
Leçons de l’Histoire
Cette longue parabole sur les mécanismes de l’innovation appelle quelques réflexions.
Contrairement à la mythologie largement répandue, l’innovation ne provient pas de sauveurs emblématiques tels que Steve Jobs ou sa réincarnation du moment, Elon Musk. Elle résulte d’un long travail de fourmis associant d’innombrables chercheurs, ingénieurs, marketeurs et entrepreneurs provenant du monde entier. Si on retient l’œuvre des plus connus, on néglige trop souvent le travail de patience de ceux qui les ont précédés.
Les grandes innovations récentes et à venir associent déterminisme et non déterminisme. Déterminisme car de grands domaines d’innovations sont prévisibles (loi de Moore – avec ses écueils associés, intelligence artificielle, énergie, transports, santé). Non déterminisme car les inconnues scientifiques et sociétales les concernant restent légion. Elles influent au minimum sur le timing de l’arrivée d’innovations, et même dans certains cas, leur plausibilité. La notion de prise de risque est étroitement liée au non déterminisme. Je préfère cette notion d’indéterminisme que de risque, qui a une connotation trop négative.
Les pays qui s’engagent tôt dans les grandes vagues de l’innovation, à commencer par leur dimension scientifique, et qui savent les transformer en produits mondiaux, sont les mieux placés. Pour ne prendre que l’exemple du quantique qui me passionne en ce moment, la Chine s’est lancée à fonds perdu dans le domaine. Le Royaume-Uni a lancé son premier plan sur le sujet en 2013 tandis que le mot quantique n’apparaît même pas dans le Rapport Villani alors que l’IA est un de ses domaines d’applications clés. C’est au minimum intrigant et au pire décourageant.
Les innovations fondamentales ont évidemment besoin de sciences et de recherche menées sur le long terme. Il faut avoir le courage de viser loin et avec patience. Il faut aussi viser l’impossible du moment présent. C’est le rôle des Etats que de financer cette recherche long terme même si, parfois, de grands acteurs du privé peuvent le faire tout aussi efficacement lorsqu’ils ont les reins solides. Les incertitudes sont scientifiques et au long cours au niveau de la recherche et plus technologiques, économiques et sociétales dans l’aval. Les mécanismes de propagation liés au numérique et leur mondialisation génèrent le phénomène d’accélération perçu par les utilisateurs.
La recherche fondamentale et appliquée sont le véritable démarrage de l’exponentielle de l’innovation. Il est relativement lent et silencieux ou tout du moins pas facile à décoder et très incertain. Les mécanismes de valorisation de la recherche ne sont pas linéaires comme on a encore trop tendance à le croire. Les grandes innovations technologiques associent plusieurs travaux de recherche qui ont ensuite maturé en technologies exploitables, rarement un seul.
Nombre d’innovations ont besoin d’un terreau d’infrastructures pour se déployer. Elles comprennent notamment les télécommunications qui jouent un rôle clé dans le numérique. Mais c’est aussi vrai pour quasiment n’importe quel moyen de transport ou nouvelle source d’énergie innovants qui a aussi besoin d’infrastructures, souvent lourdes.
Evidemment, les innovations ne se déploient que si elles ont un sens humain et sont même compatibles avec l’Homme d’un point de vue physiologique. Elles doivent servir à quelque chose et respecter les individus et la planète.
Dernière leçon : ce n’est pas parce que le processus est long qu’il faut être lent et partir en retard. La fable du lièvre et de la tortue reste valable ! Il faut savoir partir à temps, c’est-à-dire très tôt ! Les plans tels que ceux qui sont proposés par la Mission Villani sur l’IA ne sont que des plans de rattrapage alors qu’il faudrait les déclencher bien plus en amont du cycle de l’innovation. Les plans industriels devraient viser l’impossible et l’incertain plutôt que les domaines où les dés sont déjà jetés.
Photo by Paul Carmona on Unsplash
L’expert:
Olivier Ezratty est consultant et auteur. Il conseille les entreprises pour l’élaboration de leurs stratégies d’innovation, et en particulier dans le secteur des objets connectés et l’intelligence artificielle. Très actif dans l’écosystème des startups qu’il accompagne comme consultant, advisor, conférencier et auteur, il est apprécié pour les articles fouillés de son blog Opinions Libres dans des domaines très divers. Il y publie le « Guide des Startups » ainsi que le « Rapport du CES de Las Vegas » chaque année depuis 2006. Olivier est expert pour FrenchWeb qui reprend de temps à autres la publication des articles de son blog.
- Ask A VC : comment modéliser un compte de résultat — Partie 6/6 : analyse de sensitivité - 21/05/2024
- Ask A VC : comment modéliser un compte de résultat — Partie 3/6 : les Coûts Fixes - 16/01/2024
- Question à un VC : Pourquoi les marges unitaires sont-elles si importantes pour votre modèle d’affaires? - 13/11/2023