Les contributeursLes Experts

Coronavirus: les décideurs sont-ils coupables d’impréparation?

Par Philippe Silberzahn, professeur d’entrepreneuriat, stratégie et innovation à EMLYON Business School et chercheur associé à l’École Polytechnique (CRG)

Il était assez certain que face à l’épidémie du coronavirus, nous allions chercher à identifier des gens qui l’avaient prédite, car le paradigme prédictif nous obsède. Et ça n’a pas raté: certains ont ressorti un rapport de la CIA qui contient une double page évoquant le risque d’une pandémie, d’autres une vidéo de Bill Gates avertissant lui aussi sur ce risque. Nul doute qu’on nous ressortira bientôt une petite grand-mère du Lubéron qui, elle aussi, évoquait depuis un moment une pandémie à venir, et qu’elle fera la une du 20h de TF1.

Conclusion des commentateurs: l’épidémie était prévue, les gouvernements ont été prévenus et ils n’ont rien fait! Malheureusement l’histoire ne tient pas, à la fois parce qu’une épidémie relève de l’incertitude, elle n’est donc pas prédictible, mais aussi parce que la recherche de quelqu’un ayant prédit avec succès un événement traduit un biais rétrospectif. Mais surtout, elle ignore difficulté de prise de décision en incertitude.

Biais rétrospectif

Nous passons notre vie à faire des prévisions. Chaque jour, un déluge de prévisions plus ou moins sérieuses est produit dans le monde sur à peu près tout et n’importe quoi. Et puis un jour un événement se produit. On se tourne alors vers le passé et on s’étonne de trouver quelqu’un, quelque part, qui l’avait prédit! Quel génie! Quelle prémonition! Qui est-il ou qui est-elle? Quels sont ses réseaux? Quel est son secret? Mais il s’agit bien-sûr d’un biais rétrospectif. Nous oublions toutes les fausses prévisions faites à longueur d’année pour filtrer rétrospectivement celle qui correspond à ce qui s’est passé et nous nous convainquons qu’il s’agissait d’une prévision exacte. C’est oublier que même une horloge arrêtée indique l’heure correcte deux fois par jour.

Biais du spécialiste

Bill Gates s’investit dans la santé publique au travers de sa fondation. Il est normal qu’il annonce des épidémies car c’est le sujet sur lequel il travaille. Les épidémies n’ont rien de nouveau, elles existent depuis la nuit des temps. Rappelons, une nouvelle fois, que la peste a tué au moins un tiers de la population européenne en 1348 et la grippe asiatique de 1956 environ deux millions de personnes. Il est donc normal que quelqu’un qui travaille sur les épidémies soit sensible à ce risque, comme il est normal qu’un pompier annonce des incendies et un policier des crimes. Est-ce pour autant une prédiction? Non.

Une prédiction consisterait à décrire à l’avance ce qui va se passer et quand, ce que n’a pas fait Bill Gates, pour la simple raison que c’est impossible. Évoquer une possibilité, un risque que quelque chose de l’ordre du possible peut se produire n’est pas inutile, bien au contraire. L’important dans le rôle d’un expert, pour reprendre les termes du chercheur Paul Saffo, c’est en effet de définir un « cône d’incertitude », c’est à dire de délimiter le domaine du possible, même relativement large, et de fournir sur cette base au décideur « ce qu’il a besoin de savoir pour agir de façon sensée dans le présent. »

La production de prévisions: un jeu très politique

La production de prévisions n’est pas seulement le fait d’experts inquiets pour leur domaine de spécialité. Elle sert également des intérêts très spécifiques, notamment des organes gouvernementaux et des agences publiques. La hantise d’une agence gouvernementale est en effet qu’on puisse lui reprocher de n’avoir pas prévenu le décideur d’un risque possible. Et donc, ceinture et bretelle, on fait bien attention à ce que tout risque possible soit transmis au décideur, qui se trouve donc sous un déluge de prévisions.

C’est pour cela que l’analyse des rapports d’organisations comme la CIA est toujours intéressant quand on regarde la façon dont ils essaient de se couvrir, notamment avec la technique bien décrite des notes de bas de page: on envisage un scénario dans le texte, et on met une note de bas de page pour dire qu’un scénario contraire est possible, comme ça on est bien couvert quelle que soit l’évolution.

De même un exercice très prisé chez les économistes, par exemple, est de prédire « La prochaine crise ». Comme il finit toujours par y avoir une crise, d’une façon ou d’une autre, il y a un vrai avantage à se positionner de la sorte pour bénéficier de la rente octroyée à celui qui a « vu juste ». Que la crise soit rarement due à ce qu’avait annoncé le-dit expert n’a guère d’importance.

Mais cela va plus loin. Le sociologue Gérald Bronner montre ainsi que des comptes Twitter sont utilisés pour produire des fake news en très grand nombre dans ce but précis. On peut en effet aujourd’hui faire automatiquement des variations nombreuses autour d’un attentant à Paris, comme par exemple: « Fusillade à la gare Saint-Lazare, 15 morts »,  « Fusillade à la gare Saint-Lazare, 135 morts », « Bombe à la gare Saint-Lazare, 15 morts », etc.

On peut, chaque heure qui passe, produire dix mille variations autour du concept (on fait varier le lieu, la nature de l’attentat, le nombre de morts, etc.) 99,99999% de ces tweets seront perdus car rien de tel ne se passera bien-sûr, mais leur nombre est tel qu’un jour un événement correspondra à l’un d’entre ces millions de tweets, et on pourra alors dire « Quelqu’un l’avait prévu! » ou pire « On nous cache quelque chose. » On décoche des milliers de flèches en espérant que l’une atteigne sa cible.

Le dilemme du décideur

Pour autant, on pourra toujours reprocher au décideur de ne pas avoir agi malgré les avertissements des experts. C’est le classique « Warner/Warnee problem » évoqué dans les situations de surprise stratégiques, c’est à dire le cas où l’expert prétend avoir donné la bonne information mais a été ignoré par le décideur. Si on se place du point de vue du décideur cependant, la situation est compliquée: son quotidien est fait d’avertissements dans tous les domaines. La vraie difficulté est donc pour lui (ou elle) de choisir parmi toutes ces catastrophes annoncées laquelle il va traiter en priorité, car il ne peut bien-sûr les traiter toutes. Il va le faire selon ce qu’il juge important, pour lui, ou pour son institution, ou pour son pays, en bref il va le faire selon son modèle mental, c’est à dire ses croyances et ses valeurs. Il n’a pas d’autre choix qu’exercer son jugement.

Face à 50 annonces de catastrophes possibles, voire imminentes, à tout moment, il n’existe aucun moyen objectif de choisir car nous sommes dans le domaine de l’incertitude, c’est à dire de l’inédit pour lequel il n’existe pas de données sur la base desquelles calculer ce qu’il faut choisir en priorité. Imaginons un conseiller santé briefant le Président en décembre sur un virus qui tue quelques chinois âgés dans une province peu connue de Chine. Nous sommes en pleine grève des transports, le pays est à l’arrêt, les gilets jaunes saccagent les centres-villes depuis plus d’un an, les policiers sont épuisés, l’opposition accuse le Président de fascisme ou de laxisme (c’est selon), sans parler des menaces d’attentats. Enfin bref, tant d’urgences, il faut bien choisir. Des masques en papier dans tout ça??? Le Président n’est pas le seul décideur, mais ce type de situation se retrouve à tous les niveaux.

Face à l’incertitude: agir sans prédire

Un événement majeur comme l’épidémie de coronavirus a une réalité duale: il correspond à quelque chose de connu sur de nombreux plans (les épidémies sont avec nous depuis la nuit de temps, nous savons ce qu’est un virus et comment il se transmet) mais son émergence relève de l’incertitude: il n’est pas possible de prévoir quand la prochaine épidémie va se déclencher, ni quelle sera son ampleur. La question n’est donc pas d’essayer de les prévoir, mais plutôt de mettre en œuvre des moyens pour les détecter et les traiter rapidement. En reprenant la définition de Saffo, l’expert peut donner à l’avance au décideur suffisamment d’information pour permettre une décision, même si la prédiction n’est pas possible.

En effet, pour agir préventivement, on n’a pas besoin de savoir exactement ce qui va se passer et quand. Si l’on craint une épidémie, on peut développer les centres de surveillance, encourager la recherche de tests et de vaccin, acheter des masques, former des médecins, etc. La prévision n’est donc pas nécessaire pour pouvoir agir préventivement. Mais il n’en demeure pas moins que le décideur doit faire des choix, et qu’il sera comptable de ses choix auprès des donneurs de leçons, des ralliés de la 25e heure qui, une fois le match joué, pourront bien à leur aise dire « Je vous l’avais bien dit ».

Sur la prise de décision en incertitude, voir mes articles précédents: Gérer une situation de crise: Faut-il une approche centralisée ou décentralisée?, En situation de crise: Les trois lignes de conduite du dirigeant et Le coronavirus ou comment les crises bouleversent nos modèles mentaux.

Le contributeur:

Philippe SilberzahnPhilippe Silberzahn est professeur d’entrepreneuriat, stratégie et innovation à EMLYON Business School et chercheur associé à l’École Polytechnique (CRG), où il a reçu son doctorat. Ses travaux portent sur la façon dont les organisations gèrent les situations d’incertitude radicale et de complexité, sous l’angle entrepreneurial avec l’étude de la création de nouveaux marchés et de nouveaux produits, et sous l’angle managérial avec l’étude de la gestion des ruptures, des surprises stratégiques (cygnes noirs) et des problèmes complexes (« wicked problems ») par les grandes organisations.

Découvrez WE, le nouveau media d'intelligence économique consacré à l'innovation en europe. Retrouvez les informations de plus de 4500 startups et 600 fonds d'investissements Pour en savoir plus, cliquez ici
Bouton retour en haut de la page
Share This