BUSINESSLes dernières actualités de la techMEDIATECH

La «War Room», l’unité spéciale de Facebook pour lutter contre les manipulations électorales

Avec l'AFP

C’est le centre névralgique de la lutte contre la manipulation des élections chez Facebook. Au sein de la «War Room» décorée de drapeaux américains et brésiliens, une vingtaine d’analystes et d’informaticiens chevronnés sont concentrés sur leurs écrans, à l’affût de tout signe suspect, prêts à riposter.

De l’extérieur, peu de choses distinguent cette «salle de crise» des autres salles de réunion situées dans les dizaines de bâtiments du tentaculaire siège du réseau social en Californie. Si ce n’est sa porte vitrée teintée, où est scotché un petit panneau «War Room» en grosses lettres rouges au style rétro. A l’intérieur, des horloges sur plusieurs fuseaux horaires, des écrans branchés sur CNN, Fox News ou Twitter, des dizaines d’ordinateurs, des cartes des États-Unis et du Brésil. Fixés au mur, d’autres écrans montrent des graphiques qui suivent l’activité sur le réseau en temps réel, prêts à donner l’alerte en cas d’anomalie.

Nous n'avons pas pu confirmer votre inscription.
Votre inscription est confirmée.

La newsletter hebdo

Recevez chaque lundi l'actualité de notre écosystème

Le premier tour de la présidentielle brésilienne en guise d’échauffement 

«Notre job est de détecter (…) quiconque essaie de manipuler le débat public», résume Nathaniel Gleicher, à la tête de la cybersécurité de Facebook et ancien du Conseil national de sécurité à la Maison Blanche. Et surtout, d’agir vite. C’est le but de la War Room, lancée en septembre et qui a fait son baptême du feu avec le premier tour de la présidentielle brésilienne le 7 octobre.

«Le jour de l’élection, nous avons observé une hausse de messages (trompeurs) disant que l’élection était reportée à cause de manifestations», explique Samidh Chakrabarti, l’un des responsables élections et engagement civique au sein du réseau social. «Nous avons été capables de les retirer avant que l’histoire ne devienne virale», assure-t-il. Cela s’est fait en «une heure ou deux» alors que «cela aurait pu prendre plusieurs jours» sans la «War Room» et ses employés dédiés.

Derrière un écran où est fixé un petit drapeau du Brésil, un jeune homme à chapeau gris est l’un d’eux. Interdiction aux journalistes de l’interroger mais sa mission est évidente : surveiller le deuxième tour de la présidentielle, le 28 octobre.

«Rien ne vaut la communication en face-à-face»

Depuis que Facebook a reconnu avoir totalement sous-estimé la manipulation de l’élection présidentielle américaine de 2016 via les réseaux sociaux, le groupe américain a mis les bouchées doubles sur le sujet et n’en finit plus de détailler tout ce qu’il met en oeuvre pour détecter les activités malveillantes destinées à attiser les fractures idéologiques ou à tromper les électeurs.

Cette fois, Facebook a décidé de créer un centre de commandement physique, avec des analystes de données, ingénieurs informatiques, juristes, ou experts en menaces réunis au même endroit pour être plus rapides et efficaces. Contrairement aux machines, «les humains peuvent s’adapter très vite aux nouvelles menaces», note Nathaniel Gleicher.

Même si le groupe prospère depuis près de 15 ans sur les interactions virtuelles entre «amis» parfois situés à des milliers de kilomètres les uns des autres, «rien ne vaut la communication en face-à-face», reconnaît Samidh Chakrabarti à moins de trois semaines des élections législatives américaines de mi-mandat, sur lesquelles planent des menaces d’interférences venues de l’étranger, notamment depuis la Russie.

20 000 personnes en charge de la sécurité des contenus chez Facebook 

«Au moment des élections, nous avons besoin que les gens détectent et suppriment (des contenus) le plus vite possible (…). Il faut que les décisions soient prises de façon rapide», poursuit-il, rappelant que 20 000 personnes sont désormais chargées de la sécurité des contenus dans l’ensemble du groupe. «Si une anomalie est détectée (par les systèmes informatiques), un analyste de données va investiguer, voir s’il semble y avoir vraiment un problème», explique encore Samidh Chakrabarti. Si les contenus enfreignent de façon claire les règles de Facebook (discours de haine, informations trompeuses sur le déroulement du vote…), il est ôté directement. Si un contenu demande des vérifications factuelles, il peut être envoyé à des «partenaires» extérieurs, comme des médias (dont l’AFP) ou des universitaires.

Les salariés de la «War Room» s’entraînent aussi à des scénarios catastrophes, avec des afflux massifs de messages trompeurs le jour d’un scrutin majeur. «Nous devons garder une longueur d’avance sur les acteurs malveillants (…) Nous réduisons continuellement la taille de la porte d’entrée, mais ils essayent en permanence d’entrer», résume Nathaniel Gleicher.

Suivez nous:
Découvrez WE, le nouveau media d'intelligence économique consacré à l'innovation en europe. Retrouvez les informations de plus de 4500 startups et 600 fonds d'investissements Pour en savoir plus, cliquez ici
Bouton retour en haut de la page
Share This