[DECODE] Les deepfake, une menace à la sécurité nationale?
Le House Intelligence Committee américain, commission permanente du Congrès chargée de surveiller les activités des agences de renseignement américaines, a tenu jeudi sa première audience dédiée aux menaces liées aux deepfake. Le terme désigne des vidéos ou images truquées hyper réalistes, générées via une technique de synthèse d’images basée sur l’intelligence artificielle. Apparues surtout depuis 2017, et principalement sur des plateformes telles que Reddit ou YouTube, elles sont aujourd’hui pointées du doigt pour avoir répandu de fausses informations en ligne. La commission s’était fixé comme mission d’ « examiner les menaces que font peser sur la sécurité nationale les faux contenus générés via l’intelligence artificielle, ce qui peut être fait pour les détecter et les combattre, et quel rôle le secteur public, le secteur privé et la société de manière générale peuvent jouer pour contrer un futur ‘post vérité’ potentiellement sombre ».
Des deepfake hyper réalistes « en quelques jours » et gratuitement
Dernièrement, Mark Zuckerberg faisait l’objet d’un tel contenu. Des artistes ont posté sur Instagram une vidéo deepfake du CEO de Facebook. On le voit se vanter publiquement de contrôler des milliards de données « volées ». Les artistes ont créé avec des start-up spécialisées en intelligence artificielle des vidéos deepfake faisant également dire des absurdités à Kim Kardashian ou à Donald Trump.
Instagram ne prévoit toutefois pas de supprimer ces vidéos de sa plateforme. Elle ne souhaite pas accorder de traitement de faveur au CEO de sa maison-mère. Fin mai, la présidente de la Chambre des représentants Nancy Pelosi s’était fâchée contre le réseau social, qui refusait de supprimer une vidéo manipulée dans laquelle l’élue démocrate semblait s’exprimer difficilement, comme si elle était ivre.
Tout aussi impressionnant, un deepfake publié en mai sur YouTube montre le visage de l’acteur américain Bill Hader, en plein imitation d’Arnold Schwarzenegger, lentement et subtilement prendre la forme de celui de l’acteur austro-américain. La vidéo est devenue l’un des deepfake les plus regardés sur YouTube. Elle a été créée « en quelques jours » – et gratuitement, via le logiciel open source DeepFaceLab – par un graphiste tchèque, qui a indiqué à NBC News que « la moitié des personnes qui commentent ne savent pas qu’elle a été modifiée ».
Ne plus pouvoir faire confiance à ses propres yeux et oreilles
Jeudi, le House Intelligence Committee estimait que « les deepfake soulèvent de graves questions liées à la sécurité nationale et à la gouvernance démocratique, avec des individus et électeurs qui ne peuvent plus faire confiance à leurs propres yeux ou oreilles lorsqu’ils évaluent l’authenticité de ce qu’ils voient sur leurs écrans ». Le président de la commission Adam Schiff soulignait en ce sens que la propagation de ces vidéos manipulées représentait un scénario « cauchemardesque » pour les élections présidentielles de 2020. Il a exhorté les entreprises derrière les principaux réseaux sociaux à mettre en place des politiques destinées à protéger leurs utilisateurs des fausses informations, « pas en 2021, lorsque des deepfake viraux auront pollué les élections de 2020. Là, il sera déjà trop tard ».
Plusieurs experts en intelligence artificielle ont par ailleurs témoigné devant la commission. La professeur de droit de l’université du Maryland Danielle Citron a par exemple souligné l’importance de mettre en place une « résistance » au niveau du droit, des marchés et de la société, pour tenter de ralentir la propagation des deepfake et les risques qui y sont liés. « La nuit qui précède une entrée en Bourse… un deepfake sur le CEO de l’entreprise pourrait chambouler l’IPO, la marché réagira et chutera bien plus vite que nous pourrons le déconstruire », a-t-elle illustré.
Selon un rapport de DeepTrace, entreprise néerlandaise spécialisée dans la détection des deepfake, les recherches sur Google pour le terme « deepfake » avaient été multipliées par 1 000 en 2018 par rapport à 2017. L’industrie de contenus pour adultes connaissait la progression la plus large: plus de 8 000 fausses vidéos pornographiques avaient été repérées en ligne par la société. Le rapport rappelait également le consensus existant entre les experts sur le sujet: ils estiment que les deepfake auront probablement un impact important et « potentiellement catastrophique » sur des événements clés ou individuels sur la période 2019-2020.
- EDEN AI lève 3 millions d’euros pour démocratiser l’accès à l’IA en entreprise - 21/11/2024
- Plan marketing 2025 : la méthode de Maxime Baumard pour structurer la stratégie B2B de PENNYLANE - 21/11/2024
- Freqens lève 3 millions d’euros pour accompagner les équipes achats dans leurs décisions. - 21/11/2024