DeepNude, l’application deepfake qui déshabillait les femmes sans leur consentement
« Le monde n’est pas prêt pour DeepNude ». C’est ainsi que les créateurs de l’application deepfake, basés supposément en Estonie selon leur compte Twitter, justifiaient jeudi soir sa fermeture. L’application utilise l’intelligence artificielle pour créer de fausses photos nues de femmes sans leur consentement.
Un « projet pour le divertissement de l’utilisateur »
En mars, lors du lancement officiel de DeepNude, il ne doit s’agir que d’un « projet pour le divertissement de l’utilisateur », assurent ses créateurs. L’application ne doit alors seulement mener qu’à « quelques ventes par mois », faites « de manière contrôlée ». DeepNude propose à l’utilisateur de choisir une photo de femme habillée et d’en produire, via un algorithme, une nouvelle image, montrant cette fois-ci la femme entièrement déshabillée. Les photos finales sont marquées d’un filigrane « Fake » en travers de la photo sur la version gratuite. Sur une version payante à 50 dollars, le filigrane n’apparaît que dans un coin et pourrait être aisément caché ou rogné, selon Motherboard, qui a testé l’application. L’algorithme ne fonctionne pas avec des images d’hommes: elle est basée sur près de 10 000 images montrant des femmes nues.
Le ou l’un des créateurs, qui a demandé à être appelé Alberto, a indiqué à Motherboard que l’application est basée sur pix2pix, un algorithme développé par des chercheurs de l’université de Californie à Berkeley en 2017. Celui-ci utilise des réseaux adverses génératifs, qui consistent en un réseau « générateur » d’un échantillon d’images, et d’un réseau « discriminateur » qui a pour rôle d’améliorer la précision de l’algorithme.
Le 20 avril, DeepNude annonce la suspension temporaire de l’application. Les créateurs annoncent alors qu’il travaillent sur une version desktop. Celle-ci est officiellement lancée le 23 juin sur Windows 10 et Linux. Quelques jours plus tard, le 26 juin, DeepNude indique que ses serveurs, ainsi que l’application, sont indisponibles. En cause: un « trafic inattendu ».
La manipulation numérique accessible au grand public
« Honnêtement, l’application n’est pas si géniale, elle ne fonctionne qu’avec certaines photos », notent jeudi les créateurs de DeepNude. « Nous n’avons jamais pensé qu’elle deviendrait virale et que nous ne pourrions pas contrôler le trafic. Nous avons largement sous-estimé la demande », ajoutent-ils. Les créateurs de l’application justifient sa légitimité par l’adoption de « mesures de sécurité » en la forme du filigrane « Fake ». Mais « si 500 000 personnes l’utilisent, la probabilité que des personnes en fassent un mauvaise usage est trop grande », ajoutent les créateurs, sans préciser ce que constitue un bon ou un mauvais usage de DeepNude.
— deepnudeapp (@deepnudeapp) 27 juin 2019
Après le lancement de la version desktop et une popularité grandissante, l’application, qui rend la manipulation numérique quasi-instantanée de photos accessible au grand public, a suscité beaucoup de craintes en ligne. Et notamment sur le risque que représentent des applications deepfake comme DeepNude en termes de harcèlement envers les femmes. De fait, une fois en ligne, la propagation de ce genre de contenu est difficile à contenir.
La propagation des deepfake, un scénario « cauchemardesque »
Selon un rapport de DeepTrace, entreprise néerlandaise spécialisée dans la détection des deepfake, les recherches sur Google pour le terme « deepfake » avaient été multipliées par 1 000 en 2018 par rapport à 2017. L’industrie de contenus pour adultes connaissait la progression la plus large: plus de 8 000 fausses vidéos pornographiques avaient été repérées en ligne par la société. Le rapport rappelait également le consensus existant entre les experts sur le sujet: ils estiment que les deepfake auront probablement un impact important et « potentiellement catastrophique » sur des événements clés ou individuels sur la période 2019-2020.
Ce mois-ci, le House Intelligence Committee américain estimait que « les deepfake soulèvent de graves questions liées à la sécurité nationale et à la gouvernance démocratique, avec des individus et électeurs qui ne peuvent plus faire confiance à leurs propres yeux ou oreilles lorsqu’ils évaluent l’authenticité de ce qu’ils voient sur leurs écrans ». Le président de la commission Adam Schiff soulignait en ce sens que la propagation de ces vidéos manipulées représentait un scénario « cauchemardesque » pour les élections présidentielles de 2020. Il a exhorté les entreprises derrière les principaux réseaux sociaux à mettre en place des politiques destinées à protéger leurs utilisateurs des fausses informations, « pas en 2021, lorsque des deepfake viraux auront pollué les élections de 2020. Là, il sera déjà trop tard ».
Si DeepNude reconnaît aujourd’hui que « certaines copies » de l’application seront sans doute partagées en ligne, les créateurs ne lanceront pas d’autres versions de la solution. Ils se disent toutefois persuadés que des applications similaires verront le jour dans les prochains mois. Au vu des commentaires sous l’annonce de la clôture de DeepNude, ils devraient trouver leur public.
Petit rebondissement …. L’auteur de DeepNude vient de mettre le code source de son application en Opensource et accessible à tous …
https://www.geeek.org/telecharger-deepnude/