ACTUALITE

Cybersécurité et IA : les enseignements du Sommet pour l’action sur l’IA

Si l’intelligence artificielle s’impose comme un levier stratégique, elle est aussi un facteur de risque majeur en matière de cybersécurité. L’essor des modèles génératifs et des algorithmes décisionnels transforme les méthodes d’attaque, rendant la détection des menaces plus complexe et l’exposition aux manipulations informationnelles plus aiguë. Lors du Sommet pour l’action sur l’IA, États, chercheurs et entreprises pour structurer une réponse collective et encadrer les usages de ces technologies.

L’édition 2025 du Sommet s’est inscrite dans la continuité des travaux engagés lors des réunions de Bletchley Park et de Séoul, et a posé les bases d’une gouvernance plus structurée à travers différentes initiatives réglementaires, expérimentations techniques et engagements industriels.

Nous n'avons pas pu confirmer votre inscription.
Votre inscription est confirmée.

La newsletter hebdo

Recevez chaque lundi l'actualité de notre écosystème

Les experts réunis ont souligné l’ampleur des vulnérabilités. Le rapport VIGINUM souligne l’impact croissant de la manipulation de l’information, où des modèles avancés permettent de générer des contenus trompeurs à une échelle sans précédent. L’expérimentation menée par la France sur la robustesse cyber des modèles d’IA a révélé des failles préoccupantes : certains algorithmes réagissent différemment selon la langue utilisée, exposant des biais exploitables par des acteurs malveillants. L’ANSSI et ses homologues internationaux alertent sur les attaques adversariales, qui détournent le fonctionnement des IA en leur injectant des signaux spécifiques, ainsi que sur l’augmentation des deepfakes sophistiqués, compromettant les systèmes d’authentification biométrique.

Plusieurs initiatives ont été annoncées. La France a officialisé la création de l’INESIA, un institut national dédié à l’évaluation et à la sécurité de l’IA, intégré au réseau des AI Safety Institutes lancé lors du sommet de Bletchley Park. En parallèle, de nouveaux outils techniques voient le jour, comme D3lta, un détecteur open-source conçu pour repérer des tactiques de manipulation textuelle, ou encore le méta-détecteur du PEReN, qui permet d’évaluer la performance des algorithmes de détection des contenus artificiels. Un exercice de crise organisé le 11 février a réuni 200 experts en IA et cybersécurité pour tester des scénarios d’attaques exploitant des modèles génératifs.

Avec l’entrée en vigueur du Règlement IA (RIA) en 2025, l’Europe veut s’imposer comme un acteur central de la gouvernance de l’IA. Le Processus d’Hiroshima, porté par le G7, vise à établir des principes de sûreté adoptés par les grandes entreprises du secteur, mais la fragmentation des approches entre l’Europe, les États-Unis et l’Asie freine la mise en œuvre d’un cadre global cohérent.

Les startups et entreprises technologiques vont devoir s’adapter à un cadre de conformité renforcé, impliquant des tests de robustesse et des certifications de sécurité. Pour les acteurs de la cybersécurité, l’IA ne peut plus être déployée sans un contrôle strict de sa résilience face aux menaces. Reste à voir comment ces engagements en standards opérationnels vont pouvoir mis en place sans freiner l’innovation

Découvrez WE-INNOVATE.EU, la plateforme d'intelligence économique consacrée à l'innovation en europe. Retrouvez les informations de plus de 6000 startups et 700 fonds d'investissements Pour en savoir plus, cliquez ici
Bouton retour en haut de la page
Share This