IA: l’UE et Google veulent des règles volontaires avant une nouvelle loi
AFP
Le commissaire européen pour le Numérique, Thierry Breton, et le patron de Google, Sundar Pichai, se sont accordés mercredi pour travailler sur des règles afin d’encadrer l’intelligence artificielle (IA) avec les entreprises volontaires, dans l’attente d’une nouvelle législation dans l’UE.
« Nous nous sommes mis d’accord sur le fait que nous ne pouvons pas nous permettre d’attendre que la législation sur l’IA soit applicable, et pour travailler ensemble avec tous les développeurs d’IA pour mettre en place un pacte sur une base volontaire », a déclaré Thierry Breton, après une rencontre avec Sundar Pichai à Bruxelles.
L’Union européenne (UE) veut être la première au monde à se doter d’un cadre juridique complet pour limiter les dérives de l’intelligence artificielle.
Bruxelles a proposé il y a deux ans un projet de règlement ambitieux, mais son examen par les Etats membres et le Parlement européen traîne en longueur. Si le texte devait être adopté avant la fin de l’année, il entrerait en vigueur « au plus tôt fin 2025 », a expliqué Thierry Breton à l’AFP.
D’une grande complexité technique, les systèmes d’intelligence artificielle fascinent autant qu’ils inquiètent.
Le grand public a découvert leur potentiel immense à la fin de l’année dernière avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, qui peut rédiger des dissertations originales, des poèmes ou des traductions en quelques secondes.
Mais la diffusion sur les réseaux sociaux de fausses images, plus vraies que nature, créées à partir d’applications comme Midjourney, a alerté sur les risques de manipulation de l’opinion.
La future législation européenne s’inspire des réglementations existantes en matière de sécurité des produits et imposera des contrôles reposant d’abord sur les entreprises.
Le cœur du projet consiste en une liste de règles imposées aux seules applications jugées à « haut risque » par les entreprises elles-mêmes à partir des critères du législateur. Pour l’exécutif européen, il s’agirait de tous les systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations.
Parmi les obligations: prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque.
La proposition de la Commission, dévoilée en avril 2021, prévoit aussi un encadrement des systèmes d’IA qui interagissent avec les humains. Elle les obligera à informer l’utilisateur qu’il est en relation avec une machine et contraindra les applications générant des images à préciser qu’elles ont été créées artificiellement.
« Beaucoup de choses peuvent être mises en oeuvre sans passer par la loi », a expliqué Thierry Breton, souhaitant travailler avec tous « les grands acteurs européens et non-européens » qui le souhaitent pour aboutir à une régulation « avant qu’elle ne devienne contraignante par la loi ».
Cette régulation anticiperait des éléments du projet européen « et peut-être d’autres éléments, s’ils ont d’autres idées pour renforcer la protection », a expliqué le commissaire.
Il a par ailleurs alerté le patron de Google sur des « problèmes » constatés avec sa filiale YouTube qui diffuserait de la désinformation pro-Russe, posant un risque de manipulation des élections en Europe. Thierry Breton s’est félicité de l’engagement de Sundar Pichai à « intensifier la lutte contre la désinformation ».
- Gestion financière, quels sont les nouveaux outils qui s’imposent à tous dirigeants et CFO pour piloter leurs activités? - 25/10/2024
- Gestion de contrats d’entreprise: quelles sont les meilleures pratiques à adopter? - 21/09/2024
- NAVAN (ex-TripActions), un pionnier de la gestion des voyages d’affaires qui mise sur l’Europe - 14/09/2023