Arthur MENSCH, CEO de MISTRAL.AI répond à la polémique sur la réglementation de l’IA en Europe
Sur X (ex Twitter) le co fondateur et CEO de MISTRAL.AI est revenu sur la polémique et a souhaité clarifié sa position dans ce post traduit de l’anglais.
« Dans sa forme initiale, l’AI Act était un texte sur la sécurité des produits. Les lois sur la sécurité des produits sont bénéfiques pour les consommateurs. Une utilisation mal conçue des systèmes de prise de décision automatisée peut causer d’importants dommages dans de nombreux domaines. En médecine, un assistant de diagnostic basé sur un système de prédiction mal formé présente des risques pour le patient. La réglementation sur la sécurité des produits doit être proportionnelle au niveau de risque du cas d’utilisation : il est indésirable de réglementer les logiciels de divertissement de la même manière que les applications de santé. L’AI Act initial de l’UE a trouvé un équilibre raisonnable à cet égard. Nous croyons fermement en des lois strictes en matière de sécurité des produits ; les nombreux engagements volontaires que nous voyons aujourd’hui ont peu de valeur.
Cela devrait rester le seul objectif de l’AI Act. L’AI Act de l’UE propose désormais de réglementer les « modèles fondamentaux », c’est-à-dire le moteur derrière certaines applications d’IA. Nous ne pouvons pas réglementer un moteur dépourvu d’utilisation. Nous ne réglementons pas le langage C parce qu’on peut l’utiliser pour développer des logiciels malveillants. Au lieu de cela, nous interdisons les logiciels malveillants et renforçons les systèmes réseau (nous réglementons l’utilisation). Les modèles linguistiques fondamentaux fournissent un niveau d’abstraction plus élevé que le langage C pour la programmation des systèmes informatiques ; rien dans leur comportement ne justifie un changement dans le cadre réglementaire.
L’application de la sécurité des produits de l’IA affectera naturellement la manière dont nous développons les modèles fondamentaux. En exigeant que les fournisseurs d’applications d’IA se conforment à des règles spécifiques, le régulateur encourage une concurrence saine entre les fournisseurs de modèles fondamentaux. Cela les incite à développer des modèles et des outils (filtres, facilités pour aligner les modèles sur les croyances de chacun) qui permettent le développement rapide de produits sûrs. En tant que petite entreprise, nous pouvons apporter de l’innovation dans cet espace – créer de bons modèles et concevoir des mécanismes de contrôle appropriés pour le déploiement d’applications d’IA, c’est pourquoi nous avons fondé Mistral. Notez que nous fournirons éventuellement des produits d’IA, et nous les concevrons pour une sécurité des produits zélée.
Avec une réglementation axée sur la sécurité des produits, l’Europe aurait déjà la législation la plus protectrice au monde pour les citoyens et les consommateurs. Tout modèle fondamental serait affecté par une pression réglementaire de second ordre dès qu’il serait exposé aux consommateurs : pour donner du pouvoir aux assistants de diagnostic, aux chatbots divertissants et aux explorateurs de connaissances, les modèles fondamentaux devraient avoir des biais et des sorties contrôlés.
Les versions récentes de l’AI Act ont commencé à aborder les « risques systémiques » mal définis. En essence, le calcul de certaines transformations linéaires, basées sur une certaine quantité de calcul, est désormais considéré comme dangereux. Des discussions autour de ce sujet peuvent avoir lieu, et nous sommes d’accord qu’elles devraient accompagner les progrès de la technologie. À ce stade, elles sont très philosophiques – elles anticipent un progrès exponentiel dans le domaine, où la physique (les lois d’échelle !) prédit des rendements décroissants avec l’échelle et le besoin de nouveaux paradigmes. Quel que soit le contenu de ces discussions, elles ne concernent certainement pas la réglementation en matière de sécurité des produits. Cependant, supposons qu’elles le fassent et allons dans cette direction.
L’AI Act propose la pire taxonomie possible pour aborder les risques systémiques. La version actuelle n’a aucune règle établie (au-delà du terme « hautement capable ») pour déterminer si un modèle présente un risque systémique et doit faire l’objet d’une réglementation stricte ou limitée. Nous avons fait valoir que le moins absurde des ensembles de règles pour déterminer les capacités d’un modèle est l’évaluation après la formation (mais encore une fois, les applications devraient être l’objectif ; il est irréaliste de couvrir toutes les utilisations d’un moteur dans un test réglementaire), suivi du seuil de calcul (les capacités des modèles étant vaguement liées au calcul). Dans son format actuel, l’AI Act de l’UE n’établit aucun critère de décision. Malgré tous ses défauts, le décret exécutif américain a au moins le mérite de la clarté en s’appuyant sur le seuil de calcul.
L’intention d’introduire une réglementation à deux niveaux est vertueuse. Son effet est catastrophique. Tel que nous le comprenons, l’introduction d’un seuil vise à créer un espace d’innovation libre pour les petites entreprises. Cependant, cela solidifie effectivement l’existence de deux catégories d’entreprises : celles ayant le droit de se développer, c’est-à-dire les entreprises établies pouvant se permettre de répondre à des exigences de conformité strictes, et celles qui ne le peuvent pas parce qu’elles n’ont pas une armée d’avocats, c’est-à-dire les nouveaux venus. Cela signale à tout le monde que seuls les acteurs existants de premier plan peuvent fournir des solutions de pointe.
Mécaniquement, cela est très contreproductif pour l’écosystème émergent de l’IA européenne. Pour être clair, nous ne sommes pas intéressés par les effets de seuil : nous jouons dans la grande ligue, nous n’avons pas besoin d’une protection géographique, et nous voulons simplement des règles qui ne donnent pas un avantage déloyal aux entreprises établies (qui se trouvent toutes être non européennes).
La transparence autour du développement technologique favorise la sécurité et devrait être encouragée. Enfin, nous avons exprimé notre soutien aux avantages de la mise en open source de la technologie de l’IA. C’est la meilleure façon de la soumettre à un examen plus rigoureux. Fournir les poids des modèles à la communauté (ou encore mieux, développer des modèles en open source de bout en bout, ce que nous ne faisons pas encore) devrait être bien vu par les régulateurs, car cela permet des applications plus interprétables et dirigées. Une grande communauté d’utilisateurs peut beaucoup plus efficacement identifier les défauts des modèles ouverts qui peuvent se propager aux applications d’IA qu’une équipe interne de red teamers. Les modèles ouverts peuvent ensuite être corrigés, rendant les applications d’IA plus sûres. Le noyau Linux est aujourd’hui considéré comme sûr car des millions d’yeux ont examiné son code au cours de ses 32 ans d’existence. Les systèmes d’IA de demain seront sûrs car nous travaillerons collectivement à les rendre contrôlables. Le seul moyen validé de travailler collectivement sur un logiciel est le développement en open source. »
- Northvolt se débranche de ses créanciers / Plan marketing 2025, la méthode Maxime Baumard (Pennylane) / SOLTEO lève… - 22/11/2024
- SOLTEO lève 1,5 million d’euros pour développer les micro-centrales solaires - 22/11/2024
- EDEN AI lève 3 millions d’euros pour démocratiser l’accès à l’IA en entreprise - 21/11/2024