Éthique et intelligence artificielle sont-elles compatibles ?
Par Grégory Pouy, expert FrenchWeb
J’avais déjà reçu Aurélie au tout début de ce podcast d’ailleurs sur un sujet plus généraliste autour de l’IA.
Et c’est justement pour cela que j’ai demandé à Aurélie de revenir nous parler d’un sujet qui me semble essentiel au 21 siècle à savoir: l’éthique.
C’est un épisode un peu particulier puisqu’il a été enregistré en live avec un public chez MylittleParis dans le cadre de leur université d’été.
J’aurais l’occasion d’en enregistrer d’autres avec du public donc surtout écrivez moi si cela vous intéresse.
L’éthique et l’intelligence artificielle sont-elles compatibles et si oui comment?
En Europe et à fortiori en France nous avons une posture forte par rapport à l’éthique et il est donc nécessaire de se pencher sur ce sujet stratégique.
Oui Intelligence artificielle et éthique peuvent fonctionner de concert assène Aurélie.
Si on reprend les 3 modèles dans le monde autour de l’IA et de l’éthique, on a d’un coté et très schématiquement les U.S. qui considèrent la données comme un élément commercial (même si Aurélie rappelle que tout n’est pas si libéral au pays de l’oncle Sam), la Chine qui considère la donnée comme un élément du pouvoir afin de définir les « bons citoyens » et l’Europe dans laquelle, avec le RGPD dernièrement, on essaie de protéger la donnée.
Quoiqu’il en soit, elle est convaincue que l’éthique et l’ intelligence artificielle ne s’opposent pas du tout.
En réalité, l’éthique ne se définie jamais en « bien » ou « mal » mais plutôt en point de vue évidemment.
Simplement en fonction des valeurs, l’éthique et la morale peuvent évoluer d’un pays à l’autre.
Selon Aurélie, le RGPD est d’ailleurs un grand pas dans ce sens et explique comment les GAFA sont obligés de le respecter au moins pour l’Europe.
Il sera pertinent de regarder comment cette première version impacte les usages afin de faire évoluer la loi en fonction.
Ce qui est certain c’est qu’il faut éduquer car pour la première fois nos dirigeants ne comprennent pas la révolution en court même s’ils essaient de s’y intéresser.
Comment les biais cognitifs influencent l’éthique de l’intelligence artificielle?
Tout humain a des biais cognitifs, c’est à dire que sa manière de percevoir le monde est nécessairement différente d’un autre et cela va se retrouver dans l’intelligence artificielle.
Comme le souligne Aurélie, il y a des exemples très connus comme l’incapacité des smartphones (pour les 1er modèles) à proposer une reconnaissance faciale qui fonctionne pour les personnes de couleurs mais elle parle aussi de ses propres sujets d’études sur les traumatismes crâniens et donc de la taille des cranes humains sur lesquels elle s’est appuyée dans ses travaux.
Elle était alors partie sur une grande majorité de crânes de personnes blanches jusqu’à réaliser que les personnes asiatiques avaient des tailles de cranes différentes. C’est un simple exemple mais nous pourrions faire une erreur similaire.
Bref, même avec la meilleure volonté du monde, les biais sont partout.
Et évidemment, cela fini par créer des biais algorithmiques que l’on retrouve dans les machines mais ce n’est pas une volonté de ne pas être éthique ou de nuire de la part des scientifiques, vous l’aurez compris.
Selon Aurélie, c’est la responsabilité de toutes les personnes qui travaillent sur un projet d’avoir conscience des biais cognitifs car c’est la seule manière d’enrayer leurs propagations.
A chacun de devenir un peu plus philosophe pour aller dans ce sens et surtout favoriser la transdisciplinarité afin d’être plus pertinent.
Aurélie a d’ailleurs travaillé avec Grégory Renard sur un serment d’Intelligence Artificielle pour éviter les erreurs de jugements.
Il se trouve en ligne en français et en anglais et a pour objectif de défendre la vie (pas seulement celles des humains bien sur).
On y retrouve la protection de la données, la protection des pairs ou encore la transmission de l’information…
Peut on être compétitif et éthique?
C’est intéressant de constater que même quand les limites de l’éthique sont élargies cela ne résout pas nécessairement tout.
Aurélie prend à ce titre l’exemple du clonage humain qui même s’il est potentiellement accepté en Chine, n’a toujours pas eu lieu.
Mais le plus important est que l’éthique est une arme des consommateurs.
Les consommateurs sont le talon d’Achille de l’intelligence artificielle et demain Aurélie envisage que les consommateurs vont demander à utiliser des produits et des services avec un label éthique qui respectera leur vie privée et leur données.
Peut-être même que les consommateurs seront prêts à payer un peu plus cher pour que leurs données ne soit utilisées que pour une amélioration des services et pas à des fins commerciales.
Quand Youtube propose pour de payer pour accéder à un espace sans publicité ce n’est pas la même promesse. On vous facilite l’usage c’est vrai mais votre donnée est malgré tout capturé. Idem pour Netflix ou Spotify.
Pour Aurélie, l’Europe a donc une carte concurrentielle à jouer en prenant cette posture éthique, de services tout aussi efficaces mais respectueux.
Voire l’Europe pourrait devenir une terre d’accueil des personnes qui veulent protéger leurs données.
L’expert:
Grégory Pouy est le fondateur de LaMercatique, un cabinet de conseil de transformation digitale axé sur la partie marketing. Basé entre New York et Paris, il est «expert» marketing pour FrenchWeb.fr. Pour suivre ses écrits et échanger avec lui
- Ask A VC : comment modéliser un compte de résultat — Partie 6/6 : analyse de sensitivité - 21/05/2024
- Ask A VC : comment modéliser un compte de résultat — Partie 3/6 : les Coûts Fixes - 16/01/2024
- Question à un VC : Pourquoi les marges unitaires sont-elles si importantes pour votre modèle d’affaires? - 13/11/2023