La France s’active pour défendre une Europe ambitieuse dans le domaine de l’intelligence artificielle

Intelligence artificielle : « La meilleure protection c’est d’avoir des modèles européens », plaide Jean-Noël Barrot (Le Monde, Alexandre Piquard, 15/12/2023)

L’article du journal Le Monde consacré au plaidoyer de Jean-Noël Barrot met en lumière les débats entourant le projet de règlement européen sur l’intelligence artificielle (AI Act) et souligne les positions défendues par le ministre délégué au numérique français, Jean-Noël Barrot.

Le ministre délégué au numérique s’est exprimé sur le projet de règlement européen sur l’intelligence artificielle (AI Act) juste avant une réunion cruciale qui était prévue le 6 décembre 2023. Au-delà des positions de la France dans les négociations autour de la régulation de l’intelligence artificielle en Europe, l’article met en évidence les débats sur les nécessaires obligations, le besoin de transparence des modèles, et la nécessité de créer des acteurs européens forts dans le domaine de l’IA.

La France est critiquée pour son opposition apparente aux propositions plus strictes du Parlement européen, ce qui a créé des tensions dans les négociations. Mais Jean-Noël Barrot défend la position de la France en soulignant que l’Europe devient la première démocratie à établir un cadre législatif pour l’intelligence artificielle. Si ce cadre est adopté, les systèmes d’IA présentant des risques élevés devront obtenir un marquage CE, avec des obligations d’audit et de transparence les plus élevées au monde. Cela s’appliquerait aux domaines tels que la conduite autonome, le diagnostic médical, le tri des CV, et l’attribution de crédit, mais pas aux domaines sans risque comme le divertissement ou le jeu vidéo.

Concernant les modèles de fondation, utilisés par des entreprises pour créer des services, Barrot propose une approche où les fabricants collaboreraient avec les entreprises clientes et publieraient des informations de base sur le fonctionnement de leurs modèles. Il suggère également un code de bonne conduite pour harmoniser les pratiques et envisage des exonérations pour les modèles en accès libre (open source), arguant que l’open source offre des garanties de transparence et favorise la concurrence équitable.

Soutenue par l’Allemagne et l’Italie, la France s’oppose aux obligations plus strictes proposées par le Parlement en juin, concernant des évaluations régulières et des mesures d’atténuation des risques pour les droits fondamentaux. La France a également rejeté le compromis réservant ces obligations aux modèles les plus puissants. Cette position a suscité des critiques, notamment de spécialistes de l’intelligence artificielle et de l’association de PME du numérique SME Alliance. Le ministre Barrot affirme que l’AI Act serait ainsi la réglementation la plus contraignante au monde.

Dans ce type de configuration, il est fréquent de se voir reprocher une forme de favoritisme déguisé. La France est ainsi accusée de suivre les intérêts de sa start-up Mistral AI. Jean-Noël Barrot insiste au contraire sur une démarche guidée par l’intérêt général et une approche basée sur des échanges avec toutes les parties prenantes.

Les réflexions stratégiques convergent par ailleurs vers la création de « champions européens » de l’IA comme étant une priorité absolue, estimant que cela offre une meilleure protection que de tenter de réguler des plateformes qui s’exportent par nature avec leur propre droit. Enfin, des questions comme la lutte contre les monopoles dans l’accès à la capacité de calcul informatique et le droit d’auteur mériteraient des évolutions législatives.




Rencontres du Club – Programmation 2024

Lundi 15 janvier, La culture comme facteur de réussite des transformation, Jérôme Bouquet

Lundi 26 février, La transformation numérique du ministère des armées, Vincent TEJEDOR

Mercredi 13 mars (séminaire), La transformation numérique du groupe Orange, Mathieu HUET

Lundi 22 avril, assemblée générale du Club

Lundi 13 mai, Comprendre les vulnérabilités et construire des pratiques pour une organisation régénérative Boutayna BURKEL

Lundi 10 juin Gaia X Nadia FRONTIGNY

Lundi 1er juillet, L’évaluation de la maturité digitale 360° Michaël TARTAR

Lundi 9 septembre, Retex sur la mise en œuvre IA  avec Alexandre MARTINELLI, CEO de La Javaness

Lundi 7 octobre Le rapport IA : notre ambition pour la France avec Cyprien CANIVENC

Lundi 4 novembre, Les wargame au ministères des armées, Patrick RUETSCHMANN

Lundi 9 décembre A définir




Transparence des algorithmes…

Tiré de l’article « L’opacité des algorithmes favorise les dérives au sein des établissements publics » (Par Adrien Sénécat, Le Monde, 05/12/2023)

Suite au révélations de l’association La Quadrature du Net, il est intéressant de rappeler les attentes de transparence s’agissant du traitement de l’information par des algorithmes.

L’article du journal Le Monde examine les implications de l’utilisation d’algorithmes opaques au sein des services publics, en mettant en lumière le cas de la Caisse nationale d’allocations familiales (CNAF) en France.

L’utilisation d’algorithmes, qu’ils soient simples ou sophistiqués, vise à produire des résultats à partir de commandes spécifiques. Cependant, leur utilisation est souvent entourée d’opacité. Cela pose un problème s’agissant du secteur public. L’article se penche sur le cas de la CNAF qui a été médiatisé au cours des derniers jours car il utilise un score de risque discutable pour cibler ses contrôles parmi ses 13,8 millions de foyers d’allocataires.

L’association La Quadrature du Net, qui à l’origine de l’étude, souligne le besoin de transparence dans le fonctionnement de ces systèmes, argumentant que la publication des détails de l’algorithme devrait être publique pour permettre un débat démocratique. En 2022, La Quadrature du Net a demandé à la CNAF de divulguer les détails de son algorithme, mais la demande a été initialement rejetée au motif que cela pourrait aider les fraudeurs à contourner les contrôles.

Suite à une intervention de la Commission d’accès aux documents administratifs (CADA), La Quadrature du Net et Le Monde ont pu obtenir des informations détaillées sur les algorithmes utilisés par la CNAF de 2010 à 2020. L’analyse de ces données révèle que le système s’appuie en grande partie sur des critères potentiellement discriminatoires, tels que l’âge, la situation familiale, les droits à l’allocation aux adultes handicapés, et la vulnérabilité économique.

L’opacité entourant ces algorithmes soulève des inquiétudes quant aux potentielles dérives. Par exemple, un critère de nationalité discriminatoire a été utilisé pendant des années, attribuant un score de risque plus élevé aux citoyens extra-européens. Les 700 contrôleurs de la CNAF n’avaient aucune connaissance du mode de calcul du score de risque, ce qui souligne le manque de transparence.

L’article souligne également que, dans certains domaines, les professionnels qui utilisent des traitements automatisés de données pour prendre des décisions doivent connaître les fondements de ces systèmes. Les lois existantes, comme le règlement général sur la protection des données en Europe, prévoient des dispositions pour garantir l’information des citoyens sur le traitement automatisé de leurs données. Cependant, les administrations peuvent interpréter ces règles de manière restrictive.

L’utilisation croissante d’algorithmes dans les services publics, tels que Parcoursup en France, souligne l’importance de mettre en place des garde-fous. L’article mentionne d’autres exemples européens où des discriminations ont été observées en l’absence de transparence et de réglementation adéquate.

L’utilisation des algorithmes appelle à la vigilance pour éviter les dérives potentielles et assurer une protection adéquate des droits des citoyens.