Illustration transformation numérique

Transparence des algorithmes…

Tiré de l’article « L’opacité des algorithmes favorise les dérives au sein des établissements publics » (Par Adrien Sénécat, Le Monde, 05/12/2023)

Suite au révélations de l’association La Quadrature du Net, il est intéressant de rappeler les attentes de transparence s’agissant du traitement de l’information par des algorithmes.

L’article du journal Le Monde examine les implications de l’utilisation d’algorithmes opaques au sein des services publics, en mettant en lumière le cas de la Caisse nationale d’allocations familiales (CNAF) en France.

L’utilisation d’algorithmes, qu’ils soient simples ou sophistiqués, vise à produire des résultats à partir de commandes spécifiques. Cependant, leur utilisation est souvent entourée d’opacité. Cela pose un problème s’agissant du secteur public. L’article se penche sur le cas de la CNAF qui a été médiatisé au cours des derniers jours car il utilise un score de risque discutable pour cibler ses contrôles parmi ses 13,8 millions de foyers d’allocataires.

L’association La Quadrature du Net, qui à l’origine de l’étude, souligne le besoin de transparence dans le fonctionnement de ces systèmes, argumentant que la publication des détails de l’algorithme devrait être publique pour permettre un débat démocratique. En 2022, La Quadrature du Net a demandé à la CNAF de divulguer les détails de son algorithme, mais la demande a été initialement rejetée au motif que cela pourrait aider les fraudeurs à contourner les contrôles.

Suite à une intervention de la Commission d’accès aux documents administratifs (CADA), La Quadrature du Net et Le Monde ont pu obtenir des informations détaillées sur les algorithmes utilisés par la CNAF de 2010 à 2020. L’analyse de ces données révèle que le système s’appuie en grande partie sur des critères potentiellement discriminatoires, tels que l’âge, la situation familiale, les droits à l’allocation aux adultes handicapés, et la vulnérabilité économique.

L’opacité entourant ces algorithmes soulève des inquiétudes quant aux potentielles dérives. Par exemple, un critère de nationalité discriminatoire a été utilisé pendant des années, attribuant un score de risque plus élevé aux citoyens extra-européens. Les 700 contrôleurs de la CNAF n’avaient aucune connaissance du mode de calcul du score de risque, ce qui souligne le manque de transparence.

L’article souligne également que, dans certains domaines, les professionnels qui utilisent des traitements automatisés de données pour prendre des décisions doivent connaître les fondements de ces systèmes. Les lois existantes, comme le règlement général sur la protection des données en Europe, prévoient des dispositions pour garantir l’information des citoyens sur le traitement automatisé de leurs données. Cependant, les administrations peuvent interpréter ces règles de manière restrictive.

L’utilisation croissante d’algorithmes dans les services publics, tels que Parcoursup en France, souligne l’importance de mettre en place des garde-fous. L’article mentionne d’autres exemples européens où des discriminations ont été observées en l’absence de transparence et de réglementation adéquate.

L’utilisation des algorithmes appelle à la vigilance pour éviter les dérives potentielles et assurer une protection adéquate des droits des citoyens.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.