La Caisse nationale des allocations familiales (CNAF) est accusée par une quinzaine d’associations de mettre en place un système discriminatoire via l’utilisation d’algorithmes pour cibler les allocataires à contrôler, et de violer des principes de protection des données.

À quoi sert cet algorithme ?
Ce système, mis en place en 2010, attribuerait un « score de risque » entre 0 et 10 aux dossiers des allocataires, ledit score étant basé sur des critères personnels tels que l’âge des enfants, le niveau de revenus, le nombre de déménagements récents… Les dossiers avec un score élevé auraient ainsi plus de chances d’être contrôlés.
Pourquoi il serait discriminatoire ?
Ce mode de ciblage reposant davantage sur des caractéristiques personnelles que sur des comportements suspects, les associations dénoncent un système potentiellement discriminatoire, en particulier envers les femmes, les jeunes et les personnes à faibles revenus, comme les personnes en situation de handicap. Autre biais, indirect, envers les femmes qui sont surreprésentées dans la catégorie des parents isolés et seraient donc davantage contrôlées.
La CNAF est également accusée de ne pas respecter le règlement général sur la protection des données en collectant des informations excessives et en utilisant un système automatisé de notation qui pourrait contrevenir à l’article 22 dudit RGPD, qui interdit les décisions automatisées sans intervention humaine.
Tout en refusant l’accès à son code source, la CNAF défend son algorithme en affirmant que l’objectif est simplement d’identifier les dossiers les plus susceptibles d’inclure des erreurs, les contrôles étant in fine réalisés manuellement pour éviter toute injustice.
Des associations portent l’affaire devant le conseil d’État
Arguments qui n’ont pas convaincu les associations qui ont décidé de porter l’affaire devant le Conseil d’État, exigeant plus de transparence et une réévaluation de l’utilisation de ces algorithmes. Elles demandent enfin que la CNAF fournisse des données sur les publics ciblés par ces contrôles, pour évaluer s’il existe bien un déséquilibre discriminatoire.
Il semble que plusieurs organismes publics en France utilisent des algorithmes pour gérer et contrôler les prestations sociales, et la Caisse Nationale d’Allocations Familiales (CNAF) ne serait donc pas la seule institution à recourir à de telles pratiques. En plus de la CNAF, l’Assurance Maladie, l’Assurance Vieillesse, les Mutualités Sociales Agricoles (MSA), ainsi que Pôle emploi, utilisent des systèmes similaires pour vérifier et analyser les dossiers des allocataires.
Le gouvernement, représenté par l’ancienne ministre chargée des personnes handicapées, Fadila Khattabi, a défendu l’utilisation de ces algorithmes en affirmant que leur but était d’identifier des erreurs dans les dossiers, et non de surveiller de manière intrusive les 13,5 millions d’allocataires. Cela visait à garantir une gestion plus efficace et une prévention des fraudes.
Cependant, il est important de noter que la fraude aux prestations sociales est un problème majeur, estimée par la Cour des Comptes à environ 6 à 8 milliards d’euros par an. Cette situation a conduit le gouvernement à adopter un plan en mai, dans le but de renforcer les actions de redressement et de doubler les résultats d’ici à 2027. Ce plan vise à améliorer le contrôle des prestations sociales et à lutter plus efficacement contre la fraude.
L’utilisation d’algorithmes pour détecter des anomalies ou des fraudes peut soulever des questions de transparence et de protection des données, mais elle s’inscrit dans une logique de lutte contre les abus financiers tout en cherchant à améliorer la gestion des fonds publics.
En savoir plus sur Le Collectif Handicap 54
Subscribe to get the latest posts sent to your email.

