📌 CAF : le nouvel algorithme de contrôle excluait les critères discriminatoires, mais 31 millions de vérifications visent encore les bénéficiaires précaires
Posted 14 mars 2026 by: Admin

L’Algorithme De La CAF : Un Outil De Contrôle Entre Transparence Et Polémique
Depuis le 1er janvier 2026, un tournant s’opère dans la gestion des prestations sociales. La Caisse d’allocations familiales déploie une nouvelle version de son algorithme de contrôle, baptisée Datamining Données entrantes 2026 (DMDE 2026), qui marque une rupture inédite : pour la première fois, le code source devient accessible au public. Cette décision concerne directement les 13,8 millions de bénéficiaires qui perçoivent mensuellement des aides de la CAF.
Au cœur de ce dispositif figure le principe du « juste droit », pierre angulaire du système. Ce concept garantit le versement du montant adéquat, au moment opportun et de façon équitable. Mais la complexité des réglementations transforme cette ambition en défi permanent. Les déclarations obligatoires – revenus, situation familiale, logement – génèrent des erreurs fréquentes, malgré la vigilance des allocataires.
La publication du code source constitue une première historique pour l’organisme. Cette transparence forcée intervient après des mois de pressions. La Cnaf justifie cette évolution par une volonté de permettre aux acteurs concernés « de mieux comprendre la logique générale de l’outil et d’éclairer le débat ». Un changement qui soulève une question essentielle : cette ouverture suffira-t-elle à dissiper les accusations qui pèsent sur le système de contrôle ?

Les Chiffres Massifs Des Contrôles : Anatomie D’Un Système De Vérification Géant
L’ampleur du dispositif de surveillance révèle une machinerie administrative sans précédent. En 2024, la CAF a effectué 31,5 millions de contrôles auprès de 6,4 millions de bénéficiaires. Ces chiffres colossaux masquent pourtant une réalité plus nuancée que les accusations ne le laissent supposer.
La quasi-totalité des vérifications – 92% exactement – résulte de régularisations automatiques. Ces opérations s’appuient sur des échanges d’informations entre administrations publiques, sans intervention humaine directe. Les 8% restants correspondent à des contrôles documentaires ou sur le terrain, menés physiquement par des agents. Une distinction essentielle pour comprendre le fonctionnement réel du système.
L’algorithme controversé occupe une place bien plus restreinte qu’imaginé. Seuls 0,5% des contrôles utilisent le datamining pour détecter les risques d’indu, soit environ 157 500 cas sur l’année. Cette proportion minoritaire n’atténue pas les griefs, mais replace le débat dans son contexte chiffré. D’autant que ces vérifications peuvent générer des rappels de versement, entraînant parfois des paiements complémentaires au profit des allocataires eux-mêmes.
Cette dualité – contrôle des trop-perçus et identification des droits non réclamés – illustre la complexité d’un dispositif loin de se résumer à une simple traque aux fraudeurs. Reste que les accusations portées contre l’ancien algorithme ont ébranlé cette logique administrative.

Accusation De Discrimination : Quand 15 Associations Saisissent Le Conseil D’État
Ce qui a provoqué la refonte ne relève pas d’un simple ajustement technique. En 2024, quinze associations ont franchi le cap de la saisine du Conseil d’État, dénonçant une discrimination systémique envers les plus vulnérables. Un recours juridique inédit qui a contraint la CAF à justifier publiquement ses méthodes de ciblage.
La Quadrature du Net, fer de lance de cette mobilisation, a formulé des griefs sans équivoque : « Nous avons pu démontrer que cet algorithme vise délibérément les plus précaires. Être pauvre, bénéficier des minima sociaux, être au chômage ou vivre dans un quartier défavorisé… Autant de paramètres dégradant la note d’un·e allocataire et augmentant d’autant la probabilité d’être contrôlé. »
Ces révélations ont mis en lumière un système de notation interne où la précarité économique devenait un facteur de suspicion. Les bénéficiaires du RSA, les résidents de zones urbaines défavorisées ou les demandeurs d’emploi se voyaient automatiquement attribuer des scores de risque plus élevés, multipliant leurs chances de subir un contrôle approfondi.
Cette logique algorithmique cristallisait une forme de double peine : déjà fragilisés par leur situation sociale, ces allocataires subissaient une surveillance accrue, précisément en raison de cette fragilité. Un paradoxe que les associations ont dénoncé comme incompatible avec les principes d’égalité et de non-discrimination. Face à cette pression juridique et médiatique, la CAF n’a eu d’autre choix que de rebâtir son dispositif.

Le Tournant Éthique : Exclusion Des Variables Sensibles Et Nouvelle Méthodologie
La refonte imposée par cette pression judiciaire se concrétise dans une transformation radicale de l’approche algorithmique. Depuis le 1ᵉʳ janvier 2026, le DMDE 2026 repose sur une méthodologie que la Cnaf qualifie explicitement de « plus éthique et plus transparente », rompant avec la logique contestée de son prédécesseur.
L’organisme a procédé à l’exclusion systématique des variables sensibles : fini le ciblage fondé sur le niveau de revenus, le type de prestations perçues ou la localisation géographique. Cette purge des critères discriminants répond directement aux griefs formulés par les associations. La CAF affirme avoir adopté une « méthode explicable », privilégiant des indicateurs objectifs liés aux anomalies déclaratives plutôt qu’aux profils sociaux.
Dans son communiqué, la Cnaf justifie ce virage par « la prise en compte des risques de discrimination liés aux variables retenues ». Une formulation qui reconnaît implicitement les failles du système antérieur sans les nommer. La publication du code source constitue la garantie ultime de cette transparence revendiquée : permettre aux acteurs concernés de « mieux comprendre la logique générale de l’outil et d’éclairer le débat ».
Reste à vérifier si cette révolution méthodologique suffira à restaurer la confiance. Les associations, vigilantes, ont annoncé qu’elles analyseraient minutieusement ce code source désormais accessible. Car au-delà des promesses affichées, seule l’application concrète du nouvel algorithme révélera si la CAF a véritablement tourné la page de la surveillance discriminatoire.










