Écrémage des pauvres 2.0

Philippe Warin

p. 41-46

References

Bibliographical reference

Philippe Warin, « Écrémage des pauvres 2.0 », Revue Quart Monde, 260 | 2021/4, 41-46.

Electronic reference

Philippe Warin, « Écrémage des pauvres 2.0 », Revue Quart Monde [Online], 260 | 2021/4, Online since 01 June 2022, connection on 28 March 2024. URL : https://www.revue-quartmonde.org/10491

Cinquante ans après l’article Creaming the Poor, la « fabrique des exclus » fonctionne de la même manière, reconduite par les mêmes causes. Toutefois, le passage à l’administration numérique introduit une nouvelle donne, dont les plus pauvres font encore les frais.

L’actualité de Creaming the Poor est saisissante au regard des conditions de comportements qui subordonnent aujourd’hui de plus en plus l’accès aux prestations sociales et parfois aux services publics. Ce que l’on appelle la « conditionnalité comportementale », bien documentée maintenant, peut conduire à exclure davantage les personnes qui ne peuvent répondre aux obligations du fait de leur situation de pauvreté. De ce point de vue, l’écrémage des publics que l’on peut observer tout au long des processus administratifs, a de très nombreux points communs avec la situation décrite pour les États-Unis il y a 50 ans. En particulier, plus les conditions d’existence et les parcours de vie éloignent les personnes des comportements attendus, plus il leur est difficile de faire valoir et même d’imaginer leur éligibilité, leur légitimité et in fine leur citoyenneté.

Ainsi, ce n’est pas pour rien, par exemple, que l’abondante littérature nord-américaine produite dès les années 1970 sur la stigmatisation comme mécanisme institutionnel de dissuasion (le Welfare Stigma) contribue aujourd’hui à éclairer l’analyse du phénomène de non-recours aux prestations et aux services1. Le cadre explicatif exposé dans Creaming the Poor, mais aussi dans d’autres travaux d’importance de la même époque2, est en bonne partie repris, point par point, pour expliquer pourquoi des personnes ne bénéficient pas des prestations et des services auxquels elles pourraient prétendre : complexité et volatilité des règles, déficits de l’information et de l’accompagnement, insuffisance et impréparation des moyens humains, décalage entre l’offre et les besoins, défiances réciproques, coûts d’accès aux prestations et aux services, etc.

On pourrait s’arrêter là et inviter fortement le plus grand nombre à lire L’écrémage des pauvres pour constater que cinquante ans après, la fabrique des exclus reste la même. En effet, l’essentiel est certainement de faire circuler cet article de référence le plus largement possible pour que chacun.e aille sans relâche vers la reconnaissance définitive et totale des personnes en situation de (grande) pauvreté. Car les explications avancées par Miller, Roby et de Vos van Steenwijk n’ont rien perdu de leur justesse.

Un constat toujours actuel

L’écrémage des pauvres reste très largement d’actualité parce que cet article amène aux raisons structurelles de ce processus sans fin. En effet, en un demi-siècle, rien dans nos politiques sociales et de protection sociale n’a suffisamment changé pour rendre obsolètes les constats précis et sans appel des auteur.e.s. Au contraire même, la logique de la conditionnalité comportementale, qui attise nécessairement les inégalités sociales à la source de l’exclusion, s’accentue. Notamment, aux États-Unis et dans d’autres pays d’abord, en France et ailleurs aujourd’hui, l’activation des prestations ou aides sociales – c’est-à-dire la subordination de leur obtention et maintien à l’engagement des bénéficiaires sur le marché du travail – ne fait qu’accroître les pressions, en particulier sur les personnes les plus démunies et les plus contraintes. Il a été démontré que plus les conditions d’accès sont contraignantes, plus les individus se sentent stigmatisés car soumis à des obligations spécifiques qui les dissocient toujours davantage du reste de la population. Cette fabrique de la « dissociété », dont a parlé Jacques Généreux et qui agit ici sur les personnes en situation de pauvreté, apparaît comme le prolongement de la société de classes explicitement évoquée par Miller, Roby et de Vos van Steenwijk. En particulier, l’accroissement des procédures et la multiplication des critères de conditionnalités alimentent des perceptions individuelles négatives sur la possibilité et même la légitimité d’accéder aux prestations ou aux services. Mais derrière ces analyses sophistiquées il y a la rage, la rage de vivre, la rage d’être reconnu, la rage d’exister. C’est cela l’essentiel à comprendre. Daniel Blake crie cette rage dans le film de Ken Loach, comme tant de personnages d’œuvres littéraires plus ou moins fictives, qu’il faudrait elles aussi diffuser sans relâche, qui ont pour auteur.e.s Yolande Liviani (Les Trimardeurs), Mohamed Choukri (Le Pain nu), Florence Aubenas (Quai de Ouistreham et En France), Joseph August Strindberg (Le Fils de la servante)…

Toutefois, sur un point, l’article paraît daté. En effet il y a cinquante ans, les auteur.e.s de Creaming the Poor ne pouvaient pas prévoir cette nouvelle donne redoutable qui agit aujourd’hui dans l’écrémage de la population et des plus pauvres de nouveau : celle du passage à l’administration numérique3. C’est peut-être sur ce plan que l’analyse de Miller, Roby et de Vos van Steenwijk mériterait une actualisation. Il ne s’agit pas ici de s’en occuper, de nombreux travaux récents dressent les constats et alertent sur les conséquences qui peuvent être désastreuses. Il s’agit simplement d’indiquer quelques raisons pour lesquelles un « écrémage 2.0 » peut certainement causer d’autres dégâts encore chez les personnes vivant en situation de (grande) pauvreté.

La nouvelle donne du numérique

On peut laisser de côté les raisons immédiates, déjà bien repérées, pour aller directement vers des raisons aux plus lourdes conséquences qui pourraient se profiler à plus ou moins brève échéance. En effet, en plus de creuser toujours davantage les inégalités, l’administration numérique pourrait procéder à un « écrémage radical » en sortant définitivement du jeu de la redistribution sociale, de différentes manières, les personnes en situation de (grande) pauvreté.

Passons donc rapidement sur le fait largement avéré que le numérique peut exclure, par manque d’équipement et par défaut de maîtrise, mais aussi beaucoup à cause de la brutalité du changement (non préparation de la population bien sûr, mais aussi des agents) et du fait de la complexité et souvent des défaillances sinon des incohérences des plateformes, serveurs et autres portails. Cette jungle est d’une extrême insécurité pour la population mais aussi pour les services, d’autant qu’elle met en jeu des intérêts prédateurs qui ne sont pas publics (l’industrie du numérique, l’économie des données) et peut servir des objectifs qui ne sont pas qu’administratifs mais de nature policière, nous allons y revenir. En France, des voix informées, et parmi elles celle d’ATD Quart Monde ou du Défenseur des Droits, s’élèvent pour alerter du désastre social et du risque politique pour la démocratie vers lequel nous mène ce choix probablement irréversible, dont le plan gouvernemental

« Tout numérique 2022 » est un maillon. En effet, si à court terme maintenant la seule possibilité pour adresser une demande à n’importe quel service public, administration ou organisme social est la connexion à un site depuis un ordinateur, alors d’entrée de jeu une partie d’entre nous se trouvera aussitôt exclue. Or une interruption, même temporaire, dans les échanges avec une administration ou un organisme social peut se révéler particulièrement coûteux pour les personnes et même avoir des conséquences rédhibitoires : des droits ouverts peuvent être perdus. Or à ce jeu-là, on sait qui sont les premiers perdants.

L’exclusion sociale que peut produire un tel modèle d’administration ne s’arrête cependant pas là. Elle peut être produite également à travers le contrôle social (police des comportements) que le numérique permet de déployer. Avec le numérique, la conditionnalité comportementale dont parlaient, avec leurs mots, Miller, Roby et de Vos van Steenwijk, peut en effet être portée à un autre niveau de contraintes pour les droits et de conséquences pour les libertés. Pensons notamment au système du « crédit social » mis en œuvre en Chine et dans d’autres pays. Ce système dit de « contrôlocratie » fait passer les devoirs avant les droits. Il subordonne l’accès à des prestations et services aux « bons comportements » des individus. En Chine, grâce à l’intelligence artificielle, un « capital de points » est accordé par l’État au citoyen, qui peut être bonifié ou bien s’éroder selon toutes sortes de paramètres. Ainsi, une simple infraction routière peut-elle barrer l’accès à un établissement public d’éducation par exemple. Cette entrée du numérique dans le fonctionnement des administrations et des services publics porte essentiellement sur le développement d’algorithmes permettant d’orienter les moyens. C’est là que se niche probablement la révolution numérique, pour la simple raison que l’accès aux prestations et aux services ne dépend alors plus seulement de règles préétablies (les critères d’éligibilité et les conditions d’accès), mais de systèmes de prédiction dans la détermination des personnes qui ont besoin d’aide. Ce contrôle qui s’étend au niveau des autorités locales a en même temps un objectif politique dans le sens où il vise également à augmenter le niveau de vertu des citoyens4.

Cette contrôlocratie est au cœur de la transformation en cours d’un État qui se rétrécit et se renforce simultanément, à la fois en se faisant l’auxiliaire de la logique propre du marché et en se rabattant sur des questions de sécurité. Soit l’État qui correspond au « capitalisme de la surveillance » décrit à partir des États-Unis5. Cette nouvelle forme de capitalisme traduit l’expérience humaine en données comportementales afin de produire des prédictions qui sont ensuite revendues sur le marché des comportements futurs, y compris pour les services sous autorité régalienne, comme la police et la justice, et d’autres probablement dans un avenir proche.

Des risques multiples

Le social n’est pas en reste. De ce point de vue, la situation outre-manche est particulièrement intéressante à cause des évolutions qu’elle annonce dans l’écrémage des publics. Une enquête récente de The Gardian révélait que 140 des 408 collectivités locales du Royaume-Uni ont développé des systèmes de prédiction à destination des travailleurs sociaux6. Et de citer le cas de Bristol :

« L’ordinateur IBM ronronne jour et nuit pendant qu’un algorithme parcourt les données relatives à la vie de 170 000 habitants de Bristol. Ces informations sont communiquées par la police, le NHS le [service de santé public], le ministère de l’Emploi et des Retraites et les autorités locales. Emploi, problèmes d’alcool, de drogue, de santé mentale, infractions, incivilités, absences scolaires, grossesses précoces et violence domestique, tout y est. » Comme l’explique l’article, la municipalité « se sert de ces prévisions pour guider ses agents sur le terrain » et déployer l’aide publique dans tel ou tel quartier de la ville.

Cependant, les intentions des autorités publiques peuvent être moins louables à l’égard de certaines populations en particulier. Par exemple, San Francisco et Seattle ont mis à disposition de la population des applications pour Smartphone pour informer les autorités de la présence de « noyaux de SDF » dans leur quartier, alors rapidement évacués par la police. Ces snitch apps (« applications pour mouchards ») payées par les municipalités, non seulement expulsent les sans-domicile, mais rendent plus difficile encore le logement des plus modestes (si cela reste encore possible) en contribuant à la gentrification des quartiers.

En même temps, les algorithmes sont loin d’être toujours fiables et peuvent exprimer les préjugés de leur concepteur. Ainsi, le même article de The Gardian rapporte-t-il le cas du district de North Tyneside dans le nord-est de l’Angleterre. Les autorités ont mis fin à un contrat d’un opérateur privé parce que l’algorithme identifiait à tort certains habitants comme des fraudeurs potentiels, ce qui provoquait un retard dans le versement de leurs aides sociales. Les personnes en situation de grande pauvreté en étaient les victimes directes.

Les algorithmes sont aussi à l’origine de traitements injustes ou discriminatoires dans d’autres domaines, comme celui de la santé. En particulier, une étude publiée dans Science en octobre 2019 conclut que l’algorithme en usage dans les hôpitaux américains pour attribuer des prestations de santé est moins susceptible de faire bénéficier les Noirs que les Blancs des programmes destinés à améliorer les soins de patients présentant des besoins médicaux complexes7. Cet algorithme à partir duquel hôpitaux et assureurs gèrent les soins de près de 200 millions de personnes chaque année aux États-Unis, est construit de telle façon que les Noirs doivent être plus malades que les Blancs pour obtenir une aide supplémentaire. En attendant la mise en place d’autorités de contrôle des algorithmes et de la régulation d’un Internet encore largement opaque, « la Tech » peut être perméable au racisme systémique qui conditionne depuis toujours aux États-Unis (et pas seulement) l’accès aux programmes d’aides et aux services.

Et la France ? Elle n’est pas en reste apparemment. Selon Jean-Gabriel Ganascia, expert en intelligence artificielle et président du comité d’éthique du CNRS, le système du crédit social existe déjà dans un certain nombre d’institutions financières, assurances et banques, et de grandes entreprises8. Son fonctionnement est notoirement en défaveur des personnes modestes ou a fortiori en situation de (grande) pauvreté, qui sont ainsi discrètement exclues du droit à un compte courant, tandis que le secteur des assurances met en œuvre des algorithmes qui sélectionnent les clients « les moins à risque ». Avec un tel système d’écrémage des clients, des personnes en situation de (grande) pauvreté il n’en est même plus question. Par ce pouvoir dissolvant, le numérique contribue à constituer des « espaces de l’entre-soi »9 – des groupements de personnes aux caractéristiques communes – qui impliquent une mise à distance active et plus ou moins radicale des groupes opprimés.

Et le secteur public ? Les administrations et services publics sont encadrés, mais resteront-ils longtemps à l’écart ? On peut en douter. La numérisation des données administratives modifie en profondeur les contours de l’action publique. La mission Etalab de la Direction interministérielle du numérique de l’État a pour objectif, fixé par décret le 30 octobre 2019, de coordonner les actions des administrations de l’État pour faciliter la diffusion et la réutilisation de leurs informations publiques. Notamment, un Guide des algorithmes publics a émergé de cette initiative, destiné à l’ensemble des administrations et organisations chargées d’une mission de service public. Apparemment l’usage des algorithmes dans les administrations est tourné vers l’amélioration des fonctionnements : « Attribuer des droits, calculer des montants selon des règles prédéfinies » ; « Prédire une situation ou un risque en analysant des données »… Mais quelles sont les garanties pour que ces usages n’écrèment pas à leur tour une partie du public, et par ailleurs, qui s’assure effectivement de leur respect ? Mais aussi jusqu’où ira-t-on, en particulier quand il s’agit d’« Aider à la décision des usagers » ? Car dans cet engrenage, la prédiction des comportements fait perdre un droit essentiel : celui de savoir et de choisir qui sait quoi de notre vie et de notre avenir. Qui décide et quels sont les recours ? Face à cette opacité, à coup sûr, les premières sinon les principales victimes seront une nouvelle fois les personnes vivant dans des situations de (grande) pauvreté qui les rendent plus vulnérables aux abus et injustices.

C’est pourquoi, pris à travers ces différentes facettes, bien sûr incomplètes, « l’écrémage 2.0 » qui se profile à grands pas, appelle plus que jamais à poursuivre la lutte pour faire reconnaître totalement et définitivement le pouvoir d’agir de celles et ceux qui, repoussées aux marges, sont ce peuple en quête de dignité.

1 Par exemple, Petite introduction à la question du non-recours aux droits sociaux, Philippe Warin, Montrouge, ESF Éd., 2020.

2 L’analyse de Miller, Roby et de Vos van Steenwijk nous rappelle très largement le célèbre rapport, devenu ouvrage, de Michael Harrington, The Other

3 Le sujet était néanmoins posé et préoccupait déjà. En France, qui pouvait avoir du retard en la matière par rapport aux États-Unis notamment, les

4 « Citoyens taisez-vous : les algorithmes parlent à votre place », Philippe Warin, The Conversation, 16 décembre 2019.

5 L’Âge du capitalisme de surveillance, Shoshana Zuboff, Paris, Éd. Zulma, 2020.

6 « How Bristol assesses citizens’ risk of harmusing an algorithm », Robert Booth, The Guardian, 15 octobre 2019.

7 « Dissecting racial bias in an algorithm used to manage the health of populations », Science, Ziad Obermeyer, Bian Powers, Christine Vogeli, Sendhil

8 Entretien, émission télévisée Envoyé spécial du 10 octobre 2019.

9 « Les espaces de l’entre-soi », Sylvie Tissot (dir.), Actes de la recherche en sciences sociales, n° 204, 2014, 140 p.

1 Par exemple, Petite introduction à la question du non-recours aux droits sociaux, Philippe Warin, Montrouge, ESF Éd., 2020.

2 L’analyse de Miller, Roby et de Vos van Steenwijk nous rappelle très largement le célèbre rapport, devenu ouvrage, de Michael Harrington, The Other America. Poverty in the United States, Penguin Books, 1963, dans lequel les plus pauvres parmi les pauvres étaient très clairement les Noirs des ghettos.

3 Le sujet était néanmoins posé et préoccupait déjà. En France, qui pouvait avoir du retard en la matière par rapport aux États-Unis notamment, les conséquences sociétales des nouvelles technologies de l’information et de la communication donnaient déjà lieu à des rapports. On peut ainsi rappeler le rapport L’informatisation de la société remis à la fin des années 1970 au président de la République par Simon Nora et Alain Minc, qui pressentait le risque de la « fracture numérique ».

4 « Citoyens taisez-vous : les algorithmes parlent à votre place », Philippe Warin, The Conversation, 16 décembre 2019.

5 L’Âge du capitalisme de surveillance, Shoshana Zuboff, Paris, Éd. Zulma, 2020.

6 « How Bristol assesses citizens’ risk of harmusing an algorithm », Robert Booth, The Guardian, 15 octobre 2019.

7 « Dissecting racial bias in an algorithm used to manage the health of populations », Science, Ziad Obermeyer, Bian Powers, Christine Vogeli, Sendhil Mullainathan, 2019 Oct 25; 366(6464) : 447‑453.

8 Entretien, émission télévisée Envoyé spécial du 10 octobre 2019.

9 « Les espaces de l’entre-soi », Sylvie Tissot (dir.), Actes de la recherche en sciences sociales, n° 204, 2014, 140 p.

Philippe Warin

Ancien directeur de recherche au CNRS, Philippe Warin est co-fondateur de l’Observatoire des non-recours aux droits et services (Odenore).

CC BY-NC-ND