Les institutions pénales aux Etats-Unis connaissent depuis quelques années une multiplication des usages d’algorithmes prédictifs (« risk-assessment tools ») permettant l’estimation probabiliste des risques de récidive. Plusieurs travaux examinent de façon critique les méthodes de construction de ces algorithmes, ainsi que leurs effets en termes de reproduction des inégalités socio-économiques et raciales dans un système pénal déjà caractérisé par de fortes discriminations, mais on en sait peu sur la façon dont ces algorithmes prédictifs sont utilisés dans les tribunaux américains.
Pour étudier ces algorithmes en pratique, la sociologue Angèle Christin a conduit un terrain ethnographique dans plusieurs tribunaux aux Etats-Unis. Elle a effectué plus de 70 heures d’observations ethnographiques en suivant les juges, les procureurs, les greffiers, les administrateurs des tribunaux et les analystes de données dans leurs activités quotidiennes. En plus de ces observations, elle a mené près de 40 entretiens avec des agents de probation, des juges, des procureurs, des avocats de la défense, des greffiers, des administrateurs de tribunaux et des développeurs impliqués dans la construction d’outils d’évaluation des risques de récidives. A partir de ce terrain, Angèle Christin examine les pratiques décisionnelles des juges et procureurs à l’heure des algorithmes. Ses résultats témoignent de l’écart entre les usages des algorithmes, souhaités par leurs promoteurs, ou critiqués par leurs détracteurs, et leurs usages réels, dont les effets sur l’activité judiciaire sont nuancés. (…)
Alors que les critiques adressées à ces modèles prédictifs portent essentiellement sur leur opacité, votre recherche révèle les résistances des magistrats à ces algorithmes. Pouvez-vous nous préciser quel est l’usage réel des outils de prédiction de la récidive ?
L’image qui se dégage de mon analyse ethnographique soulève la question de la résistance des magistrats aux algorithmes. De nombreux juges et substituts du procureur m’ont en effet expliqué qu’ils ne voyaient pas l’intérêt de se servir de ces outils, qu’ils voyaient d’un œil critique pour un ensemble de raisons : les magistrats les trouvaient opaques, critiquaient leur commercialisation par des entreprises privées cherchant à gagner de l’argent en rognant sur la qualité des outils, se plaignaient de n’avoir pas été formé aux méthodes statistiques, et faisaient finalement plus confiance aux méthodes « traditionnelles », c’est-à-dire la lecture du dossier et l’audience avec le prévenu, pour prendre leur décision. Ce faisant, les magistrats défendaient souvent leur expertise professionnelle contre l’automatisme des algorithmes. Cela pouvait en amener certains à ignorer volontairement les scores de risque de récidive. Ceci dit, et c’est une des limites de la méthode ethnographique, je n’ai observé que quelques tribunaux aux Etats-Unis ; mes résultats ne sont donc pas représentatifs. Mais cela permet en tout cas de nuancer l’idée d’une justice prédictive et entièrement automatisée…
Ces résultats témoignent de l’écart entre les usages souhaités (et critiqués) des algorithmes et leurs usages réels et nuancent leurs effets sur l’activité judiciaire. Toutefois, vous indiquez qu’au travers de la mise en œuvre de ces algorithmes se joue un déplacement du pouvoir discrétionnaire des magistrats vers les travailleurs sociaux. En quoi ce déplacement est problématique ?
L’un des éléments frappants qui ressort de mon enquête tient en effet aux formes de déplacements du pouvoir discrétionnaire que l’on observe lorsque les outils algorithmiques sont mis en place. Lors de mes entretiens avec les travailleurs sociaux des services de mise en détention provisoire, il est clairement apparu qu’ils savaient très bien comment manipuler l’algorithme afin d’obtenir le résultat qu’ils pensaient approprié. A force d’utiliser ces instruments, ces travailleurs sociaux avaient acquis un savoir pratique précieux : ils comprenaient quelles étaient les variables qui comptaient le plus pour le calcul du score. Mais les magistrats, eux, étaient généralement démunis face aux algorithmes, dont ils ne comprenaient pas le fonctionnement. C’est finalement à ce niveau-là que s’effectue la transformation la plus problématique : en essayant de « rationaliser » un point précis de la chaîne pénale (ici, la décision judiciaire prise par les magistrats) via les algorithmes, on se retrouve face à un déplacement du pouvoir discrétionnaire vers des segments de l’institution qui sont finalement moins visibles que ceux que l’on essayait de réformer. C’est l’une des ironies de nombreux projets de réformes par les algorithmes, et c’est également pour cette raison qu’il est important de regarder de près ce que j’appelle les « algorithmes en pratiques ».
L’article complet: https://linc.cnil.fr/angele-christin-les-methodes-ethnographiques-nuancent-lidee-dune-justice-predictive-et-entierement
(merci Hans!)
A propos de l’auteure:
Angèle Christin est assistant professor au département de Communication et professeure affiliée au département de Sociologie et au programme en Sciences, Technologie et Société de l’Université Stanford ; et chercheure associée de l’institut Data & Society. Elle est également titulaire de la Chaire Sorbonne Université – IEA de Paris « Changements majeurs » au titre de l’année 2019-2020. Angèle Christin est l’une des spécialistes du champ des études algorithmiques aux Etats-Unis qu’elle étudie au travers d’une approche ethnographique pour analyser comment les algorithmes transforment les valeurs professionnelles, l’expertise et les pratiques de travail.
Pour aller plus loin :
- “Technologies of Crime Prediction: The Reception of Algorithms in Policing and Criminal Courts”, Social Problems, 1-17 (avec Sarah Brayne)
- “Algorithms in Practice: Comparing Web Journalism and Criminal Justice”, Big Data & Society, 4 (2): 1-14