Revue de l'équité algorithmique

Français

Authors

  • Maël Pégny ucl

DOI:

https://doi.org/10.20416/LSRSPS.V10I1.7

Keywords:

AI, Fairness, Statistics, Machine Learning, Algorithm

Abstract

Cet article présente un état de l'art critique du sous-champ de l'éthique de l'Intelligence Artificielle nommé "équité algorithmique". Il se concentre en particulier sur un objet récent, mais faisant objet d'une activité intense, à savoir les critières statistiques de l'équité algorithmique. Il s'agit de critères permettant de déterminer si un algorithme ou modèle prédictif de ML ne présente pas de biais défavorable à l'égard d'une population donnée en examinant les caractéristiques statistiques de son comportement entrées-sortie. Nous commençons par présenter les diverses définitions au centre des conversations récentes, ainsi qu'un résultat crucial d'impossibilité d'optimisation simultanée de toutes ces métriques, nommé "résultat d'incompatibilité." Nous discutons ensuite les leçons philosophiques à tirer de cette pluralité de définitions et du résultat d'incompatibilité. Nous finissons par une discussion critique portant sur les difficultés provenant de la représentation par des variables mathématiques de réalités sociales complexes comme l'appartenance identitaire à une population donnée, ou la caractérisation d'un discours comme discours de haine.

References

Irwin Greenberg, « An analysis of the EEOCC “Four-Fifths” rule », Management Science 25, no 8 (1979): 762‑69.
Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor (Saint Martin’s Press, 2018).
Hoda Heidari et al., « A Moral Framework for Understanding Fair ML Through Economic Models of Equality of Opportunity », in Proceedings of the Conference on Fairness, Accountability, and Transparency, FAT* ’19 (New York, NY, USA: ACM, 2019), 181‑90, https://doi.org/10.1145/3287560.3287584.
Jon Kleinberg, Sendhil Mullainathan, et Manish Raghavan, « Inherent Trade-Offs in the Fair Determination of Risk Scores », in 8th Innovations in Theoretical Computer Science Conference (ITCS 2017), éd. par Christos H. Papadimitriou, vol. 67, Leibniz International Proceedings in Informatics (LIPIcs) (Dagstuhl, Germany: Schloss Dagstuhl–Leibniz-Zentrum fuer Informatik, 2017), 43:1-43:23, https://doi.org/10.4230/LIPIcs.ITCS.2017.43
Alexandra Chouldechova, « Fair prediction with disparate impact: A study of bias in recidivism prediction instruments », arXiv:1610.07524 [cs, stat], octobre 2016, http://arxiv.org/abs/1610.07524.
Brian Hedden, « On statistical criteria of algorithmic fairness », Philosophy and Public Affairs 49, no 2 (2021).
Ben Green, « Impossibility of What? Formal and Substantive Equality in Algorithmic Fairness », Formal and Substantive Equality in Algorithmic Fairness (July 9, 2021), 2021.
Karen Hao et Jonathan Stray, « Can You Make AI Fairer than a Judge? Play Our Courtroom Algorithm Game », MIT Technology Review, 17 octobre 2019.
Indrė Žliobaitė, « Measuring discrimination in algorithmic decision making », Data Mining and Knowledge Discovery 31, no 4 (2017): 1060‑89.
Ariana Tobin Julia Angwin, « Facebook (Still) Letting Housing Advertisers Exclude… », ProPublica, novembre 2017, https://www.propublica.org/article/facebook-advertising-discrimination-housing-race-sex-national-origin.

Published

2023-12-15

How to Cite

Pégny, Maël. 2023. “Revue De l’équité Algorithmique: Français”. Lato Sensu: Revue De La Société De Philosophie Des Sciences 10 (1):93-105. https://doi.org/10.20416/LSRSPS.V10I1.7.