Revue de l'équité algorithmique

Sur les critères statistiques de l'équité

Auteurs

  • Maël Pégny ucl

DOI :

https://doi.org/10.20416/LSRSPS.V10I1.7

Mots-clés :

Intelligence Artificielle, Equité, Statistiques, Machine Learning, Algorithme

Résumé

Cet article présente un état de l'art critique du sous-champ de l'éthique de l'Intelligence Artificielle nommé "équité algorithmique". Il se concentre en particulier sur un objet récent, mais faisant objet d'une activité intense, à savoir les critières statistiques de l'équité algorithmique. Il s'agit de critères permettant de déterminer si un algorithme ou modèle prédictif de ML ne présente pas de biais défavorable à l'égard d'une population donnée en examinant les caractéristiques statistiques de son comportement entrées-sortie. Nous commençons par présenter les diverses définitions au centre des conversations récentes, ainsi qu'un résultat crucial d'impossibilité d'optimisation simultanée de toutes ces métriques, nommé "résultat d'incompatibilité." Nous discutons ensuite les leçons philosophiques à tirer de cette pluralité de définitions et du résultat d'incompatibilité. Nous finissons par une discussion critique portant sur les difficultés provenant de la représentation par des variables mathématiques de réalités sociales complexes comme l'appartenance identitaire à une population donnée, ou la caractérisation d'un discours comme discours de haine.

Références

Irwin Greenberg, « An analysis of the EEOCC “Four-Fifths” rule », Management Science 25, no 8 (1979): 762‑69.
Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor (Saint Martin’s Press, 2018).
Hoda Heidari et al., « A Moral Framework for Understanding Fair ML Through Economic Models of Equality of Opportunity », in Proceedings of the Conference on Fairness, Accountability, and Transparency, FAT* ’19 (New York, NY, USA: ACM, 2019), 181‑90, https://doi.org/10.1145/3287560.3287584.
Jon Kleinberg, Sendhil Mullainathan, et Manish Raghavan, « Inherent Trade-Offs in the Fair Determination of Risk Scores », in 8th Innovations in Theoretical Computer Science Conference (ITCS 2017), éd. par Christos H. Papadimitriou, vol. 67, Leibniz International Proceedings in Informatics (LIPIcs) (Dagstuhl, Germany: Schloss Dagstuhl–Leibniz-Zentrum fuer Informatik, 2017), 43:1-43:23, https://doi.org/10.4230/LIPIcs.ITCS.2017.43
Alexandra Chouldechova, « Fair prediction with disparate impact: A study of bias in recidivism prediction instruments », arXiv:1610.07524 [cs, stat], octobre 2016, http://arxiv.org/abs/1610.07524.
Brian Hedden, « On statistical criteria of algorithmic fairness », Philosophy and Public Affairs 49, no 2 (2021).
Ben Green, « Impossibility of What? Formal and Substantive Equality in Algorithmic Fairness », Formal and Substantive Equality in Algorithmic Fairness (July 9, 2021), 2021.
Karen Hao et Jonathan Stray, « Can You Make AI Fairer than a Judge? Play Our Courtroom Algorithm Game », MIT Technology Review, 17 octobre 2019.
Indrė Žliobaitė, « Measuring discrimination in algorithmic decision making », Data Mining and Knowledge Discovery 31, no 4 (2017): 1060‑89.
Ariana Tobin Julia Angwin, « Facebook (Still) Letting Housing Advertisers Exclude… », ProPublica, novembre 2017, https://www.propublica.org/article/facebook-advertising-discrimination-housing-race-sex-national-origin.

Téléchargements

Publiée

2023-12-15

Comment citer

Pégny, Maël. 2023. « Revue De l’équité Algorithmique: Sur Les critères Statistiques De l’équité ». Lato Sensu: Revue De La Société De Philosophie Des Sciences 10 (1):93-105. https://doi.org/10.20416/LSRSPS.V10I1.7.