Revue de l'équité algorithmique
Français
DOI:
https://doi.org/10.20416/LSRSPS.V10I1.7Keywords:
AI, Fairness, Statistics, Machine Learning, AlgorithmAbstract
Cet article présente un état de l'art critique du sous-champ de l'éthique de l'Intelligence Artificielle nommé "équité algorithmique". Il se concentre en particulier sur un objet récent, mais faisant objet d'une activité intense, à savoir les critières statistiques de l'équité algorithmique. Il s'agit de critères permettant de déterminer si un algorithme ou modèle prédictif de ML ne présente pas de biais défavorable à l'égard d'une population donnée en examinant les caractéristiques statistiques de son comportement entrées-sortie. Nous commençons par présenter les diverses définitions au centre des conversations récentes, ainsi qu'un résultat crucial d'impossibilité d'optimisation simultanée de toutes ces métriques, nommé "résultat d'incompatibilité." Nous discutons ensuite les leçons philosophiques à tirer de cette pluralité de définitions et du résultat d'incompatibilité. Nous finissons par une discussion critique portant sur les difficultés provenant de la représentation par des variables mathématiques de réalités sociales complexes comme l'appartenance identitaire à une population donnée, ou la caractérisation d'un discours comme discours de haine.
References
Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor (Saint Martin’s Press, 2018).
Hoda Heidari et al., « A Moral Framework for Understanding Fair ML Through Economic Models of Equality of Opportunity », in Proceedings of the Conference on Fairness, Accountability, and Transparency, FAT* ’19 (New York, NY, USA: ACM, 2019), 181‑90, https://doi.org/10.1145/3287560.3287584.
Jon Kleinberg, Sendhil Mullainathan, et Manish Raghavan, « Inherent Trade-Offs in the Fair Determination of Risk Scores », in 8th Innovations in Theoretical Computer Science Conference (ITCS 2017), éd. par Christos H. Papadimitriou, vol. 67, Leibniz International Proceedings in Informatics (LIPIcs) (Dagstuhl, Germany: Schloss Dagstuhl–Leibniz-Zentrum fuer Informatik, 2017), 43:1-43:23, https://doi.org/10.4230/LIPIcs.ITCS.2017.43
Alexandra Chouldechova, « Fair prediction with disparate impact: A study of bias in recidivism prediction instruments », arXiv:1610.07524 [cs, stat], octobre 2016, http://arxiv.org/abs/1610.07524.
Brian Hedden, « On statistical criteria of algorithmic fairness », Philosophy and Public Affairs 49, no 2 (2021).
Ben Green, « Impossibility of What? Formal and Substantive Equality in Algorithmic Fairness », Formal and Substantive Equality in Algorithmic Fairness (July 9, 2021), 2021.
Karen Hao et Jonathan Stray, « Can You Make AI Fairer than a Judge? Play Our Courtroom Algorithm Game », MIT Technology Review, 17 octobre 2019.
Indrė Žliobaitė, « Measuring discrimination in algorithmic decision making », Data Mining and Knowledge Discovery 31, no 4 (2017): 1060‑89.
Ariana Tobin Julia Angwin, « Facebook (Still) Letting Housing Advertisers Exclude… », ProPublica, novembre 2017, https://www.propublica.org/article/facebook-advertising-discrimination-housing-race-sex-national-origin.
Downloads
Published
How to Cite
Issue
Section
License
Copyright (c) 2023 Maël Pégny
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Authors retain copyright and grant the journal right of first publication with the work simultaneously licensed under a Creative Commons Attribution License that allows others to share the work with an acknowledgement of the work's authorship and initial publication in this journal.