Revue de l'équité algorithmique
Sur les critères statistiques de l'équité
DOI :
https://doi.org/10.20416/LSRSPS.V10I1.7Mots-clés :
Intelligence Artificielle, Equité, Statistiques, Machine Learning, AlgorithmeRésumé
Cet article présente un état de l'art critique du sous-champ de l'éthique de l'Intelligence Artificielle nommé "équité algorithmique". Il se concentre en particulier sur un objet récent, mais faisant objet d'une activité intense, à savoir les critières statistiques de l'équité algorithmique. Il s'agit de critères permettant de déterminer si un algorithme ou modèle prédictif de ML ne présente pas de biais défavorable à l'égard d'une population donnée en examinant les caractéristiques statistiques de son comportement entrées-sortie. Nous commençons par présenter les diverses définitions au centre des conversations récentes, ainsi qu'un résultat crucial d'impossibilité d'optimisation simultanée de toutes ces métriques, nommé "résultat d'incompatibilité." Nous discutons ensuite les leçons philosophiques à tirer de cette pluralité de définitions et du résultat d'incompatibilité. Nous finissons par une discussion critique portant sur les difficultés provenant de la représentation par des variables mathématiques de réalités sociales complexes comme l'appartenance identitaire à une population donnée, ou la caractérisation d'un discours comme discours de haine.
Références
Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor (Saint Martin’s Press, 2018).
Hoda Heidari et al., « A Moral Framework for Understanding Fair ML Through Economic Models of Equality of Opportunity », in Proceedings of the Conference on Fairness, Accountability, and Transparency, FAT* ’19 (New York, NY, USA: ACM, 2019), 181‑90, https://doi.org/10.1145/3287560.3287584.
Jon Kleinberg, Sendhil Mullainathan, et Manish Raghavan, « Inherent Trade-Offs in the Fair Determination of Risk Scores », in 8th Innovations in Theoretical Computer Science Conference (ITCS 2017), éd. par Christos H. Papadimitriou, vol. 67, Leibniz International Proceedings in Informatics (LIPIcs) (Dagstuhl, Germany: Schloss Dagstuhl–Leibniz-Zentrum fuer Informatik, 2017), 43:1-43:23, https://doi.org/10.4230/LIPIcs.ITCS.2017.43
Alexandra Chouldechova, « Fair prediction with disparate impact: A study of bias in recidivism prediction instruments », arXiv:1610.07524 [cs, stat], octobre 2016, http://arxiv.org/abs/1610.07524.
Brian Hedden, « On statistical criteria of algorithmic fairness », Philosophy and Public Affairs 49, no 2 (2021).
Ben Green, « Impossibility of What? Formal and Substantive Equality in Algorithmic Fairness », Formal and Substantive Equality in Algorithmic Fairness (July 9, 2021), 2021.
Karen Hao et Jonathan Stray, « Can You Make AI Fairer than a Judge? Play Our Courtroom Algorithm Game », MIT Technology Review, 17 octobre 2019.
Indrė Žliobaitė, « Measuring discrimination in algorithmic decision making », Data Mining and Knowledge Discovery 31, no 4 (2017): 1060‑89.
Ariana Tobin Julia Angwin, « Facebook (Still) Letting Housing Advertisers Exclude… », ProPublica, novembre 2017, https://www.propublica.org/article/facebook-advertising-discrimination-housing-race-sex-national-origin.
Téléchargements
Publiée
Comment citer
Numéro
Rubrique
Licence
(c) Tous droits réservés Maël Pégny 2023
Ce travail est disponible sous licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International.
Les auteurs conservent le droit d'auteur et accordent à la revue le droit de première publication, l'ouvrage étant alors disponible simultanément, sous la licence Licence d’attribution Creative Commons permettant à d'autres de partager l'ouvrage tout en en reconnaissant la paternité et la publication initiale dans cette revue.