Équité
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
L'équité aborde les disparités de résultats possibles que les utilisateurs finaux peuvent rencontrer en lien avec des caractéristiques sensibles, telles que l'origine ethnique, les revenus, l'orientation sexuelle ou le genre, par le biais de la prise de décision algorithmique. Par exemple, un algorithme de recrutement peut-il présenter des biais pour ou contre les candidats dont le nom est associé à un genre ou une origine ethnique spécifiques ?
Pour en savoir plus sur la façon dont les systèmes de machine learning peuvent être sensibles aux biais humains, regardez cette vidéo :
Pour un exemple concret, découvrez comment des produits tels que la recherche Google et Google Photos ont amélioré la diversité de la représentation des carnations grâce à l'échelle Monk Skin Tone.
Il existe des méthodes fiables pour identifier, mesurer et atténuer les biais dans les modèles. Le module Équité du Cours d'initiation au machine learning présente en détail les techniques d'équité et d'atténuation des biais.
People + AI Research (PAIR) propose des explorables interactifs sur l'IA pour expliquer les concepts de mesure de l'équité et de biais cachés.
Pour en savoir plus sur les termes liés à l'équité dans le ML, consultez Glossaire du machine learning : équité | Google for Developers.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/27 (UTC).
[null,null,["Dernière mise à jour le 2025/07/27 (UTC)."],[[["\u003cp\u003eFairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions.\u003c/p\u003e\n"],["\u003cp\u003eMachine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation.\u003c/p\u003e\n"],["\u003cp\u003eGoogle has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity.\u003c/p\u003e\n"],["\u003cp\u003eDevelopers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR).\u003c/p\u003e\n"]]],[],null,["# Fairness\n\n\u003cbr /\u003e\n\n**Fairness** addresses the possible disparate outcomes end users may experience\nrelated to sensitive characteristics such as race, income, sexual orientation,\nor gender through algorithmic decision-making. For example, might a hiring\nalgorithm have biases for or against applicants with names associated with a\nparticular gender or ethnicity?\n\nLearn more about how machine learning systems might be susceptible to human bias\nin this video: \n\n\u003cbr /\u003e\n\nFor a real world example, read about how products such as Google Search and\nGoogle Photos improved diversity of skin tone representation through the\n[Monk Skin Tone Scale](https://blog.google/products/search/monk-skin-tone-scale/).\n\nThere are reliable methods of identifying, measuring, and mitigating bias in models. The [Fairness](/machine-learning/crash-course/fairness)\nmodule of [Machine Learning Crash Course](https://developers.google.com/machine-learning/crash-course)\nprovides an in-depth look at fairness and bias mitigation techniques.\n\n[People + AI Research](https://pair.withgoogle.com/) (PAIR) offers interactive\nAI Explorables on [Measuring Fairness](https://pair.withgoogle.com/explorables/measuring-fairness/)\nand [Hidden Bias](https://pair.withgoogle.com/explorables/hidden-bias/) to walk\nthrough these concepts.\nFor more terms related to ML Fairness, see [Machine Learning Glossary:\nFairness \\| Google for Developers](https://developers.google.com/machine-learning/glossary/fairness)."]]