Équité
L'équité vise à éviter les résultats disparates que les utilisateurs finaux peuvent rencontrer en lien avec des caractéristiques sensibles telles que l'origine ethnique, les revenus, l'orientation sexuelle ou le genre, par le biais d'une prise de décision algorithmique. Par exemple, un algorithme de recrutement peut-il présenter des biais en faveur ou à l'encontre des candidats dont le nom est associé à un genre ou une origine ethnique particuliers ?
Découvrez comment les systèmes de machine learning peuvent être sujets aux biais humains dans cette vidéo:
Pour un exemple concret, découvrez comment des produits tels que la recherche Google et Google Photos ont amélioré la diversité de la représentation des différents types de peau grâce à l'Échelle MST (Monk Skin Tone).
Il existe des méthodes fiables pour identifier, mesurer et atténuer les biais dans les modèles. Le module sur l'équité du cours d'initiation au machine learning fournit un aperçu approfondi des techniques d'équité et d'atténuation des biais.
People + AI Research (PAIR) propose des explorables interactifs sur l'évaluation de l'équité et les biais cachés pour expliquer ces concepts. Pour en savoir plus sur les termes liés à l'équité du ML, consultez le Glossaire du machine learning : équité | Google pour les développeurs.