Équité: atténuation des biais

Une fois qu'une source de biais a été identifié dans les données d'entraînement, nous pouvons prendre des mesures en atténuer les effets. Le machine learning (ML) repose sur deux stratégies principales les ingénieurs utilisent généralement pour corriger les biais:

  • Augmenter les données d'entraînement
  • Ajuster la fonction de perte du modèle

Augmenter les données d'entraînement

Si un audit des données d'entraînement a révélé des problèmes de ou des données biaisées, le moyen le plus simple de résoudre le problème est souvent pour collecter des données supplémentaires.

Toutefois, si l'augmentation des données d'entraînement peut être idéale, l'inconvénient cette approche est qu'elle peut aussi être impossible, soit en raison d'un manque les contraintes de données disponibles ou de ressources qui entravent la collecte des données. Par exemple, la collecte de plus de données peut s'avérer trop coûteuse, chronophage ou non viable en raison des restrictions légales/de confidentialité.

Ajuster la fonction d'optimisation du modèle

Si la collecte de données d'entraînement supplémentaires n'est pas viable, une autre l'approche consistant à ajuster le mode de calcul de la perte pendant de machine learning. Nous utilisons généralement une fonction d'optimisation telle que perte logistique pour pénaliser le modèle incorrect ; des prédictions. Cependant, la perte logistique ne prend pas l'appartenance à un sous-groupe dans la considération. Au lieu d'utiliser la perte logistique, nous pouvons choisir conçue pour pénaliser les erreurs en respectant l'équité, compense les déséquilibres identifiés dans nos données d'entraînement.

La bibliothèque TensorFlow Model Remediation fournit des utilitaires permettant d'appliquer deux techniques d'atténuation des biais lors de l'entraînement du modèle:

  • MinDiff: MinDiff vise à équilibrer les erreurs pour deux tranches de données différentes. (étudiants masculins et féminins vs élèves non binaires) en ajoutant une pénalité pour des différences entre les distributions de prédictions pour les deux groupes.

  • Association de fonctions logit contrefactuelles: La technique CLP (Counterfactual Logit Pairing) vise à garantir que la modification d'un d'un exemple donné ne modifie pas la prédiction du modèle à titre d'exemple. Par exemple, si un ensemble de données d'entraînement contient deux exemples dont les valeurs des caractéristiques sont identiques, sauf que l'une d'elles est associée à la valeur gender male et l'autre a une valeur gender de nonbinary, le CLP ajoute une pénalité si les prédictions de ces deux exemples sont différentes.

Les techniques que vous choisissez pour ajuster la fonction d'optimisation sont en fonction des cas d'utilisation du modèle. Dans la section suivante, examiner de plus près comment aborder la tâche d'évaluation de l'équité d'un modèle en considérant ces cas d'utilisation.

Exercice: tester vos connaissances

Lesquelles de ces affirmations concernant les techniques d'atténuation des biais sont vraies ?
MinDiff et CLP pénalisent tous deux les écarts de performances du modèle liées à des attributs sensibles
Ces deux techniques visent à réduire les biais en pénalisant les prédictions des erreurs résultant de déséquilibres dans la manière dont les attributs sensibles sont représentées dans les données d'entraînement.
MinDiff pénalise les différences dans la distribution globale des des prédictions pour différentes tranches de données, tandis que le CLP pénalise des écarts dans les prédictions pour des paires d'exemples individuelles.
MinDiff résout les biais en alignant la distribution des scores pour deux sous-groupes. Le CLP s'attaque aux préjugés en s'assurant que les exemples individuels sont pas traités différemment uniquement en raison de leur appartenance à un sous-groupe.
Ajouter d'autres exemples à l'ensemble de données d'entraînement sera toujours utile pour neutraliser les biais dans les prédictions d'un modèle.
L'ajout d'autres exemples d'entraînement est une stratégie efficace des biais, mais la composition des nouvelles données d'entraînement ce qui est important. Si les autres exemples d'entraînement des déséquilibres par rapport aux données d'origine, elles ne contribueront probablement pas à atténuer les biais existants.
Si vous réduisez les biais en ajoutant des données d'entraînement, ne doit pas non plus appliquer MinDiff ou CLP pendant l'entraînement.
Améliorer les données d'entraînement et appliquer des techniques telles que MinDiff ou CLP peuvent être complémentaires. Par exemple, un ingénieur en ML peut de collecter suffisamment de données d'entraînement supplémentaires afin de réduire les écarts de 30%, puis utilisez MinDiff pour réduire davantage un écart supplémentaire de 50%.