Équité: atténuation des biais

Une fois qu'une source de biais a été identifiée dans les données d'entraînement, nous pouvons prendre des mesures proactives pour atténuer ses effets. Les ingénieurs en machine learning (ML) utilisent généralement deux stratégies principales pour corriger les biais:

  • Augmenter les données d'entraînement.
  • Ajustement de la fonction de perte du modèle.

Augmenter les données d'entraînement

Si un audit des données d'entraînement a révélé des problèmes de données manquantes, incorrectes ou biaisées, le moyen le plus simple de résoudre le problème consiste souvent à collecter des données supplémentaires.

Toutefois, bien que l'augmentation des données d'entraînement puisse être idéale, l'inconvénient de cette approche est qu'elle peut également être irréalisable, soit en raison d'un manque de données disponibles, soit en raison de contraintes de ressources qui entravent la collecte de données. Par exemple, la collecte de données supplémentaires peut être trop coûteuse ou chronophage, ou non viable en raison de restrictions légales ou de confidentialité.

Ajuster la fonction d'optimisation du modèle

Lorsque la collecte de données d'entraînement supplémentaires n'est pas viable, une autre approche pour atténuer les biais consiste à ajuster la façon dont la perte est calculée lors de l'entraînement du modèle. Nous utilisons généralement une fonction d'optimisation comme la perte logistique pour pénaliser les prédictions incorrectes du modèle. Toutefois, la perte de journaux ne tient pas compte de l'appartenance au sous-groupe. Ainsi, au lieu d'utiliser la perte de log, nous pouvons choisir une fonction d'optimisation conçue pour pénaliser les erreurs de manière équitable, ce qui contrecarre les déséquilibres que nous avons identifiés dans nos données d'entraînement.

La bibliothèque TensorFlow Model Remediation fournit des utilitaires permettant d'appliquer deux techniques différentes d'atténuation des biais lors de l'entraînement du modèle:

  • MinDiff : MinDiff vise à équilibrer les erreurs pour deux tranches de données différentes (étudiants masculins/féminins par rapport aux étudiants non binaires) en ajoutant une pénalité pour les différences dans les distributions de prédiction pour les deux groupes.

  • Pairing Logit contrefactuel : le pairing Logit contrefactuel (CLP, Counterfactual Logit Pairing) vise à s'assurer que la modification d'un attribut sensible d'un exemple donné n'altère pas la prédiction du modèle pour cet exemple. Par exemple, si un ensemble de données d'entraînement contient deux exemples dont les valeurs de caractéristique sont identiques, sauf que l'un a une valeur gender de male et l'autre une valeur gender de nonbinary, CLP ajoute une pénalité si les prédictions pour ces deux exemples sont différentes.

Les techniques que vous choisissez pour ajuster la fonction d'optimisation dépendent des cas d'utilisation du modèle. Dans la section suivante, nous allons examiner de plus près comment aborder la tâche d'évaluation de l'équité d'un modèle en tenant compte de ces cas d'utilisation.

Exercice : Vérifiez votre compréhension

Parmi les affirmations suivantes concernant les techniques d'atténuation des biais, lesquelles sont vraies ?
MinDiff et CLP pénalisent les écarts de performances du modèle liés aux attributs sensibles
Les deux techniques visent à atténuer les biais en pénalisant les erreurs de prédiction résultant des déséquilibres dans la représentation des attributs sensibles dans les données d'entraînement.
MinDiff pénalise les différences dans la distribution globale des prédictions pour différents segments de données, tandis que CLP pénalise les écarts dans les prédictions pour des paires d'exemples individuelles.
MinDiff résout les biais en alignant les distributions de scores pour deux sous-groupes. Le CLP s'attaque aux biais en s'assurant que des exemples individuels ne sont pas traités différemment uniquement en raison de leur appartenance à un sous-groupe.
L'ajout d'autres exemples à l'ensemble de données d'entraînement permet toujours de contrebalancer les biais dans les prédictions d'un modèle.
L'ajout d'autres exemples d'entraînement est une stratégie efficace pour réduire les biais, mais la composition des nouvelles données d'entraînement est importante. Si les autres exemples d'entraînement présentent des déséquilibres similaires avec les données d'origine, ils ne contribueront probablement pas à atténuer le biais existant.
Si vous réduisez les biais en ajoutant des données d'entraînement, vous ne devez pas également appliquer MinDiff ou CLP pendant l'entraînement.
L'augmentation des données d'entraînement et l'application de techniques telles que MinDiff ou CLP peuvent être complémentaires. Par exemple, un ingénieur en ML peut être en mesure de collecter suffisamment de données d'entraînement supplémentaires pour réduire une divergence de performances de 30%, puis d'utiliser MinDiff pour réduire encore cette divergence de 50%.