Une fois qu'une source de biais a été identifiée dans les données d'entraînement, nous pouvons prendre des mesures proactives pour atténuer ses effets. Les ingénieurs en machine learning (ML) utilisent généralement deux stratégies principales pour corriger les biais:
- Augmenter les données d'entraînement.
- Ajustement de la fonction de perte du modèle.
Augmenter les données d'entraînement
Si un audit des données d'entraînement a révélé des problèmes de données manquantes, incorrectes ou biaisées, le moyen le plus simple de résoudre le problème consiste souvent à collecter des données supplémentaires.
Toutefois, bien que l'augmentation des données d'entraînement puisse être idéale, l'inconvénient de cette approche est qu'elle peut également être irréalisable, soit en raison d'un manque de données disponibles, soit en raison de contraintes de ressources qui entravent la collecte de données. Par exemple, la collecte de données supplémentaires peut être trop coûteuse ou chronophage, ou non viable en raison de restrictions légales ou de confidentialité.
Ajuster la fonction d'optimisation du modèle
Lorsque la collecte de données d'entraînement supplémentaires n'est pas viable, une autre approche pour atténuer les biais consiste à ajuster la façon dont la perte est calculée lors de l'entraînement du modèle. Nous utilisons généralement une fonction d'optimisation comme la perte logistique pour pénaliser les prédictions incorrectes du modèle. Toutefois, la perte de journaux ne tient pas compte de l'appartenance au sous-groupe. Ainsi, au lieu d'utiliser la perte de log, nous pouvons choisir une fonction d'optimisation conçue pour pénaliser les erreurs de manière équitable, ce qui contrecarre les déséquilibres que nous avons identifiés dans nos données d'entraînement.
La bibliothèque TensorFlow Model Remediation fournit des utilitaires permettant d'appliquer deux techniques différentes d'atténuation des biais lors de l'entraînement du modèle:
MinDiff : MinDiff vise à équilibrer les erreurs pour deux tranches de données différentes (étudiants masculins/féminins par rapport aux étudiants non binaires) en ajoutant une pénalité pour les différences dans les distributions de prédiction pour les deux groupes.
Pairing Logit contrefactuel : le pairing Logit contrefactuel (CLP, Counterfactual Logit Pairing) vise à s'assurer que la modification d'un attribut sensible d'un exemple donné n'altère pas la prédiction du modèle pour cet exemple. Par exemple, si un ensemble de données d'entraînement contient deux exemples dont les valeurs de caractéristique sont identiques, sauf que l'un a une valeur
gender
demale
et l'autre une valeurgender
denonbinary
, CLP ajoute une pénalité si les prédictions pour ces deux exemples sont différentes.
Les techniques que vous choisissez pour ajuster la fonction d'optimisation dépendent des cas d'utilisation du modèle. Dans la section suivante, nous allons examiner de plus près comment aborder la tâche d'évaluation de l'équité d'un modèle en tenant compte de ces cas d'utilisation.