Une fois qu'une source de biais a été identifié dans les données d'entraînement, nous pouvons prendre des mesures en atténuer les effets. Le machine learning (ML) repose sur deux stratégies principales les ingénieurs utilisent généralement pour corriger les biais:
- Augmenter les données d'entraînement
- Ajuster la fonction de perte du modèle
Augmenter les données d'entraînement
Si un audit des données d'entraînement a révélé des problèmes de ou des données biaisées, le moyen le plus simple de résoudre le problème est souvent pour collecter des données supplémentaires.
Toutefois, si l'augmentation des données d'entraînement peut être idéale, l'inconvénient cette approche est qu'elle peut aussi être impossible, soit en raison d'un manque les contraintes de données disponibles ou de ressources qui entravent la collecte des données. Par exemple, la collecte de plus de données peut s'avérer trop coûteuse, chronophage ou non viable en raison des restrictions légales/de confidentialité.
Ajuster la fonction d'optimisation du modèle
Si la collecte de données d'entraînement supplémentaires n'est pas viable, une autre l'approche consistant à ajuster le mode de calcul de la perte pendant de machine learning. Nous utilisons généralement une fonction d'optimisation telle que perte logistique pour pénaliser le modèle incorrect ; des prédictions. Cependant, la perte logistique ne prend pas l'appartenance à un sous-groupe dans la considération. Au lieu d'utiliser la perte logistique, nous pouvons choisir conçue pour pénaliser les erreurs en respectant l'équité, compense les déséquilibres identifiés dans nos données d'entraînement.
La bibliothèque TensorFlow Model Remediation fournit des utilitaires permettant d'appliquer deux techniques d'atténuation des biais lors de l'entraînement du modèle:
MinDiff: MinDiff vise à équilibrer les erreurs pour deux tranches de données différentes. (étudiants masculins et féminins vs élèves non binaires) en ajoutant une pénalité pour des différences entre les distributions de prédictions pour les deux groupes.
Association de fonctions logit contrefactuelles: La technique CLP (Counterfactual Logit Pairing) vise à garantir que la modification d'un d'un exemple donné ne modifie pas la prédiction du modèle à titre d'exemple. Par exemple, si un ensemble de données d'entraînement contient deux exemples dont les valeurs des caractéristiques sont identiques, sauf que l'une d'elles est associée à la valeur
gender
male
et l'autre a une valeurgender
denonbinary
, le CLP ajoute une pénalité si les prédictions de ces deux exemples sont différentes.
Les techniques que vous choisissez pour ajuster la fonction d'optimisation sont en fonction des cas d'utilisation du modèle. Dans la section suivante, examiner de plus près comment aborder la tâche d'évaluation de l'équité d'un modèle en considérant ces cas d'utilisation.