Équité

Pour évaluer de façon responsable un modèle de machine learning (ML), il faut faire plus que de calculer les métriques de perte globales. Avant de mettre un modèle en production, il est essentiel d'auditer les données d'entraînement et d'évaluer les prédictions biais.

Ce module examine différents types de biais humains pouvant se manifester données d'entraînement. Il propose ensuite des stratégies pour les identifier et les atténuer, puis d'évaluer les performances du modèle en gardant à l'esprit l'équité.