Équité

Évaluer un modèle de machine learning (ML) de manière responsable ne se limite pas à calculer les métriques de perte globales. Avant de mettre un modèle en production, il est essentiel d'auditer les données d'entraînement et d'évaluer les prédictions pour détecter les biais.

Ce module examine différents types de biais humains pouvant se manifester dans les données d'entraînement. Il fournit ensuite des stratégies pour les identifier et les atténuer, puis évalue les performances du modèle en gardant à l'esprit l'équité.