Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Évaluer un modèle de machine learning (ML) de manière responsable ne se limite pas à calculer les métriques de perte globales. Avant de mettre un modèle en production, il est essentiel d'auditer les données d'entraînement et d'évaluer les prédictions pour détecter les biais.
Ce module examine différents types de biais humains pouvant se manifester dans les données d'entraînement. Il fournit ensuite des stratégies pour les identifier et les atténuer, puis évalue les performances du modèle en gardant à l'esprit l'équité.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/07/27 (UTC).
[null,null,["Dernière mise à jour le 2025/07/27 (UTC)."],[],[],null,[]]