Évaluer un modèle de machine learning (ML) de manière responsable ne se limite pas à calculer les métriques de perte globales. Avant de mettre un modèle en production, il est essentiel d'auditer les données d'entraînement et d'évaluer les prédictions pour détecter les biais.
Ce module examine différents types de biais humains pouvant se manifester dans les données d'entraînement. Il fournit ensuite des stratégies pour les identifier et les atténuer, puis évalue les performances du modèle en gardant à l'esprit l'équité.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/01/03 (UTC).
[null,null,["Dernière mise à jour le 2025/01/03 (UTC)."],[[["This module focuses on identifying and mitigating human biases that can negatively impact machine learning models."],["You'll learn how to proactively examine data for potential bias before model training and how to evaluate your model's predictions for fairness."],["The module explores various types of human biases that can unintentionally be replicated by machine learning algorithms, emphasizing responsible AI development."],["It builds upon foundational machine learning knowledge, including linear and logistic regression, classification, and handling numerical and categorical data."]]],[]]