公平さ

機械学習モデル(ML)を責任を持って評価するには、全体的な損失指標の計算以上の作業が必要です。モデルを本番環境に導入する前に、トレーニング データを監査し、予測のバイアスを評価することが重要です。

このモジュールでは、トレーニング データに現れる可能性のある人間のさまざまなバイアスについて説明します。次に、そうした問題を特定して軽減し、公平性を念頭に置いてモデルのパフォーマンスを評価する戦略を提供します。