公平性: バイアスの軽減
トレーニング データでバイアスの原因が特定されたら、その影響を軽減するために事前に対策を講じることができます。機械学習(ML)エンジニアがバイアスを修復するために一般的に採用する戦略は、次の 2 つです。
- トレーニング データの拡張。
- モデルの損失関数を調整する。
トレーニング データの拡張
トレーニング データの監査で、データの欠落、不正確、偏りに関する問題が見つかった場合、問題に対処する最も簡単な方法は、追加のデータを収集することです。
ただし、トレーニング データを拡張することは理想的ですが、このアプローチの欠点は、利用可能なデータが不足している場合や、データ収集を妨げるリソース制約がある場合、実現できない可能性があることです。たとえば、より多くのデータを収集すると費用や時間がかかりすぎる場合や、法的/プライバシーに関する制限によって実現できない場合などがあります。
モデルの最適化関数の調整
追加のトレーニング データを収集できない場合は、モデルのトレーニング中に損失の計算方法を調整することで、バイアスを軽減する方法もあります。通常、ログ損失などの最適化関数を使用して、誤ったモデル予測をペナルティにします。ただし、ログロスではサブグループ メンバーシップは考慮されません。そのため、ログ損失を使用する代わりに、トレーニング データで特定された不均衡を打ち消すように、公平性を考慮した方法でエラーをペナルティにするため、最適化関数を選択できます。
TensorFlow Model Remediation Library には、モデルのトレーニング中に次の 2 種類のバイアス軽減手法を適用するためのユーティリティが用意されています。
MinDiff: MinDiff は、2 つのグループの予測分布の違いにペナルティを加えることにより、2 つの異なるデータスライス(男性/女性の生徒と非二元性生徒)のエラーをバランスよくすることを目的としています。
反事実的ロジット ペアリング: 反事実的ロジット ペアリング(CLP)は、特定の例の機密属性を変更しても、その例に対するモデルの予測が変更されないようにすることを目的としています。たとえば、トレーニング データセットに、特徴値が同じで、gender
値が male
の例と gender
値が nonbinary
の例が 2 つある場合、これらの 2 つの例の予測が異なると、CLP はペナルティを追加します。
最適化関数の調整に選択する手法は、モデルのユースケースによって異なります。次のセクションでは、これらのユースケースを検討し、モデルの公平性を評価するタスクに取り組む方法について詳しく説明します。
演習: 理解度を確認する
バイアス軽減手法に関する以下の説明のうち、正しいものはどれですか。
MinDiff と CLP の両方で、機密性の高い属性に関連するモデルのパフォーマンスの差異がペナルティの対象になります。
どちらの手法も、トレーニング データで機密属性がどのように表現されているかにおける不均衡から生じる予測エラーをペナルティ化して、バイアスを軽減することを目的としています。
MinDiff は、データの異なるスライスに対する予測の全体的な分布の違いに対してペナルティを課します。一方、CLP は、個々のサンプルペアの予測の不一致に対してペナルティを課します。
MinDiff は、2 つのサブグループのスコア分布を調整することでバイアスに対処します。CLP は、個々のサンプルがサブグループのメンバーシップのみを理由に異なる扱いを受けないようにすることで、バイアスに対処します。
トレーニング データセットに例を追加すると、モデルの予測のバイアスに対抗できます。
トレーニング例を追加することは、バイアスを軽減するための効果的な戦略ですが、新しいトレーニング データの構成が重要になります。追加のトレーニング例に元のデータと同様の不均衡が見られる場合、既存のバイアス軽減に役立つ可能性は低くなります。
トレーニング データを追加してバイアスを軽減する場合は、トレーニング中に MinDiff または CLP も適用しないでください。
トレーニング データの拡張と、MinDiff や CLP などの手法の適用は補完的です。たとえば、ML エンジニアは、十分な追加トレーニング データを収集してパフォーマンスの差異を 30% 削減し、MinDiff を使用して差異をさらに 50% 削減できる場合があります。
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2024-11-10 UTC。
[null,null,["最終更新日 2024-11-10 UTC。"],[[["Machine learning engineers use two primary strategies to mitigate bias in models: augmenting training data and adjusting the model's loss function."],["Augmenting training data involves collecting additional data to address missing, incorrect, or skewed data, but it can be infeasible due to data availability or resource constraints."],["Adjusting the model's loss function involves using fairness-aware optimization functions like MinDiff or Counterfactual Logit Pairing to penalize errors based on sensitive attributes and counteract imbalances in training data."],["MinDiff aims to balance errors between different data slices by penalizing differences in prediction distributions, while Counterfactual Logit Pairing penalizes discrepancies in predictions for similar examples with different sensitive attribute values."],["Choosing the right bias-mitigation technique depends on the specific use case of the model, and augmenting training data and adjusting the loss function can be used in conjunction for optimal bias reduction."]]],[]]