トレーニング データでバイアスの原因が特定されたら、その影響を軽減するために事前に対策を講じることができます。機械学習(ML)エンジニアがバイアスを修復するために一般的に採用する戦略は、次の 2 つです。
- トレーニング データの拡張。
- モデルの損失関数を調整する。
トレーニング データの拡張
トレーニング データの監査で、データの欠落、不正確、偏りに関する問題が見つかった場合、問題に対処する最も簡単な方法は、追加のデータを収集することです。
ただし、トレーニング データを拡張することは理想的ですが、このアプローチの欠点は、利用可能なデータが不足している場合や、データ収集を妨げるリソース制約がある場合、実現できない可能性があることです。たとえば、より多くのデータを収集すると費用や時間がかかりすぎる場合や、法的/プライバシーに関する制限によって実現できない場合などがあります。
モデルの最適化関数の調整
追加のトレーニング データを収集できない場合は、モデルのトレーニング中に損失の計算方法を調整することで、バイアスを軽減する方法もあります。通常、ログ損失などの最適化関数を使用して、誤ったモデル予測をペナルティにします。ただし、ログロスではサブグループ メンバーシップは考慮されません。そのため、ログ損失を使用する代わりに、トレーニング データで特定された不均衡を打ち消すように、公平性を考慮した方法でエラーをペナルティにするため、最適化関数を選択できます。
TensorFlow Model Remediation Library には、モデルのトレーニング中に次の 2 種類のバイアス軽減手法を適用するためのユーティリティが用意されています。
MinDiff: MinDiff は、2 つのグループの予測分布の違いにペナルティを加えることにより、2 つの異なるデータスライス(男性/女性の生徒と非二元性生徒)のエラーをバランスよくすることを目的としています。
反事実的ロジット ペアリング: 反事実的ロジット ペアリング(CLP)は、特定の例の機密属性を変更しても、その例に対するモデルの予測が変更されないようにすることを目的としています。たとえば、トレーニング データセットに、特徴値が同じで、
gender
値がmale
の例とgender
値がnonbinary
の例が 2 つある場合、これらの 2 つの例の予測が異なると、CLP はペナルティを追加します。
最適化関数の調整に選択する手法は、モデルのユースケースによって異なります。次のセクションでは、これらのユースケースを検討し、モデルの公平性を評価するタスクに取り組む方法について詳しく説明します。