バイアスの原因になると 特定できたら、事前の対策を講じて、 軽減できます。機械学習(ML)には主に 2 つの戦略があります。 エンジニアが一般的に採用するバイアスの修復方法:
- トレーニング データの拡張。
- モデルの損失関数を調整する。
トレーニング データの拡張
トレーニング データの監査でデータの欠落、誤り、 データに偏りがある場合、その問題に対処する最も簡単な方法は、 追加データを収集できます
ただし、トレーニング データを拡張することは理想的ですが、 この方法が現実的でない場合もあります。 制約により、データの収集を妨げる場合があります。たとえば より多くのデータを収集するには、コストや時間がかかりすぎる、あるいは 法的/プライバシーに関する制限。
モデルの最適化関数の調整
追加のトレーニング データを収集することが不可能な場合は、 バイアスを軽減するアプローチは、モデルの使用過程で損失の計算方法を調整することです。 説明します。通常、次のような最適化関数を使用します。 ログ損失(誤ったモデルにペナルティをかける) 説明します。ただし、ログ損失によってサブグループ メンバーシップが 検討する必要がありますそのため、ログ損失を使用する代わりに、ログの 公平性に配慮した方法で、エラーにペナルティを課すよう トレーニング データで特定した不均衡を補います。
TensorFlow Model Remediation Library には、2 つのモデルを適用するためのユーティリティが いくつかのバイアス軽減手法があります。
MinDiff: MinDiff の目的は 2 つの異なるデータスライスの誤差のバランスを取ること (男子/女子の生徒とノンバイナリーの生徒の比較)にペナルティを 2 つのグループの予測分布の差です。
反事実的ロジット ペアリング: 反事実的ロジット ペアリング(CLP)は、 属性を使用しても、そのサンプルに対するモデルの予測は 例です。たとえば、トレーニング データセットに 2 つのサンプルがあり、 特徴値は同じですが、1 つは
gender
値がmale
で、 もう一方のgender
の値がnonbinary
で、次の場合にペナルティが追加されます。 これら 2 つの例の予測は異なります。
最適化関数を調整するために選択する手法は、以下のとおりです。 モデルのユースケースによって異なります。次のセクションでは モデルの公平性を評価するタスクへのアプローチ方法を詳しく知る 適切なオプションを選択することをおすすめします