ML は、プラスにもマイナスにも、多くの有意義な方法で社会を変革する可能性があります。モデルと、そのモデルが組み込まれているシステムの倫理的な影響を考慮することが重要です。
ML プロジェクトは社会に有益である必要があります。 有害な影響を与えたり、不正使用につながったりするような機能は使用できません。 バイアスや偏見を助長、強化、悪化させるものであってはなりません。個人データを無責任に収集または使用してはなりません。Google の AI に関する原則
Google は、AI に関する原則に準拠した ML アプリケーションと AI アプリケーションの開発を推奨しています。Google の原則は、次のコンセプトを重視しています。
- 公平さ
- プライバシー
- 透明性
- 安全性
公平さ
不公平なバイアスの発生、助長を防ぐ。トレーニング データに次のいずれかの特性がある場合、モデルはバイアスを示します。
ユーザーの実際の人口を反映していない。
偏見のある決定や結果を保持する(刑事司法の決定、たとえば収監期間など)。
特定のユーザー グループに対して予測力がより高い特徴を使用します。
上記の例は、モデルがバイアスを受ける方法のほんの一部です。データに潜在するバイアスを特定して解決するには、データを徹底的に理解することが重要です。公平なモデルを開発する最初のステップは、トレーニング データがユーザーの分布を正確に反映していることを確認することです。公平なモデルを作成するためのその他の方法は次のとおりです。
評価データセット内の過小評価グループや、他のグループと比較してモデルの品質が低下する可能性があるグループを特定します。トレーニング データ内でのユーザーの存在感を高めるには、ユーザーのサブグループをオーバーサンプリングする必要があります。
ゴールデン データセット(ベンチマーク データセットとも呼ばれます)を使用して、公平性の問題に対してモデルを検証し、暗黙的なバイアスを検出します。
性別や人種など、機密性の高い特徴をデータセットに含めないでください。
特に、トレーニング済みモデルがヘルスケア、金融、教育、雇用などの分野で影響力の大きいタスクの実行に使用されるセンシティブなコンテキストでは、経験的または説明力が低い特徴を含めないでください。たとえば、住宅ローンの承認モデルでは、トレーニング データに名前を含めないでください。応募者の氏名は予測タスクとは無関係であるだけでなく、このような無関係な特徴をデータセットに残すと、暗黙的な偏見や配分上の害が生じる可能性があります。たとえば、男性の名前と返済の確率が高いことを関連付けたり、その逆を関連付けたりします。
モデルの予測が特定のグループに及ぼす可能性のある悪影響を測定し、デリケートなコンテキストで悪影響が見つかった場合は、意図的なバイアス修正手法を検討します。
プライバシー
プライバシー デザイン原則を最初から組み込む。
以下は、認識し、遵守すべきプライバシー関連の法律とポリシーです。
欧州連合のデジタル市場法(DMA): 個人データの共有または使用に関する同意。
欧州連合の GDPR 法。
また、データセットから個人情報(PII)をすべて削除し、モデルとデータ リポジトリが適切な権限(世界読み取り可能ではないなど)で設定されていることを確認してください。
透明性
人々に責任を持って説明する。たとえば、モデルの機能、その機能の実行方法、その機能の実行理由を他のユーザーが簡単に理解できるようにします。 モデルカード モデルをドキュメント化し、透明性アーティファクトを作成するテンプレートを提供します。
安全性
敵対的な状況で安全に動作するようにモデルを設計します。たとえば、潜在的な敵対的な入力でモデルをテストして、モデルが安全であることを確認します。また、潜在的な障害条件がないかどうかを確認します。通常、チームは特別に設計されたデータセットを使用して、過去にモデルの失敗の原因となった入力や条件でモデルをテストします。
理解度を確認する
モデルが動作する幅広い社会的コンテキストを常に考慮してください。機密データの取り扱いがプライバシーの問題に違反していないか、偏見を助長していないか、他の人の知的財産権を侵害していないかを確認してください。