ML 用語集: 公平性

このページでは、公平性に関する用語集について説明します。用語集のすべての用語については、こちらをクリックしてください。

A

属性

#fairness

feature と同義です。

ML の公平性においては、多くの場合、属性は個人に関連する特性を指します。

自動化バイアス

#fairness

人間の意思決定者が、自動化なしで行われた情報よりも自動意思決定システムによる推奨事項を優先する場合(自動意思決定システムがエラーを起こした場合でも)。

B

バイアス(倫理/公平性)

#fairness
#fundamentals

1. 特定のこと、人、グループに対する固定観念、偏見、えこひいき。これらのバイアスは、データの収集と解釈、システムの設計、ユーザーとシステムとのやり取りに影響を与える可能性があります。このタイプのバイアスには次のような形式があります。

2. サンプリングまたは報告の手順で生じる体系的エラー。このタイプのバイアスには次のような形式があります。

ML モデルのバイアス項予測バイアスと混同しないでください。

C

確証バイアス

#fairness

既存の信念や仮説を裏付ける方法で、情報を検索、解釈、支持、想起する傾向。ML デベロッパーは、自分の思い込みを裏付ける結果に影響を与える方法で、データを誤って収集したりラベル付けしたりする可能性があります。確認バイアスは、暗黙的なバイアスの一種です。

テスト担当者のバイアスは確認バイアスの一形態であり、既存の仮説が確認されるまでテスト担当者がモデルのトレーニングを継続します。

反事実的公平性

#fairness

公平性指標。分類器がある個人に対して、最初の個人と同一の別の個人と同じ結果を生成するかどうかをチェックします。ただし、1 つ以上の機密属性に関する点は除きます。反事実的公平性に関する分類器の評価は、モデル内の潜在的なバイアスの原因を明らかにする方法の一つです。

反事実の公平性について詳しくは、「When Worlds Collide: Integrating Different Counterfactual Assumptions in Fairness」を参照してください。

カバレッジ バイアス

#fairness

選択バイアスをご覧ください。

D

ユーザー属性の同等性

#fairness

公平性指標。モデルの分類結果が特定の機密属性に依存しない場合に満たされます。

たとえば、リリプット派とブロブディンギャン人の両方がグルッブドゥブドリブ大学に申請した場合、リリプット派の入学者の割合がブラブディンギャ人と入学した人の割合が同じであれば、一方のグループが他方よりも平均的に有資格であるかどうかにかかわらず、人口統計学の同等性が達成されます。

等化オッズ機会の平等とは対照的に、分類結果は集計として機密属性に依存できますが、特定の特定の正解ラベルの分類結果が機密属性に依存することはできません。人口統計の同等性を重視して最適化する際のトレードオフについて可視化した可視化については、「よりスマートな機械学習による差別への対処」をご覧ください。

異種の影響

#fairness

さまざまな集団のサブグループに偏りなく影響を与える人について 意思決定を行うことですこれは通常、アルゴリズムによる意思決定プロセスが、一部のサブグループに他のグループよりも害やメリットをもたらす状況を指します。

たとえば、リリプティアンの小型住宅ローンの適格性を判断するアルゴリズムで、リリプティアンの送付先住所に特定の郵便番号が含まれている場合に、リリプティアンが「不適格」に分類される可能性が高いとします。ビッグエンディアン リリプティアンがリトルエンディアン リリプティアンよりもこの郵便番号の郵送先住所を持つ可能性が高い場合、このアルゴリズムは異なる影響を及ぼす可能性があります。

「ばらばらな扱い」とは対照的に、サブグループの特性がアルゴリズムによる意思決定プロセスへの明示的な入力である場合に生じる格差に焦点を当てます。

異種の扱い

#fairness

被写体のデリケートな属性をアルゴリズムによる意思決定プロセスに組み込み、ユーザーのサブグループが異なって扱われるようにする。

たとえば、ミニチュア住宅ローンの利用資格を、ローン申請で提供されたデータに基づいて決定するアルゴリズムについて考えてみましょう。アルゴリズムで、ビッグ エンディアンまたはリトル エンディアンを入力としてリリプティアンのアフィリエーションを使用する場合、その次元に沿って異なる処理が行われます。

これとは対照的に、異なる影響は、サブグループがモデルへの入力であるかどうかに関係なく、サブグループに対するアルゴリズムによる決定が社会的に及ぼす影響の格差に焦点を当てています。

E

機会の平等

#fairness

公平性指標。モデルが機密属性のすべての値に対して望ましい結果を同等に予測しているかどうかを評価します。つまり、モデルの望ましい結果が陽性クラスである場合、真陽性率がすべてのグループで同じになるようにすることが目標となります。

機会の平等は確率の平等に関係しており、真陽性率と偽陽性率の両方がすべてのグループで同一である必要があります。

グルブドゥブドリブ大学がリリプット派とブロブディンナギャンスの両方を厳格な数学プログラムに入学させたとします。リリプティアンの中等学校では、数学のクラスを備えた充実したカリキュラムがあり、大多数の学生は大学プログラムの対象となっています。Brobdingnagians の中等学校では数学のクラスがまったく開催されていないため、対象の生徒がほとんどいません。有資格の学生がリリプット派かブロブディンナーギ派かにかかわらず、受け入れられる可能性が等しければ、国籍(リリプット人またはブロブディンナギア)に関して好まれる「入学」ラベルで機会の平等が満たされます。

たとえば、100 人のリリプット派と 100 人のブロブディンナギ人がグルブダブドリブ大学に応募し、次のように入学決定が行われたとします。

表 1. Lilliputian 申請者(90% が適格)

  リードの精査が完了 見込みなし
承諾済み 45 3
不承認 45 7
合計 90 10
入学資格のある学生の割合: 45/90 = 50%
不適格となった学生の割合: 7/10 = 70%
入学したリリプト学生の割合: (45+3)÷100 = 48%

 

表 2. Brobdingnagian の申請者(10% が適格):

  リードの精査が完了 見込みなし
承諾済み 5 9
不承認 5 81
合計 10 90
許可された学生の割合: 5/10 = 50%
不適格となった学生の割合: 81/90 = 90%
入学したブラブディングナジアの学生の割合: (5+9)÷100 = 14%

前述の例では、資格のあるリリプット派とブラブディンナギアンのいずれも入学の確率が 50% であるため、資格のある学生を受け入れる機会の平等が満たされています。

機会の平等は満たされていますが、次の 2 つの公平性に関する指標は満たされていません。

  • 人口統計の同等性: リリプット派の学生と Brobdingnagians 人は異なる割合で入学できます。リリプット派の学生の 48% は入学できますが、Brobdingnagian の学生では 14% しか入学できません。
  • 等しい確率: 適格なリリプット派の学生とブロブディンナギアン派の学生はどちらも認められる可能性は同じですが、資格のないリリプット派の学生とブロブディンナギアの学生は両方とも拒否される可能性が同じであるという追加の制約が満たされていません。無資格の Lilliputian の拒否率は 70%、無資格の Brobdingnagians の拒否率は 90% です。

機会の平等について詳しくは、教師あり学習における機会の平等をご覧ください。また、機会の平等のために最適化する際のトレードオフについて可視化した可視化資料については、「よりスマートな機械学習による差別への対処」をご覧ください。

均等化オッズ

#fairness

一方のクラスのみではなく、陽性クラス陰性クラスの両方に関して、モデルが機密属性のすべての値に対して同様に適切に結果を予測しているかどうかを評価する公平性指標。つまり、真陽性率偽陰性率の両方がすべてのグループで同じである必要があります。

平等化されたオッズは機会の平等に関連し、1 つのクラス(正または負)のエラー率にのみ焦点を当てます。

たとえば、グルブドゥブドリブ大学がリリプット派とブラブディンナギアンの両方について、厳格な数学の課程を履修するとします。リリプティアンの中等学校では、数学のクラス向けの充実したカリキュラムが提供されており、学生の大多数は大学プログラムの資格を持っています。Brobdingnagians の中等学校では、数学のクラスがまったく開催されていないため、資格要件を満たす生徒ははるかに少数にとどまっています。均衡オッズは、申請者がリリプット人かブロブディンナギャ人かにかかわらず、適格であればプログラムへの参加が認められる可能性は等しく、条件を満たさなければ却下される可能性も同等であるという条件で満たされます。

100 人のリリプット派と 100 人のブロブディンナージアンがグルブダブドリブ大学に申し込み、次のように入学が決定されたとします。

表 3: Lilliputian 申請者(90% が適格)

  リードの精査が完了 見込みなし
承諾済み 45 2
不承認 45 8
合計 90 10
入学資格のある学生の割合: 45/90 = 50%
不合格になった学生の割合: 8/10 = 80%
入学したリリプティ学生の割合: (45 + 2) ÷ 100 = 47%

 

表 4. Brobdingnagian の申請者(10% が適格):

  リードの精査が完了 見込みなし
承諾済み 5 18
不承認 5 72
合計 10 90
入学資格のある学生の割合: 5/10 = 50%
不適格となった学生の割合: 72/90 = 80%
入学したブラブディングナジアの学生の割合: (5+18)÷100 = 23%

有資格のリリプット生と Brobdingnagian の生徒はいずれも 50% の合格率があり、無資格の Lilliputian と Brobdingnagian の生徒は拒否される確率が 80% であるため、平等な確率が満足されます。

等化オッズは、「教師あり学習における機会の平等」で次のように正式に定義されています。「Π と A が独立している場合、予測子 · は、保護された属性 A と結果 Y に関して均等化オッズを満たします。ただし、Y を条件とします。」

実験者の偏見

#fairness

確認バイアスをご覧ください。

F

公平性に関する制約

#fairness
アルゴリズムに制約を適用して、公平性の定義を 1 つ以上満たすようにします。公平性の制約の例としては、次のようなものが挙げられます。

  • モデルの出力を後処理します。
  • 損失関数を変更して、公平性指標違反に対するペナルティを組み込む。
  • 最適化の問題に数学的制約を直接追加する。

公平性の指標

#fairness

測定可能な「公平性」の数学的な定義。一般的に使用される公平性の指標には、次のようなものがあります。

多くの公平性指標は相互に排他的です。公平性指標の非互換性をご覧ください。

1 階

グループ属性バイアス

#fairness

ある個人の真実が、そのグループのすべての人にも当てはまると仮定します。データ収集にコンビニエンス サンプリングを使用すると、グループ アトリビューションのバイアスの影響が悪化する可能性があります。代表的でないサンプルでは、現実を反映していないアトリビューションが加えられる可能性があります。

グループ外均一性バイアスグループ内バイアスもご覧ください。

H

歴史的バイアス

#fairness

すでに世界に存在し、データセットに入っているバイアスの一種。こうしたバイアスには、既存の文化的固定観念、人口統計の不平等、特定の社会集団に対する偏見を反映する傾向があります。

たとえば、ローン申請者がローン債務不履行になるかどうかを予測する分類モデルについて考えてみましょう。このモデルは、2 つの異なるコミュニティの地方銀行からの 1980 年代の過去のローンのデフォルト データに基づいてトレーニングされました。コミュニティ A の過去の申請者がコミュニティ B の申請者の 6 倍のローン債務不履行の可能性が高かった場合、モデルは過去のバイアスを学習し、コミュニティ A の融資を承認しなかった可能性が低くなる可能性があります。

I

暗黙のバイアス

#fairness

心のモデルや記憶に基づいて 関連付けや推測を自動的に行うこと暗黙的なバイアスは以下に影響を与える可能性があります。

  • データの収集方法と分類方法。
  • ML システムの設計と開発の方法。

たとえば、結婚式の写真を識別する分類器を作成する場合、エンジニアは写真に白いドレスが存在することを特徴として使用できます。しかし、白いドレスは特定の時代や特定の文化でのみ慣習されていました。

確認バイアスもご覧ください。

公平性の指標の不和合性

#fairness

公平性の概念には相互に両立がなく、同時に満たすことはできないという考え。そのため、すべての ML の問題に適用できる、公平性を定量化するための単一の普遍的な指標は存在しません。

公平性に関する指標に互換性がないからといって、公平性の取り組みが無駄になるわけではありません。むしろ、公平性は、そのユースケースに固有の危害を防ぐことを目的として、特定の ML 問題のコンテキストに沿って定義する必要があることを示しています。

このトピックの詳細な議論については、公平性の可能性についてをご覧ください。

個人の公平性

#fairness

類似した個人が同様に分類されるかどうかを確認する公平性指標。たとえば、Brobdingnagian Academy は、学年が同じで標準テストの点数を持つ 2 人の生徒が入学する可能性が同等になるようにすることで、個人の公平性を保証します。

個々の公平性は、「類似性」(この場合は成績とテストの点数)の定義方法に完全に依存します。類似性指標に重要な情報(学生のカリキュラムの厳密さなど)が欠落している場合、新しい公平性の問題が発生する可能性があります。

個々の公平性について詳しくは、「認識による公平性」をご覧ください。

グループ内バイアス

#fairness

自分自身のグループや特徴に偏りがあることを示唆する。 テスターや評価者が ML デベロッパーの友人、家族、同僚で構成されている場合、グループ内バイアスによってプロダクト テストやデータセットが無効になる可能性があります。

グループ内バイアスは、グループ アトリビューション バイアスの一種です。グループ外均一性バイアスもご覧ください。

N

無回答バイアス

#fairness

選択バイアスをご覧ください。

O

外グループ均一性バイアス

#fairness

態度、価値観、性格などの特性を比較する際に、グループ外のメンバーがグループ内メンバーよりも類似していると考える傾向。「グループ内」は定期的にやり取りするユーザーを指し、「グループ外」は普段やり取りしていないユーザーを指します。外部グループに関する属性を入力するようにユーザーに依頼してデータセットを作成すると、それらの属性は、参加者がグループ内の人物に対してリストする属性よりも微妙で、固定観念に富む可能性があります。

たとえば、リリプット家は、建築様式、窓、ドア、サイズのわずかな違いを引用して、他のリリプット家の家について詳しく説明するかもしれません。しかし、同じリリプト族は、ブロブディンナギ族は全員同じ家に住んでいると宣言するだけかもしれません。

外部グループ均一性バイアスは、グループ アトリビューション バイアスの一種です。

グループ内バイアスもご覧ください。

P

参加バイアス

#fairness

「無回答バイアス」と同義です。選択バイアスをご覧ください。

後処理

#fairness
#fundamentals

モデルの実行後にモデルの出力を調整する。後処理を使用して、モデル自体を変更することなく、公平性の制約を適用できます。

たとえば、属性のすべての値で真陽性率が同じであることを確認することで、なんらかの属性の機会の平等が維持されるように分類しきい値を設定して、バイナリ分類器に後処理を適用できます。

予測同等性

#fairness

公平性指標。特定の分類器の適合率率が、検討中のサブグループで同等であるかどうかをチェックします。

たとえば、大学の受け入れを予測するモデルは、リリプット派とブロブディン人派の適合率が同じであれば、国籍の予測同等性を満たします。

予測パリティは、予測レートパリティとも呼ばれます。

予測同等性の詳細については、「公平性の定義の説明」(セクション 3.2.1)をご覧ください。

予測率の同等性

#fairness

予測パリティの別名。

前処理

#fairness
モデルのトレーニングに使用する前にデータを処理する。前処理は、英語辞書に存在しない英語テキスト コーパスから単語を削除するだけの簡単なものから、機密性の高い属性と相関する属性をできるだけ多く排除するようにデータポイントを再表現するような複雑なものになります。前処理は、公平性の制約を満たすのに役立ちます。

プロキシ(機密属性)

#fairness
機密属性の代用となる属性。たとえば、個人の郵便番号は、所得、人種、民族の代用として使用できます。

R

報告バイアス

#fairness

行動、結果、特性について人が書く頻度は、現実世界の頻度や、ある特性があるクラスの個人の特徴である度合いを反映していません。報告バイアスは ML システムが学習する データの構成に影響を与える可能性があります

たとえば、書籍では「笑い」という単語が「呼吸」よりも多く使われています。本のコーパスから笑いと呼吸の相対的な頻度を推定する ML モデルでは、呼吸よりも笑顔のほうが一般的であると判断される可能性があります。

S

サンプリング バイアス

#fairness

選択バイアスをご覧ください。

選択バイアス

#fairness

データで観測されたサンプルと観測されなかったサンプルとの間に体系的な差異を生み出す選択プロセスによる、サンプリング データから導き出された結論のエラー。選択バイアスには、次のような形態があります。

  • カバレッジ バイアス: データセットに表示される母集団が、ML モデルで予測を行っている母集団と一致しない。
  • サンプリング バイアス: データはターゲット グループからランダムに収集されません。
  • 非回答バイアス(参加バイアスとも呼ばれます): 特定のグループのユーザーは、他のグループのユーザーとは異なる割合でアンケートをオプトアウトします。

たとえば、映画の楽しさを予測する ML モデルを作成するとします。トレーニング データを収集するため、映画を観る劇場の最前列のすべての人にアンケートを手渡します。一見すると、これはデータセットを収集する合理的な方法に思えるかもしれませんが、この形式のデータ収集では、次の形式の選択バイアスが発生する可能性があります。

  • カバレッジ バイアス: 映画を見ることを選択した母集団からサンプリングした場合、モデルの予測は、映画に対するそのレベルの関心をまだ表現していない人に対して一般化されない可能性があります。
  • サンプリング バイアス: 目的の母集団(映画に登場するすべての人)からランダムにサンプリングするのではなく、最前列の人々のみをサンプリングしました。最前列の人は、他の列の人よりも映画に関心を持っている可能性があります。
  • 無回答バイアス: 一般的に、強い意見を持つ人は、マイルドな意見の人よりもオプション アンケートに頻繁に回答する傾向があります。映画のアンケートはオプションであるため、回答は通常の(ベル型の)分布よりもバイモーダル分布を形成する可能性が高くなります。

機密属性

#fairness
法的、倫理的、社会的、個人的な理由で特別な考慮がなされる人間の属性。

U

(機密属性に対する)

#fairness

機密属性が存在するものの、トレーニング データに含まれていない状況。機密性の高い属性はデータの他の属性と相関関係にあることが多いため、機密性の高い属性を認識していない状態でトレーニングされたモデルでも、その属性に関してさまざまな影響があるか、その他の公平性に関する制約に違反する可能性があります。