ML 用語集: 公平性

このページには、公平性に関する用語集の用語が記載されています。用語集のすべての用語については、こちらをクリックしてください。

A

属性

#fairness

特徴と同義です。

ML の公平性では、属性は多くの場合、個人に関連する特性を指します。

自動化バイアス

#fairness

自動化された意思決定システムが誤りを犯した場合でも、人間の意思決定者が自動化されていない情報よりも自動化された意思決定システムによる推奨事項を優先する場合。

詳細については、ML 集中講座の公平性: バイアスの種類をご覧ください。

B

バイアス(倫理/公平性)

#fairness
#fundamentals

1. 特定のこと、人、グループに対する固定観念、偏見、またはえこひいき。これらのバイアスは、データの収集と解釈、システムの設計、ユーザーがシステムを操作する方法に影響する可能性があります。このタイプのバイアスには次のようなものがあります。

2. サンプリングや報告の手順で体系的に生じたエラー。このタイプのバイアスには次のようなものがあります。

機械学習モデルのバイアス項予測バイアスと混同しないでください。

詳細については、ML 集中講座の公平性: バイアスの種類をご覧ください。

C

確証バイアス

#fairness

既存の信念や仮説を裏付けるような方法で情報の検索、解釈、優先、回想を行う傾向。機械学習開発者は、既存の信念を裏付ける結果に影響する方法で、データの収集やラベル付けを誤って行う可能性があります。確証バイアスは、暗黙的なバイアスの一種です。

テスト担当者のバイアスは、既存の仮説が確認されるまでテスト担当者がモデルのトレーニングを継続する、確証バイアスの一種です。

反事実的公平性

#fairness

1 つ以上の機密性の高い属性を除き、分類システムが 1 人の個人に対して、その個人と同一である別の個人に対しても同じ結果を生成しているかどうかを確認する公平性指標。反事実的公平性について分類システムを評価することは、モデルでバイアスが生じる可能性のある原因を特定する 1 つの方法です。

詳しくは、次のいずれかをご覧ください。

対象範囲のバイアス

#fairness

選択バイアスをご覧ください。

D

人口学的等価性

#fairness

モデルの分類結果が特定の機密属性に依存しない場合、満たされる公平性指標

たとえば、リリパット人とブロブディンガ人両方がグルブドゥブドゥリブ大学に応募した場合、あるグループが平均的に他方よりも優れているかどうかにかかわらず、入学したリリパット人の割合が入学したブロブディンガ人の割合と同じであれば、人種的平等が達成されます。

これは、オッズの均等化機会の平等とは対照的です。これらのポリシーでは、集計された分類結果が機密属性に依存することを許可しますが、特定の指定されたグラウンド トゥルースラベルの分類結果が機密属性に依存することを許可しません。属性の均等性を最適化する際のトレードオフを示す可視化については、「よりスマートな機械学習による差別の是正」をご覧ください。

詳細については、機械学習集中講座の公平性: 人口統計の均等性をご覧ください。

差別的な影響

#fairness

さまざまな人口サブグループに不均衡な影響を与える個人に関する意思決定。これは通常、アルゴリズムによる意思決定プロセスが、一部のサブグループに他のグループよりも有害または有益な影響を及ぼす状況を指します。

たとえば、リリパット人の小型住宅ローンの利用資格を判断するアルゴリズムでは、郵送先住所に特定の郵便番号が含まれている場合に「利用資格なし」と分類される可能性が高くなります。ビッグエンディアン リリパット族の方がリトルエンディアン リリパット族よりもこの郵便番号の郵送先住所を持つ可能性が高い場合、このアルゴリズムによって差別的な影響が生じる可能性があります。

差別的取扱いとは対照的に、サブグループの特性があからさまにアルゴリズムによる意思決定プロセスに入力された場合に生じる差異に焦点を当てています。

不均一な扱い

#fairness

被験者の機密性の高い属性をアルゴリズムによる意思決定プロセスに組み込み、異なるサブグループの人々を異なる方法で扱う。

たとえば、リリパット人がローン申請で提供するデータに基づいて、リリパット人が小型住宅ローンの利用資格があるかどうかを判断するアルゴリズムについて考えてみましょう。アルゴリズムが、Lilliputian の Big-Endian または Little-Endian の関連性を入力として使用している場合、そのディメンションに沿って差別的な扱いが行われています。

これは、サブグループがモデルへの入力であるかどうかにかかわらず、サブグループに対するアルゴリズムによる決定が社会に与える影響の差異に焦点を当てた差別的影響とは対照的です。

E

機会の平等

#fairness

公平性指標。モデルが機微な属性のすべての値について望ましい結果を同等に予測しているかどうかを評価します。つまり、モデルの望ましい結果が陽性のクラスである場合、目標はすべてのグループで真陽性率を同じにすることとなります。

機会の平等はオッズの均等化に関連しています。これは、真陽性率と偽陽性率両方がすべてのグループで同じであることを必要とします。

Glubbdubdrib 大学が、厳格な数学プログラムにリリパット人とブロブディンガム人の両方を受け入れているとします。リリプト人の中等学校では、数学クラスの充実したカリキュラムが提供されており、ほとんどの生徒が大学プログラムの資格を得ています。ブロブディンガニアの中等学校では数学クラスがまったく提供されていないため、資格を取得する生徒は非常に少なくなっています。国籍(リリパット人またはブロブディンガ人)に関連する「入学」という優先ラベルについて、資格要件を満たす生徒が、リリパット人かブロブディンガ人かにかかわらず、入学する可能性に差がない場合は、機会均等が満たされています。

たとえば、100 人のリリパット人と 100 人のブロブディンガニア人が Glubbdubdrib 大学に申し込み、入学審査の結果が次のように出たとします。

表 1. リリパット申請者(90% が資格要件を満たしている)

  リードの精査が完了 見込みなし
入院 45 3
不承認 45 7
合計 90 10
入学が認められた資格要件を満たす生徒の割合: 45/90 = 50%
入学が認められなかった資格要件を満たさない生徒の割合: 7/10 = 70%
入学が認められたリリプト人の生徒の合計割合: (45+3)/100 = 48%

 

表 2. Brobdingnagian の申請者(10% が資格要件を満たしている):

  リードの精査が完了 見込みなし
入院 5 9
不承認 5 81
合計 10 90
入学が認められた資格要件を満たしている学生の割合: 5/10 = 50%
資格要件を満たしていない不合格となった学生の割合: 81/90 = 90%
ブロブディンガニアの入学が認められた学生の合計割合: (5+9)/100 = 14%

上記の例では、資格要件を満たしたリリパット人とブロブディンガム人の両方に入学するチャンスが 50% あるため、資格要件を満たした生徒の入学機会の平等が満たされています。

機会均等は満たされていますが、次の 2 つの公平性指標は満たされていません。

  • 人口構成の均等性: リリパット人とブロブディンガ人では大学への入学率が異なります。リリパット人の学生の 48% が入学しますが、ブロブディンガ人の学生の入学率は 14% に過ぎません。
  • 均等なオッズ: 資格要件を満たしているリリパット人とブロブディンガ人には、どちらも同じ入学チャンスが与えられますが、資格要件を満たしていないリリパット人とブロブディンガ人には、どちらも同じ不合格のチャンスが与えられるという追加の制約は満たされません。資格のないリリパット人の不承認率は 70% であるのに対し、資格のないブロブディンガニア人の不承認率は 90% です。

詳細については、機械学習集中講座の公平性: 機会の平等をご覧ください。

オッズが等しい

#fairness

モデルが、正クラス負クラスの両方に対して、機密性の高い属性のすべての値で結果を同等に予測しているかどうかを評価する公平性指標です。つまり、真陽性率偽陰性率の両方が、すべてのグループで同じである必要があります。

オッズの均等化は、単一クラスのエラー率(正または負)のみに焦点を当てた機会の平等に関連しています。

たとえば、Glubbdubdrib 大学がリリパット人とブロブディンガム人の両方を厳格な数学プログラムに受け入れているとします。リリプト人の中等学校では、数学クラスの充実したカリキュラムが提供されており、ほとんどの生徒が大学プログラムの資格を得ています。ブロブディンガニアの中等学校では数学クラスがまったく提供されていないため、資格を取得する生徒は非常に少なくなっています。平等な機会は、申請者がリリパット族かブロブディンガニア族かにかかわらず、資格要件を満たしていればプログラムへの入学が認められ、資格要件を満たしていない場合は不承認となる確率が同じである場合に満たされます。

100 人のリリパット人と 100 人のブロブディンガム人が Glubbdubdrib 大学に申請し、入学審査の結果が次のように出たとします。

表 3: リリパット申請者(90% が資格要件を満たしている)

  リードの精査が完了 見込みなし
入院 45 2
不承認 45 8
合計 90 10
入学が認められた資格要件を満たす生徒の割合: 45/90 = 50%
資格要件を満たさない不合格となった生徒の割合: 8/10 = 80%
入学が認められたリリプトゥー人の割合: (45+2)/100 = 47%

 

表 4. Brobdingnagian の申請者(10% が資格要件を満たしている):

  リードの精査が完了 見込みなし
入院 5 18
不承認 5 72
合計 10 90
入学が認められた資格要件を満たしている学生の割合: 5/10 = 50%
資格要件を満たしていない不合格となった学生の割合: 72/90 = 80%
ブロブディンガニアの学生の入学が認められた割合: (5+18)/100 = 23%

資格要件を満たしているリリパット人とブロブディンガジャンの学生はどちらも入学できる確率が 50%、資格要件を満たしていないリリパット人とブロブディンガジャンの学生はどちらも不合格になる確率が 80% であるため、均等なオッズが満たされています。

オッズの均等化は、「教師あり学習における機会の平等」で次のように正式に定義されています。「予測子 Ŷ が保護対象属性 A と結果 Y に関してオッズの均等化を満たす場合、Ŷ と A は Y を条件として独立している。」

実験者のバイアス

#fairness

確証バイアスをご覧ください。

F

公平性の制約

#fairness
アルゴリズムに制約を適用して、公平性の 1 つ以上の定義が満たされるようにする。公平性制約の例としては、次のようなものがあります。

  • モデルの出力の後処理
  • 損失関数を変更して、公平性指標への違反に対するペナルティを組み込む。
  • 数学的な制約を最適化問題に直接追加する。

公平性の指標

#fairness

測定可能な「公平性」の数学的定義。よく使用される公平性指標には次のようなものがあります。

多くの公平性指標は相互に排他的です。公平性指標の不整合をご覧ください。

G

グループ帰属バイアス

#fairness

個人に当てはまることを、そのグループ内の全員に当てはまると仮定する。データ収集に便宜的サンプリングを使用すると、グループ アトリビューションのバイアスの影響が悪化する可能性があります。代表性のないサンプルでは、現実を反映していないアトリビューションが作成される可能性があります。

自分が属していないグループに対する均一性のバイアス所属グループのバイアスもご覧ください。詳細については、ML 集中講座の公平性: バイアスの種類をご覧ください。

H

過去のバイアス

#fairness

世界にすでに存在し、データセットに組み込まれているバイアスの一種。こうしたバイアスは、既存の文化的固定観念、人口統計的な不平等、特定の社会的グループに対する偏見を反映する傾向があります。

たとえば、ローン申請者がローンの支払いを滞納するかどうかを予測する分類モデルについて考えてみましょう。このモデルは、2 つの異なる地域の地方銀行から 1980 年代の過去のローン債務不履行データに基づいてトレーニングされています。コミュニティ A の過去の申請者が、コミュニティ B の申請者よりもローンのデフォルト率が 6 倍高い場合、モデルは過去の偏見を学習し、そのコミュニティのデフォルト率が高くなった過去の状況が現在は関連性がなくなっていても、コミュニティ A のローンを承認する可能性が低くなる可能性があります。

詳細については、ML 集中講座の公平性: バイアスの種類をご覧ください。

I

暗黙のバイアス

#fairness

自分の心のモデルと記憶に基づいて、関連付けや推測を自動的に行う。無意識の偏見は、次のようなことに影響する可能性があります。

  • データの収集と分類方法。
  • 機械学習システムの設計と開発方法。

たとえば、結婚式の写真を識別する分類子を構築する場合、エンジニアは写真に白いドレスが写っているかどうかを特徴として使用できます。ただし、白いドレスは特定の時代や特定の文化でのみ慣習となっています。

確証バイアスもご覧ください。

公平性の指標の不整合

#fairness

公平性の概念の中には相互に矛盾し、同時に満たすことができないものがあるという考え方。そのため、すべての ML 問題に適用できる公平性を定量化する単一の普遍的な指標はありません。

公平性の指標が互換性がないことは、公平性への取り組みが実を結ばないという意味ではありません。代わりに、ユースケースに固有の害を防ぐことを目標に、特定の ML 問題のコンテキストに沿って公平性を定義する必要があると示唆しています。

このトピックについて詳しくは、「公平性の(不)可能性について」をご覧ください。

個人の公平性

#fairness

類似の個人が類似して分類されるかどうかを確認する公平性指標。たとえば、Brobdingnagian アカデミーは、同じ成績と標準化テストのスコアを持つ 2 人の生徒が、入学する可能性を同等に確保することで、個人の公平性を満たしたいと考えています。

個人の公正性は、「類似性」(この場合は成績とテストのスコア)の定義に完全に依存します。類似性指標で重要な情報(生徒のカリキュラムの厳しさなど)が欠落していると、新しい公正性の問題が発生するリスクがあります。

個々の公平性について詳しくは、「認識による公平性」をご覧ください。

所属グループのバイアス

#fairness

自分のグループや自分の特性に偏見を示す。テスターまたは評価者が ML デベロッパーの友人、家族、同僚である場合、グループ内バイアスによりプロダクト テストまたはデータセットが無効になる可能性があります。

所属グループのバイアスとは、グループ帰属バイアスの一種です。自分が属していないグループに対する均一性のバイアスもご覧ください。

詳細については、ML 集中講座の公平性: バイアスの種類をご覧ください。

N

無回答のバイアス

#fairness

選択バイアスをご覧ください。

O

自分が属していないグループに対する均一性のバイアス

#fairness

態度、価値観、性格特性などの特徴を比較する際に、アウトグループのメンバーをイングループのメンバーよりも類似していると見なす傾向。イングループとは、日常的に交流する相手を指し、アウトグループとは、日常的に交流しない相手を指します。アウトグループに関する属性を参加者に提供してもらってデータセットを作成する場合は、参加者がイングループの人物について挙げる属性よりも、ニュアンスが乏しく、固定観念に偏った属性になる可能性があります。

たとえば、リリパット人は、他のリリパットの家を非常に詳細に説明し、建築様式、窓、ドア、サイズのわずかな違いを挙げます。一方、同じリリパット人は、ブロブディンガニア人はすべて同じ家に住んでいると主張するかもしれません。

自分が属していないグループに対する均一性のバイアスは、グループ属性バイアスの一種です。

所属グループのバイアスもご覧ください。

P

参加バイアス

#fairness

無回答のバイアスと同義。選択バイアスをご覧ください。

後処理

#fairness
#fundamentals

モデルの実行にモデルの出力を調整する。後処理を使用すると、モデル自体を変更せずに公平性制約を適用できます。

たとえば、バイナリ分類子にポスト処理を適用するには、分類しきい値を設定して、一部の属性について機会の平等を維持します。これは、その属性のすべての値で真陽性率が同じであることを確認することで行います。

予測パリティ

#fairness

特定の分類システムで、対象のサブグループで適合率が同等かどうかを確認する公平性指標

たとえば、大学の入学を予測するモデルは、リリパット人とブロブディンガニア人の適合率が同じであれば、国籍の予測の平等を満たします。

予測パリティは、予測レート パリティとも呼ばれます。

予測の公平性について詳しくは、「公平性の定義の説明」(セクション 3.2.1)をご覧ください。

予測レートの同等性

#fairness

予測的パリティの別名。

前処理

#fairness
モデルのトレーニングに使用する前にデータを処理します。前処理は、英語の辞書にない単語を英語テキスト コーパスから削除するような単純なものから、機密性の高い属性と関連する属性をできるだけ排除するようにデータポイントを再表現するような複雑なものまで、さまざまです。前処理は、公平性制約を満たすのに役立ちます。

プロキシ(機密性の高い属性)

#fairness
機密性の高い属性の代用として使用される属性。たとえば、個人の郵便番号は、収入、人種、民族の代用として使用される場合があります。

R

報告バイアス

#fairness

ユーザーがアクション、結果、プロパティについて記述する頻度が、実世界の頻度や、プロパティが個人のクラスの特徴である程度を反映していないという事実。報告バイアスは、機械学習システムが学習するデータの構成に影響する可能性があります。

たとえば、書籍では「笑った」という単語は「息を吸った」よりも一般的です。書籍コーパスから笑い声と呼吸の相対的な頻度を推定する ML モデルは、笑い声が呼吸よりも一般的であると判断する可能性があります。

S

サンプリング バイアス

#fairness

選択バイアスをご覧ください。

選択バイアス

#fairness

データで観測されたサンプルと観測されなかったサンプルの間に系統的な差異を生む選択プロセスが原因で、サンプリングされたデータから得られた結論に誤りがある。選択バイアスには次のようなものがあります。

  • カバレッジ バイアス: データセットに表される母集団が、機械学習モデルが予測を行う母集団と一致していません。
  • サンプリング バイアス: 対象グループからランダムにデータが収集されていない。
  • 回答率の偏り参加率の偏りとも呼ばれる): 特定のグループのユーザーは、他のグループのユーザーとは異なる割合でアンケートをオプトアウトします。

たとえば、映画の楽しさを予測する ML モデルを作成しているとします。トレーニング データを収集するために、映画を上映している映画館の最前列の全員にアンケートを配布します。一見、これはデータセットを収集する合理的な方法のように思えますが、この形式のデータ収集では、次のような選択バイアスが生じる可能性があります。

  • カバレッジのバイアス: 映画を視聴することを選んだ集団からサンプリングすると、映画に対してそれほど関心を示していないユーザーにモデルの予測を一般化できない可能性があります。
  • サンプリング バイアス: 対象母集団(映画館の全観客)からランダムにサンプリングするのではなく、最前列の観客のみをサンプリングした。最前列に座っている人は、他の列の人に比べて映画に興味を持っている可能性があります。
  • 回答の偏り: 一般的に、強い意見を持つ人は、意見が弱い人に比べて、任意のアンケートに回答する傾向があります。映画に関するアンケートは任意であるため、回答は正規分布(ベル曲線)よりも二峰分布になる傾向があります。

センシティブ属性

#fairness
法的、倫理的、社会的、個人的な理由で特別な配慮がなされる人間の属性。

U

認識していない(機密性の高い属性について)

#fairness

機密性の高い属性が存在するが、トレーニング データに含まれていない状況。機密属性はデータの他の属性と相関していることが多いため、機密属性を認識せずにトレーニングされたモデルでも、その属性に関して差別的な影響が生じたり、他の公平性制約に違反したりする可能性があります。