本頁面列出負責任的 AI 技術相關詞彙。如要查看所有詞彙,請按這裡。
A
屬性
特徵 的同義詞。
在機器學習公平性中,屬性通常是指與個人相關的特徵。
自動化偏誤
決策人員偏好自動決策系統提供的建議,而非未經自動化處理的資訊,即使自動決策系統出錯也一樣。
詳情請參閱機器學習速成課程中的「公平性:偏見類型」。
B
偏誤 (倫理/公平性)
1. 對某些事物、人或群體抱有刻板印象、偏見或偏袒心態。這些偏見可能會影響資料的收集和解讀、系統設計,以及使用者與系統的互動方式。這類偏誤的形式包括:
2. 取樣或通報程序造成的系統性錯誤。這類偏誤的形式包括:
詳情請參閱機器學習速成課程的「公平性:偏見類型」。
C
確認偏誤
傾向於搜尋、解讀、偏好及回憶資訊,以驗證自己原有的信念或假設。機器學習開發人員可能會無意間以影響結果的方式收集或標記資料,進而支持現有的信念。確認偏誤是隱性偏誤的一種形式。
實驗者偏誤是一種確認偏誤,實驗者會持續訓練模型,直到確認先前的假設為止。
反事實公平性
這項公平性指標會檢查分類模型是否會為某位使用者產生結果,並為與該使用者完全相同 (但一或多項敏感屬性除外) 的使用者產生相同結果。評估分類模型的反事實公平性,是找出模型中潛在偏差來源的方法之一。
詳情請參閱下列任一文章:
涵蓋偏誤
請參閱選擇偏誤。
D
群體均等
舉例來說,如果小人國人和大人國人都申請進入格魯布達布德里布大學,只要兩國人錄取率相同,就可達到人口統計均等,無論其中一組的平均資格是否優於另一組。
與均等機率和機會均等形成對比,後兩者允許分類結果匯總取決於私密屬性,但不允許特定基本事實標籤的分類結果取決於私密屬性。如要查看視覺化資料,瞭解在盡量達到人口統計資料同等性時的取捨考量,請參閱「以更智慧的機器學習對抗歧視」。
詳情請參閱機器學習速成課程中的「公平性:人口統計均等」。
不當影響
對不同人口子群組造成不成比例影響的決策。這通常是指演算法決策程序對某些子群組造成的傷害或好處,大於對其他子群組的影響。
舉例來說,假設某演算法會根據小人國居民的郵寄地址是否包含特定郵遞區號,判斷他們是否符合微型房屋貸款資格,並傾向將他們歸類為「不符合資格」。如果大端序小人國居民比小端序小人國居民更可能擁有這個郵遞區號的郵寄地址,則這項演算法可能會造成差異影響。
與差別待遇不同,差別待遇著重於子群組特徵是演算法決策程序的明確輸入內容時,所造成的差異。
差別待遇
將受試者的敏感屬性納入演算法決策程序,導致不同的人群子群組受到不同待遇。
舉例來說,假設某個演算法會根據小人國居民在貸款申請中提供的資料,判斷他們是否符合微型住宅貸款的資格。如果演算法使用 Lilliputian 的隸屬關係 (Big-Endian 或 Little-Endian) 做為輸入內容,則會沿著該維度實施差別待遇。
與差異影響不同,後者著重於演算法決策對子群體社會影響的差異,無論這些子群體是否為模型的輸入內容。
E
機會平等
公平性指標:評估模型是否能對敏感屬性的所有值,做出同樣準確的預測。換句話說,如果模型的理想結果是正類,目標就是讓所有群組的真陽性率相同。
機會均等與均等勝算有關,兩者都要求所有群組的真陽率和偽陽率相同。
假設 Glubbdubdrib 大學的嚴格數學課程同時招收小人國和大人國的學生。Lilliputians 的中學提供紮實的數學課程,絕大多數學生都有資格參加大學課程。Brobdingnagians 的中學完全不提供數學課程,因此合格的學生少得多。如果無論學生是小人國人還是大人國人,只要符合資格,錄取機率都相同,則就國籍 (小人國或大人國) 而言,偏好的「錄取」標籤即符合機會均等原則。
舉例來說,假設有 100 位小人國人和 100 位大人國人申請進入 Glubbdubdrib 大學,而入學決定如下:
表 1. Lilliputian 申請者 (90% 符合資格)
晉級 | 不合格 | |
---|---|---|
已錄取 | 45 | 3 |
已遭拒 | 45 | 7 |
總計 | 90 | 10 |
符合資格的學生錄取百分比:45/90 = 50% 不符合資格的學生遭拒百分比:7/10 = 70% 小人國學生總錄取百分比:(45+3)/100 = 48% |
表 2. Brobdingnagian 申請者 (10% 符合資格):
晉級 | 不合格 | |
---|---|---|
已錄取 | 5 | 9 |
已遭拒 | 5 | 81 |
總計 | 10 | 90 |
符合資格的學生錄取率:5/10 = 50% 不符合資格的學生拒絕率:81/90 = 90% Brobdingnagian 學生總錄取率:(5+9)/100 = 14% |
上述例子符合接受合格學生的機會均等原則,因為合格的 Lilliputians 和 Brobdingnagians 都有 50% 的入學機會。
雖然滿足機會均等,但下列兩項公平性指標不符合條件:
- 群體均等:小人國人和大人國人進入大學的比例不同;小人國學生有 48% 能進入大學,但大人國學生只有 14% 能進入大學。
- 均等機會:符合資格的 Lilliputian 和 Brobdingnagian 學生都有相同的入學機會,但額外限制 (不符合資格的 Lilliputian 和 Brobdingnagian 學生都有相同的拒絕機會) 並不符合。不符合資格的 Lilliputian 遭拒率為 70%,不符合資格的 Brobdingnagian 遭拒率則為 90%。
詳情請參閱機器學習速成課程中的「公平性:機會均等」。
等化勝算
這項公平性指標可評估模型是否能針對敏感屬性的所有值,對正類和負類做出同樣準確的預測,而不僅限於其中一類。換句話說,所有群組的真陽率和偽陰率應相同。
均等機會與機會均等有關,後者只著重於單一類別 (正或負) 的錯誤率。
舉例來說,假設 Glubbdubdrib 大學的嚴格數學課程同時招收小人國和大腳國的學生。Lilliputians 的中學提供完善的數學課程,絕大多數學生都符合大學課程的資格。Brobdingnagian 的中學完全沒有數學課,因此合格的學生少得多。只要申請人符合資格,無論是小人國或大人國的人,都有同等機會獲准加入該計畫,若不符合資格,則有同等機會遭到拒絕,即滿足均等機會條件。
假設有 100 名小人國人和 100 名大人國人申請進入 Glubbdubdrib 大學,而入學決定如下:
表 3. Lilliputian 申請者 (90% 符合資格)
晉級 | 不合格 | |
---|---|---|
已錄取 | 45 | 2 |
已遭拒 | 45 | 8 |
總計 | 90 | 10 |
符合資格的學生錄取百分比:45/90 = 50% 不符合資格的學生遭拒百分比:8/10 = 80% 小人國學生總錄取百分比:(45+2)/100 = 47% |
表 4. Brobdingnagian 申請者 (10% 符合資格):
晉級 | 不合格 | |
---|---|---|
已錄取 | 5 | 18 |
已遭拒 | 5 | 72 |
總計 | 10 | 90 |
符合資格的學生錄取率:5/10 = 50% 不符合資格的學生拒絕率:72/90 = 80% Brobdingnagian 學生總錄取率:(5+18)/100 = 23% |
由於符合資格的 Lilliputian 和 Brobdingnagian 學生都有 50% 的入學機會,不符合資格的學生則有 80% 的機率遭到拒絕,因此滿足了均等機率條件。
「機會均等」的正式定義請參閱「Equality of Opportunity in Supervised Learning」(監督式學習中的機會均等) 一文,如下所示:「如果預測值 Ŷ 和受保護屬性 A 相互獨立,且以 Y 為條件,則預測值 Ŷ 會滿足受保護屬性 A 和結果 Y 的機會均等條件。」
實驗者偏誤
請參閱確認偏誤。
F
公平性限制
對演算法套用限制,確保滿足一或多項公平性定義。公平性限制的例子包括:公平性指標
可衡量的「公平性」數學定義。常用的公平性指標包括:
許多公平性指標互斥,請參閱公平性指標互相衝突。
G
團體歸因偏誤
假設個人特質也適用於該群組的所有人。如果資料收集採用便利抽樣,群組歸因偏誤的影響可能會加劇。如果樣本不具代表性,系統可能會做出與實際情況不符的歸因。
另請參閱外團體同質性偏誤和內團體偏誤。此外,如要瞭解詳情,請參閱機器學習速成課程中的「公平性:偏見類型」。
H
歷史偏誤
這類偏誤早已存在於世,並已進入資料集。這些偏誤往往會反映現有的文化刻板印象、人口統計不平等,以及對特定社會群體的偏見。
舉例來說,假設您使用分類模型預測貸款申請人是否會違約,而該模型是根據 1980 年代兩個不同社群中當地銀行的貸款違約歷來資料訓練而成。如果社群 A 的申請人過去的貸款違約機率是社群 B 申請人的六倍,模型可能會學到歷史偏見,導致模型不太可能核准社群 A 的貸款,即使導致該社群違約率較高的歷史條件已不再適用。
詳情請參閱機器學習速成課程中的「公平性:偏見類型」。
I
隱性偏誤
根據自己的思考模式和記憶,自動建立關聯或做出假設。隱性偏見可能會影響下列事項:
- 資料的收集和分類方式。
- 機器學習系統的設計與開發方式。
舉例來說,建構分類模型來識別婚禮相片時,工程師可能會使用相片中是否有白色禮服做為特徵。不過,白色禮服僅在特定時代和文化中是習俗。
另請參閱確認偏誤。
公平性指標互相衝突
某些公平性概念互不相容,無法同時滿足。因此,沒有單一通用的指標可用於量化公平性,並套用至所有機器學習問題。
雖然這可能令人沮喪,但公平性指標不相容並不代表公平性工作毫無成果。而是建議根據特定機器學習問題的發生情境來定義公平性,以避免發生與應用實例相關的危害。
如要進一步瞭解公平性指標互相衝突的問題,請參閱「公平性的(不)可能性」。
個人公平性
這項公平性指標會檢查類似的個人是否獲得類似的分類結果。舉例來說,Brobdingnagian Academy 可能想確保成績和標準化測驗分數相同的兩名學生,獲得入學許可的機率相同,以滿足個人公平性。
請注意,個別公平性完全取決於您如何定義「相似性」(在本例中為成績和測驗分數),如果相似性指標遺漏重要資訊 (例如學生的課程嚴謹程度),您可能會引發新的公平性問題。
如要進一步瞭解個別公平性,請參閱「透過認知實現公平性」。
內團體偏誤
偏好自己的群體或特徵。 如果測試人員或評估人員是機器學習開發人員的朋友、家人或同事,則可能出現同群體偏誤,導致產品測試或資料集無效。
內團體偏誤是團體歸因偏誤的一種形式。另請參閱「外團體同質性偏誤」。
詳情請參閱機器學習速成課程的「公平性:偏見類型」。
否
無反應偏誤
請參閱選擇偏誤。
O
外團體同質性偏誤
與內團體成員相比,傾向認為外團體成員在態度、價值觀、人格特質和其他特徵方面更為相似。群內是指經常互動的對象;群外是指不常互動的對象。如果您要求使用者提供外部群組的屬性,這些屬性可能比參與者列出的內部群組屬性更缺乏細微差異,也更刻板印象。
舉例來說,小人國人可能會鉅細靡遺地描述其他小人國人的房屋,並指出建築風格、窗戶、門和大小的細微差異。然而,小人國人可能只會宣稱巨人國人全都住在相同的房子裡。
外團體同質性偏誤是團體歸因偏誤的一種形式。
另請參閱內團體偏誤。
P
參與偏誤
無反應偏誤的同義詞。請參閱選擇偏誤。
後續處理
在模型執行後調整輸出內容。 後續處理可用於強制執行公平性限制,而不需修改模型本身。
舉例來說,您可以設定分類門檻,對二元分類模型套用後續處理,確保某個屬性的機會均等,方法是檢查該屬性所有值的真正陽性率是否相同。
預測同位性
公平性指標:檢查特定分類模型的準確率是否對所考量的子群組一視同仁。
舉例來說,如果模型預測大學錄取結果時,對小人國人和大人國人的預測精確度相同,就符合國籍的預測均等性。
預測同價有時也稱為「預測同價率」。
如要進一步瞭解預測均等性,請參閱「公平性定義說明」(第 3.2.1 節)。
預測價格一致性
預測同位的別名。
預先處理
在資料用於訓練模型前進行處理。前處理可能很簡單,例如從英文文字語料庫中移除英文字典中沒有的字詞,也可能很複雜,例如重新表示資料點,盡可能消除與敏感屬性相關的屬性。 前處理有助於滿足公平性限制。Proxy (敏感屬性)
用來替代敏感屬性的屬性。舉例來說,個人的郵遞區號可能用來代表其收入、種族或族裔。R
通報偏誤
人們撰寫有關動作、結果或屬性的頻率,並不能反映這些動作、結果或屬性在現實世界中的頻率,也不能反映屬性對某類別個人的特徵程度。報告偏差可能會影響機器學習系統學習的資料組成。
舉例來說,在書籍中,「笑」一詞比「呼吸」更常見。如果機器學習模型是根據書籍語料庫估算笑聲和呼吸的相對頻率,可能會判斷笑聲比呼吸更常見。
詳情請參閱機器學習速成課程中的「公平性:偏見類型」。
日
取樣偏誤
請參閱選擇偏誤。
選擇偏誤
由於選取程序會在資料中觀察到的樣本與未觀察到的樣本之間產生系統性差異,因此從樣本資料得出的結論可能會有錯誤。選擇偏誤的形式如下:
- 涵蓋偏誤:資料集中代表的族群與機器學習模型預測的族群不符。
- 取樣偏誤:資料並非從目標群組隨機收集。
- 無回應偏差 (也稱為參與偏差):特定群組的使用者選擇不參與問卷調查的比例,與其他群組的使用者不同。
舉例來說,假設您要建立機器學習模型,預測使用者對電影的喜好程度。如要收集訓練資料,請在電影院放映電影時,向第一排的所有人發放問卷調查。乍看之下,這似乎是收集資料集的合理方式,但這種資料收集方式可能會導致下列形式的選擇偏差:
- 涵蓋範圍偏差:如果從選擇觀看電影的人口中取樣,模型預測結果可能無法推廣給對電影沒有相同興趣程度的人。
- 抽樣偏差:您並未從目標母體 (所有電影觀眾) 隨機抽樣,而是只從前排觀眾抽樣。前排觀眾可能比其他排的觀眾更喜歡這部電影。
- 無回應偏差:一般來說,與意見溫和的人相比,意見強烈的人往往更常回應選填問卷調查。由於電影問卷調查為選填,因此回覆內容較可能形成雙峰分布,而非常態 (鐘形) 分布。
敏感屬性
可能因法律、道德、社會或個人因素而受到特別考量的使用者屬性。U
未察覺 (敏感屬性)
如果存在私密屬性,但未納入訓練資料,由於敏感屬性通常與資料的其他屬性相關聯,因此即使訓練模型時未考量敏感屬性,模型仍可能對該屬性造成差異影響,或違反其他公平性限制。