公平性:減少偏誤
一旦在訓練資料中找出偏誤來源,我們就能採取主動措施,減輕其影響。機器學習 (ML) 工程師通常會採用兩種主要策略來修正偏差:
擴增訓練資料
如果訓練資料稽核作業發現缺少、錯誤或偏差的資料,最直接的解決方法通常是收集其他資料。
不過,雖然增加訓練資料是理想做法,但缺點是,由於缺乏可用資料或資源受限,因此可能無法收集資料。例如,收集更多資料可能會耗費高成本或耗時,或是因法律/隱私權限製而不可行。
調整模型的最佳化函式
如果無法收集額外的訓練資料,另一種減少偏誤的方法就是調整模型訓練期間計算損失的方式。我們通常會使用 對數損失 等最佳化函式,對錯誤的模型預測進行處罰。但是,記錄遺失並不會將子群組成員納入考量。因此,我們可以選擇最佳化函式,以公平性的方式懲罰錯誤,以抵銷訓練資料中發現的不平衡之處,而不使用記錄遺失。
TensorFlow Model Remediation 程式庫提供公用程式,可在模型訓練期間套用兩種不同的偏誤緩解技術:
MinDiff:MinDiff 會針對兩個群組的預測分布情形差異,加入懲罰機制,藉此平衡兩個不同資料切片 (男/女學生與非二元性別學生) 的錯誤。
反事實 Logit 配對:反事實 Logit 配對 (CLP) 旨在確保變更特定範例的敏感屬性不會影響模型對該範例的預測結果。舉例來說,如果訓練資料集包含兩個特徵值完全相同的範例,但其中一個的 gender
值為 male
,另一個的 gender
值為 nonbinary
,CLP 就會在這兩個範例的預測結果不同時加上懲罰。
您選擇用來調整最佳化函式的技巧,取決於模型的用途。在下一節中,我們將進一步探討如何評估模型的公平性,並考量這些用途。
練習:檢查您的理解程度
以下哪個敘述是關於偏差緩解技巧的正確描述?
MinDiff 和 CLP 都會針對與敏感屬性相關的模型效能差異處以懲罰
這兩種技巧的目標都是透過懲罰預測錯誤,來減少偏誤,這些錯誤是由於訓練資料中機密屬性表示方式不平衡所致。
針對不同資料切片的預測結果整體分佈情形,MinDiff 會懲處,但 CLP 會對個別樣本的預測結果造成差異。
MinDiff 會調整兩個子群組的分數分布情形,以解決偏差問題。CLP 會確保個別示例不會僅因所屬子群組的關係而受到不同的對待,藉此解決偏見問題。
在訓練資料集中加入更多範例,將有助於抵銷模型預測結果中的偏誤。
增加更多訓練範例是減少偏誤的有效策略,但新訓練資料的組成方式很重要。如果其他訓練範例與原始資料有類似的不平衡,或許無法協助減少現有偏誤。
如果您透過新增更多訓練資料來減輕偏差,則不應在訓練期間套用 MinDiff 或 CLP。
擴充訓練資料並套用 MinDiff 或 CLP 等技術,可以互相搭配使用。舉例來說,如果機器學習工程師能收集到足夠的額外訓練資料,就能將成效差異降低 30%,然後使用 MinDiff 進一步將差異減少 50%。
除非另有註明,否則本頁面中的內容是採用創用 CC 姓名標示 4.0 授權,程式碼範例則為阿帕契 2.0 授權。詳情請參閱《Google Developers 網站政策》。Java 是 Oracle 和/或其關聯企業的註冊商標。
上次更新時間:2024-11-10 (世界標準時間)。
[null,null,["上次更新時間:2024-11-10 (世界標準時間)。"],[[["Machine learning engineers use two primary strategies to mitigate bias in models: augmenting training data and adjusting the model's loss function."],["Augmenting training data involves collecting additional data to address missing, incorrect, or skewed data, but it can be infeasible due to data availability or resource constraints."],["Adjusting the model's loss function involves using fairness-aware optimization functions like MinDiff or Counterfactual Logit Pairing to penalize errors based on sensitive attributes and counteract imbalances in training data."],["MinDiff aims to balance errors between different data slices by penalizing differences in prediction distributions, while Counterfactual Logit Pairing penalizes discrepancies in predictions for similar examples with different sensitive attribute values."],["Choosing the right bias-mitigation technique depends on the specific use case of the model, and augmenting training data and adjusting the loss function can be used in conjunction for optimal bias reduction."]]],[]]