ML 技術有助於以多種方式改變社會,帶來正面或負面的影響。請務必考量模型和相關系統的道德意涵。
您的機器學習專案應造福社會。 這些應用程式不得造成傷害或容易遭到濫用。不得持續、強化或加劇偏見或偏見。不得以不負責任的方式收集或使用個人資料。Google 的 AI 開發原則
Google 建議開發 ML 和 AI 應用程式時,應遵循AI 開發原則。Google 的開發原則以以下概念為主軸:
- 公平性
- 隱私權
- 透明度
- 安全性
公平性
避免製造或加深不合理的偏見。如果模型的訓練資料具有下列某些特徵,就會出現偏差:
不反映使用者的實際人口。
保留偏頗的決定或結果,例如關於監禁時間的刑事司法決定。
針對特定使用者群組使用更具預測力的功能。
上述範例只是模型產生偏差的幾種方式。徹底瞭解資料,對於找出並解決其中的任何潛在偏差至關重要。開發公平模型的第一步,就是確認訓練資料能準確反映使用者分布情形。以下是進一步的做法,可協助您建立公平的模型:
找出評估資料集中的弱勢族群,或與其他群組相比,可能會出現較差模擬品質的群組。您可能需要對某個使用者子群進行過度取樣,以便在訓練資料中增加他們的存在感。
使用黃金資料集 (又稱為基準資料集) 驗證模型是否存在公平性問題,並偵測隱含偏誤。
請勿在資料集中加入性別或種族等敏感特徵。
請避免納入實證或解釋力不佳的特徵,尤其是在敏感情境中,因為訓練過的模型會用於執行醫療保健、金融、教育、就業等領域的重大任務。舉例來說,在核准房貸的模型中,請勿在訓練資料中加入姓名。申請人的姓名與預測任務無關,而且在資料集中保留這類無關的功能,也可能會造成隱含偏差或分配性傷害。舉例來說,模型可能會將男性姓名與較高的還款機率做連結,反之亦然。
評估模型預測結果對特定族群可能造成的潛在負面影響,並在敏感情境中發現負面影響時,考慮採用有意偏誤修正技術。
隱私權
從一開始就採行隱私保護設計原則。
以下是您應瞭解並遵守的隱私權相關法律和政策:
歐盟《數位市場法》(DMA):分享或使用個人資料時,必須徵得使用者同意。
歐盟 GDPR 法律。
此外,請務必從資料集移除所有個人識別資訊 (PII),並確認模型和資料存放區已設定正確的權限,例如不允許公開存取。
透明度
對人類負責:舉例來說,您可以讓其他人輕鬆瞭解模型的功能、運作方式和原因。 模型資訊卡 提供範本,可記錄模型並建立透明度構件。
安全性
設計模型,讓模型在對抗性條件下安全運作。舉例來說,您可以使用潛在的敵對輸入內容測試模型,確認模型安全無虞。此外,請檢查是否有潛在的失敗條件。團隊通常會使用特別設計的資料集,以過去曾導致模型失敗的輸入或條件來測試模型。
隨堂測驗
請務必考量模型運作時的廣泛社會背景。請確保您處理敏感資料的方式不會違反隱私權問題、造成偏見或侵害他人的智慧財產。