機器學習具有潛力 對社會帶來正面或負面的影響請務必考量模型的道德影響 以及模型所屬的系統
就像 Google 開發的任何技術一樣,機器學習專案對社會來說也應有益處。且不應造成傷害或容易遭到濫用。 且不得延續、強化或加深偏見或偏見。 不得以負責任的方式收集或使用個人資料。
Google 的 AI 開發原則
機器學習專案必須遵循 Google 的 AI 開發原則。負責任的 AI 技術 (RAI) 智慧做法網站協助 Google 員工開發符合 Google 的 AI 開發原則,落實道德倫理的機器學習解決方案。
RAI 智慧實踐是可行的指引,讓團隊以負責任的方式開發 AI 和機器學習。機器學習解決方案應遵循下列領域的 Google 指南:
- 公平性
- 隱私權
- 資訊公開
- 安全防護
有關機器學習和倫理的問題或疑慮,請洽詢產品的 PCounsel 和 隱私權工作團隊。
公平性
避免製造或加深不公平的偏見。如果模型的訓練資料具備下列某些特性,就會顯示偏誤:
無法反映使用者的實際人數。
保留有偏見的決定或結果,例如禁制時間等刑事司法決策。
使用能為特定一群使用者提升預測能力的功能。
先前的例子只是其中一部分,模型出現偏誤的情況。充分瞭解資料對於發現和解決資料中包含的任何潛在偏誤至關重要。開發公平模型的第一步,就是驗證訓練資料是否準確反映使用者分佈情形。以下是有助於建立公平模型的進一步做法:
在評估資料集或組別中,找出模型品質較其他團體可能較差的弱勢群體。您可能需要過度取樣使用者的子群組,以提高他們在訓練資料中的能見度。
使用黃金資料集 (又稱為基準資料集),驗證模型不受公平性問題影響,並偵測隱含偏誤。
避免在資料集中加入敏感特徵,例如性別或族裔。
請避免加入缺乏經驗能力或解釋能力的特徵,特別是在敏感情境中,使用經過訓練的模型執行了具有高度影響力的工作,例如醫療照護、金融、教育、就業等。舉例來說,在核准房屋貸款的模型中,請勿在訓練資料中加入名稱。這不僅是應徵者的名稱,與預測工作無關,如果在資料集裡保留這類不相關的特徵,也可能造成隱含偏誤或速度危害。舉例來說,模型可能會將男性姓名與較有可能還款的可能性建立關聯,反之亦然。
評估模型預測可能對特定族群造成的負面影響,並在敏感情境中發現不良影響時,考慮意圖偏誤校正技術。
如要進一步瞭解 AI 與機器學習的公平性,請參閱「智慧做法公平性」頁面和 機器學習密集課程公平性單元。
隱私權
從一開始就採用隱私權設計原則。如同 Google 的任何新功能或產品,您的模型必須經過產品區域的隱私權工作團隊審核。因此,請盡早建立隱私設計文件,取得初步意見回饋。
以下是須注意並遵守的隱私權相關法律和政策:
歐盟《數位市場法》(DMA)) 提供同意聲明,以分享或使用個人資料。
歐盟 GDPR 法律。
請遵守下列 Google 專屬隱私權實務規範:
以下影片會概略說明隱私權相關問題:
如要進一步瞭解 AI 與機器學習隱私權,請參閱智慧型做法隱私權頁面。
資訊公開
對人類負責。例如,讓他人能夠輕鬆瞭解模型的功能、運作方式和原因。模型資訊卡提供範本來記錄模型及建立透明度成果。
如要進一步瞭解 AI 和機器學習透明度,請參閱智慧型做法透明度頁面。
安全防護
設計模型以便在不對抗情況下安全運作。舉例來說,您可以使用可能的惡意輸入內容來測試模型,藉此確認模型安全無虞。此外,請檢查潛在的故障狀況。團隊通常會使用特別設計的資料集,透過輸入內容或條件來測試模型,進而導致模型在過去失敗。
如要進一步瞭解安全性,請參閱負責任的 AI 技術頁面。
請務必考量您的模型所運作的廣泛社交脈絡。請確保您處理機密資料的過程沒有違反隱私權問題、永久偏見或侵犯他人的智慧財產。
如要瞭解生成式 AI 倫理,請參閱「生成式 AI 適用的 RAI 智慧做法」一文。