AI 和機器學習的倫理與安全

機器學習具有潛力 對社會帶來正面或負面的影響請務必考量模型的道德影響 以及模型所屬的系統

就像 Google 開發的任何技術一樣,機器學習專案對社會來說也應有益處。且不應造成傷害或容易遭到濫用。 且不得延續、強化或加深偏見或偏見。 不得以負責任的方式收集或使用個人資料。

Google 的 AI 開發原則

機器學習專案必須遵循 Google 的 AI 開發原則負責任的 AI 技術 (RAI) 智慧做法網站協助 Google 員工開發符合 Google 的 AI 開發原則,落實道德倫理的機器學習解決方案。

RAI 智慧實踐是可行的指引,讓團隊以負責任的方式開發 AI 和機器學習。機器學習解決方案應遵循下列領域的 Google 指南:

  • 公平性
  • 隱私權
  • 資訊公開
  • 安全防護

有關機器學習和倫理的問題或疑慮,請洽詢產品的 PCounsel隱私權工作團隊

公平性

避免製造或加深不公平的偏見。如果模型的訓練資料具備下列某些特性,就會顯示偏誤:

  • 無法反映使用者的實際人數。

  • 保留有偏見的決定或結果,例如禁制時間等刑事司法決策。

  • 使用能為特定一群使用者提升預測能力的功能。

先前的例子只是其中一部分,模型出現偏誤的情況。充分瞭解資料對於發現和解決資料中包含的任何潛在偏誤至關重要。開發公平模型的第一步,就是驗證訓練資料是否準確反映使用者分佈情形。以下是有助於建立公平模型的進一步做法:

  • 在評估資料集或組別中,找出模型品質較其他團體可能較差的弱勢群體。您可能需要過度取樣使用者的子群組,以提高他們在訓練資料中的能見度。

  • 使用黃金資料集 (又稱為基準資料集),驗證模型不受公平性問題影響,並偵測隱含偏誤。

  • 避免在資料集中加入敏感特徵,例如性別或族裔。

  • 請避免加入缺乏經驗能力或解釋能力的特徵,特別是在敏感情境中,使用經過訓練的模型執行了具有高度影響力的工作,例如醫療照護、金融、教育、就業等。舉例來說,在核准房屋貸款的模型中,請勿在訓練資料中加入名稱。這不僅是應徵者的名稱,與預測工作無關,如果在資料集裡保留這類不相關的特徵,也可能造成隱含偏誤或速度危害。舉例來說,模型可能會將男性姓名與較有可能還款的可能性建立關聯,反之亦然。

  • 評估模型預測可能對特定族群造成的負面影響,並在敏感情境中發現不良影響時,考慮意圖偏誤校正技術。

如要進一步瞭解 AI 與機器學習的公平性,請參閱「智慧做法公平性」頁面 機器學習密集課程公平性單元

隱私權

從一開始就採用隱私權設計原則。如同 Google 的任何新功能或產品,您的模型必須經過產品區域的隱私權工作團隊審核。因此,請盡早建立隱私設計文件,取得初步意見回饋。

以下是須注意並遵守的隱私權相關法律和政策:

請遵守下列 Google 專屬隱私權實務規範:

  • 資料清除法規。

  • 二進位和設定 ID (BCID) 等級 4,防止惡意或遭入侵的程式碼存取您的系統。

  • 請移除資料集中的所有 PII,並確認模型和資料存放區的設定權限正確,例如:全世界皆無法讀取。

以下影片會概略說明隱私權相關問題:

如要進一步瞭解 AI 與機器學習隱私權,請參閱智慧型做法隱私權頁面

資訊公開

對人類負責。例如,讓他人能夠輕鬆瞭解模型的功能、運作方式和原因。模型資訊卡提供範本來記錄模型及建立透明度成果。

如要進一步瞭解 AI 和機器學習透明度,請參閱智慧型做法透明度頁面

安全防護

設計模型以便在不對抗情況下安全運作。舉例來說,您可以使用可能的惡意輸入內容來測試模型,藉此確認模型安全無虞。此外,請檢查潛在的故障狀況。團隊通常會使用特別設計的資料集,透過輸入內容或條件來測試模型,進而導致模型在過去失敗。

如要進一步瞭解安全性,請參閱負責任的 AI 技術頁面

請務必考量您的模型所運作的廣泛社交脈絡。請確保您處理機密資料的過程沒有違反隱私權問題、永久偏見或侵犯他人的智慧財產。

如要瞭解生成式 AI 倫理,請參閱「生成式 AI 適用的 RAI 智慧做法」一文。