AI 和機器學習的倫理與安全

ML 技術有助於以多種方式改變社會,帶來正面或負面的影響。請務必考量模型和相關系統的道德意涵。

您的機器學習專案應造福社會。 這些應用程式不得造成傷害或容易遭到濫用。不得持續、強化或加劇偏見或偏見。不得以不負責任的方式收集或使用個人資料。

Google 的 AI 開發原則

Google 建議開發 ML 和 AI 應用程式時,應遵循AI 開發原則。Google 的開發原則以以下概念為主軸:

  • 公平性
  • 隱私權
  • 透明度
  • 安全性

公平性

避免製造或加深不合理的偏見。如果模型的訓練資料具有下列某些特徵,就會出現偏差:

  • 不反映使用者的實際人口。

  • 保留偏頗的決定或結果,例如關於監禁時間的刑事司法決定。

  • 針對特定使用者群組使用更具預測力的功能。

上述範例只是模型產生偏差的幾種方式。徹底瞭解資料,對於找出並解決其中的任何潛在偏差至關重要。開發公平模型的第一步,就是確認訓練資料能準確反映使用者分布情形。以下是進一步的做法,可協助您建立公平的模型:

  • 找出評估資料集中的弱勢族群,或與其他群組相比,可能會出現較差模擬品質的群組。您可能需要對某個使用者子群進行過度取樣,以便在訓練資料中增加他們的存在感。

  • 使用黃金資料集 (又稱為基準資料集) 驗證模型是否存在公平性問題,並偵測隱含偏誤。

  • 請勿在資料集中加入性別或種族等敏感特徵。

  • 請避免納入實證或解釋力不佳的特徵,尤其是在敏感情境中,因為訓練過的模型會用於執行醫療保健、金融、教育、就業等領域的重大任務。舉例來說,在核准房貸的模型中,請勿在訓練資料中加入姓名。申請人的姓名與預測任務無關,而且在資料集中保留這類無關的功能,也可能會造成隱含偏差或分配性傷害。舉例來說,模型可能會將男性姓名與較高的還款機率做連結,反之亦然。

  • 評估模型預測結果對特定族群可能造成的潛在負面影響,並在敏感情境中發現負面影響時,考慮採用有意偏誤修正技術。

隱私權

從一開始就採行隱私保護設計原則。

以下是您應瞭解並遵守的隱私權相關法律和政策:

此外,請務必從資料集移除所有個人識別資訊 (PII),並確認模型和資料存放區已設定正確的權限,例如不允許公開存取。

透明度

對人類負責:舉例來說,您可以讓其他人輕鬆瞭解模型的功能、運作方式和原因。 模型資訊卡 提供範本,可記錄模型並建立透明度構件。

安全性

設計模型,讓模型在對抗性條件下安全運作。舉例來說,您可以使用潛在的敵對輸入內容測試模型,確認模型安全無虞。此外,請檢查是否有潛在的失敗條件。團隊通常會使用特別設計的資料集,以過去曾導致模型失敗的輸入或條件來測試模型。

隨堂測驗

您正在開發模型,以便快速核准汽車貸款。您應考量哪些道德影響?
模型是否會加深現有偏見或刻板印象?
沒錯。模型應以經過檢查的優質資料集訓練,確保沒有潛在的隱含偏見或偏見。
模型是否以足夠低的延遲時間提供預測結果?
模型是否可部署至手機等裝置?

請務必考量模型運作時的廣泛社會背景。請確保您處理敏感資料的方式不會違反隱私權問題、造成偏見或侵害他人的智慧財產。