安全 AI 架構 (SAIF):安全 AI 系統的概念架構

AI 的發展日新月異,因此有效的風險管理策略也必須隨著進步。安全性 AI 架構 (SAIF) 是針對安全 AI 系統的安全性架構所設計,目的是要協助推動這項演變。

隨著全球各地的 AI 功能日趨整合,採用搶眼且負責任的架構將更加重要。

SAIF 是專為降低 AI 系統特定風險而設計,例如縮減模型訓練資料幹擾、透過提示插入插入惡意輸入,以及在訓練資料中擷取機密資訊

SAIF 架構

SAIF 包含六個核心元素:

1. 將強大的安全性基礎納入 AI 生態系統

當中包含運用安全可靠的基礎架構保護措施,以及過去二十多年來建構的專業知識,來保護 AI 系統、應用程式和使用者。同時,您可以開發機構專業知識,以便因應 AI 技術的演進,並在 AI 技術和不斷演進的威脅模型中,調度及調整基礎架構防護機制。舉例來說,SQL 插入等植入行為已存在一段時間,機構也可以調整緩解措施,例如輸入清理和限制,藉此更有效地防範提示插入攻擊。

2. 擴大偵測與回應程序,將 AI 技術導入企業威脅

如要偵測及回應 AI 相關網路事件,同時將威脅情報和其他功能導入機構,對機構來說,時間軸是提升效率的關鍵。對機構來說,這包括監控一般 AI 系統的輸入輸入內容和輸出,以便偵測異常狀況,以及使用威脅情報來預測攻擊。要完成這項工作,通常需要與信任、安全、威脅情報和反濫用團隊的合作。

3. 運用防禦機制自動防範現有和新的威脅

最新的 AI 創新技術可以改善回應事件的安全性應變速度和速度。遠者可能會使用 AI 擴大影響力,因此務必使用 AI 以及其目前和新興的功能來保持靈活性,同時降低成本效益。

4. 將平台層級控制項整合至平台,確保整個機構安全無虞

各項控管架構的一致性有助於支援 AI 風險緩解措施,並支援不同平台和工具的保護措施,確保各種 AI 應用程式都能以可擴充且符合成本效益的方式享有最佳保護。Google 致力將 Vertex AI 和 Security AI Workbench 等 AI 平台延伸預設提供保護機制,以及軟體開發生命週期的控管機制和保護措施。可處理一般用途的功能 (例如 Perspective API) 可以協助整個機構從藝術保護狀態受益。

5. 調整控制項來調整因應措施,並建立更迅速的 AI 部署意見回饋循環

透過持續學習來持續實作實作,有助於偵測偵測和保護功能,進而因應不斷變化的威脅環境。包括根據事件和使用者意見回饋強化學習等技術,以及更新訓練資料集、微調模型以策略回應攻擊,以及允許用於建構模型的軟體 (例如偵測異常行為) 來進一步嵌入安全性。機構也可以定期執行紅隊練習,藉此提升 AI 技術產品和功能的安全性。

6. 以週遭業務流程相關的 AI 系統風險

最後,進行有關機構部署 AI 的端對端風險評估有助於制定更明智的決策。當中包含評估端對端業務風險的評估結果,例如特定類型的應用程式的資料歷程、驗證和運作行為監控。此外,機構應建構自動檢查機制來驗證 AI 效能。

其他資源

從業人員指南來實作 SAIF。本指南提供概略的實務考量,協助機構在現有或新的 AI 採用項目中建構 SAIF 方法。

為什麼 Red Teams 扮演了重要角色,協助機構安全 AI 系統:這份深入報告將介紹如何支援 SAIF 架構的一項關鍵功能:紅隊。其中包括三大重點:

  1. 什麼是紅隊?重要性
  2. 紅隊模擬的攻擊類型
  3. 我們學到的經驗可以分享給其他人