安全性
AI 安全性包括一套設計和操作技巧,可避免及控制可能造成傷害的動作,無論是蓄意或無意皆然。舉例來說,即使面臨安全性違規或鎖定攻擊,AI 系統是否仍能正常運作?AI 系統是否夠健全,即使在受到干擾時也能安全運作?您如何事先規劃,避免或降低風險?AI 系統在壓力下是否可靠且穩定?
其中一種安全技術是對抗測試,也就是嘗試「破壞」自己的應用程式,瞭解應用程式在收到惡意或無意間有害的輸入內容時,會有什麼行為。Google 的「負責任 AI 技術實務規範」安全性專區概述了建議做法,可保護 AI 系統免於遭受攻擊,包括對抗性測試。如要進一步瞭解 Google 在這個領域的努力,以及從中學到的經驗,請參閱「Google 技術紅隊:讓 AI 更安全的道德駭客」網誌文章,或參閱「SAIF:Google 的 AI 安全指南」文章。