安全分

AI 安全性包含一套設計和操作技巧,可避免及控制可能造成傷害的動作,無論是蓄意或無意皆然。舉例來說,即使面臨安全性違規或鎖定攻擊,AI 系統是否仍能正常運作?AI 系統是否夠健全,即使在受到干擾時也能安全運作?您如何事先規劃,避免或降低風險?AI 系統是否可靠且穩定?

其中一種安全技術是對抗測試,也就是嘗試「破壞」自己的應用程式,瞭解應用程式在使用者輸入惡意提示或無意間輸入有害提示時,會有什麼行為。負責任的生成式 AI 工具包進一步說明安全性評估,包括對抗性測試。如要進一步瞭解 Google 在這個領域的努力,以及從中學到的經驗,請參閱「關鍵字」網誌文章「Google AI 技術紅隊:讓 AI 技術更安全的駭客」或「SAIF:Google 的 AI 安全指南」。