安全

AI 安全包括一组设计和操作技术,用于避免和控制可能有意或无意造成伤害的行为。例如,AI 系统是否会按预期运行,即使在发生安全漏洞或遭到有针对性攻击时也是如此?AI 系统是否足够稳健,即使在受到干扰时也能安全运行?您如何提前规划以防范或避免风险?AI 系统在压力下是否可靠且稳定?

其中一种安全技术就是对抗性测试,即尝试“破坏”您自己的应用,以了解在用户恶意或无意输入有害内容时,应用将如何应对。Google 负责任的 AI 做法的“安全”部分概述了保护 AI 系统免受攻击(包括对抗性测试)的推荐做法。如需详细了解 Google 在此领域的工作和所学教训,请参阅关键字博文 Google 的 AI 红队:让 AI 更安全的道德黑客,或参阅 SAIF:Google 的安全 AI 指南