安全
AI 安全包括一组设计和操作技术,用于避免和控制可能有意或无意造成伤害的行为。例如,AI 系统是否会按预期运行,即使在发生安全漏洞或遭到有针对性攻击时也是如此?AI 系统是否足够稳健,即使在受到干扰时也能安全运行?您如何提前规划以防范或避免风险?AI 系统在压力下是否可靠且稳定?
其中一种安全技术就是对抗性测试,即尝试“破坏”您自己的应用,以了解在用户恶意或无意输入有害内容时,应用将如何应对。Google 负责任的 AI 做法的“安全”部分概述了保护 AI 系统免受攻击(包括对抗性测试)的推荐做法。如需详细了解 Google 在此领域的工作和所学教训,请参阅关键字博文 Google 的 AI 红队:让 AI 更安全的道德黑客,或参阅 SAIF:Google 的安全 AI 指南。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2024-11-14。
[null,null,["最后更新时间 (UTC):2024-11-14。"],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]