如何以负责任的方式大规模构建 AI 系统?了解 Responsible AI、相关概念和条款,以及如何在产品中实施这些做法。
简介
人工智能 (AI) 为人们在日常生活中使用的许多应用和服务提供支持。从商业到医疗保健,再到教育,各行各业的数十亿 AI 用户都在努力确保这些技术的优势远远超过危害,确保打造最实用、安全且值得信赖的体验至关重要。
Responsible AI 会考虑这些技术的开发和规模(包括潜在危害和优势)对社会的影响。AI 原则提供了一个框架,其中包含 AI 应用的目标,以及我们不会开发 AI 系统的应用。
Responsible AI 维度
随着 AI 开发加速并逐渐普及,在从构思到发布的每个工作流阶段,采用 Responsible AI 做法至关重要。以下维度是 Responsible AI 的关键组成部分,在整个产品生命周期中至关重要。
公平性
公平性旨在解决最终用户在算法决策过程中可能遇到的与种族、收入、性取向或性别等敏感特征相关的不同结果。例如,某个招聘算法是否对名称与特定性别或民族相关的申请者有偏见或有偏见?
观看以下视频,详细了解机器学习系统如何容易受到人为偏见:
了解 Google 搜索和 Google 相册等产品如何提高肤色表示的多样性。
如需详细了解机器学习公平性,请参阅机器学习术语表:公平 | Google for Developers。如需了解详情,机器学习速成课程的公平性模块提供了机器学习公平性的说明。
人员 + AI 研究 (PAIR) 提供了交互式 AI 可探索项(包括衡量公平性和隐藏偏差),供您深入了解这些概念。
问责
问责制是指对 AI 系统的影响负责。这涉及到透明度或有关系统行为和组织流程的信息,这可能包括如何记录、训练和评估模型及数据集的方式。模型卡片和数据卡片是透明度工件的示例,可帮助以结构化的方式整理机器学习模型和数据集的基本事实。
可信赖度的另一个维度是可解释性,这涉及理解机器学习模型决策,在这种模型中,人类能够识别出可导致预测的特征。此外,可解释性是指以一种人类能理解的方式解释模型的自动决策。
请参阅 People + AI Guidebook(人与 AI 指南)的 Explainability + Trust 部分,以及 Google 的 Responsible AI 做法的“可解释性”部分,详细了解如何建立用户对 AI 系统的信任。
安全
AI 安全包括一组要遵循的设计和操作技术,以避免或包含可能造成伤害或故意造成伤害的操作。 例如,即使是在发生安全事故或针对性攻击时,系统的行为是否合乎预期?您的 AI 系统是否足够强大,即使在扰流时也能安全运行?您该如何提前预防或避免风险?您的系统是否承受着压力并保持稳定?
Google Responsible AI 做法的“安全”部分概述了保护 AI 系统免遭攻击的建议做法,包括对抗性测试。请参阅 Google 的 AI Red 团队:合乎道德的黑客如何打造更安全的 AI 环境,详细了解我们在这方面的工作成果以及关键字博文中的经验。
隐私权
Responsible AI 中的隐私权做法(请参阅 Google Responsible AI 做法的“隐私权”部分)涉及了使用敏感数据时可能会对隐私权造成的影响。这不仅需要尊重法律和法规要求,也要考虑社会规范和典型的个人期望。例如,考虑到机器学习模型可能会记住或暴露所接触到的数据的某些方面,需要采取哪些保护措施来确保个人隐私?为了确保用户能够充分地控制和充分控制自己的数据,需要采取哪些步骤?
通过 PAIR Explorables 的互动演示详细了解机器学习隐私保护:
Responsible AI 在生成模型/LLM 中
大型生成式模型的出现使得新的 Responsible AI 实践引入了新的挑战,因为它们可能具有开放性的输出功能和许多潜在的下游用途。除了 AI 原则之外,Google 还有《生成 AI 禁止的使用政策》和面向开发者的生成 AI 指南。
详细了解 Google 团队如何使用生成式 AI 为 Google Generative AI 用户打造全新体验。此网站上还针对生成模型提供了有关安全性与公平性、及时工程以及对抗测试的指南。如需查看有关语言模型的互动式演示,请参阅 PAIR Explorable:语言模型学到了什么?
其他资源
AI 原则审核流程 | Google AI: