机器学习有望以多种有意义的方式(无论是积极还是消极)改变社会。考虑模型及其所属的系统的道德影响至关重要。
与 Google 开发的任何技术一样,您的机器学习项目应造福社会。它们不会造成伤害或容易被滥用。 而不得使偏见或偏见长久存续、加深或加剧。 他们不应以不负责任的方式收集或使用个人数据。
Google 的 AI 原则
机器学习项目必须遵守 Google 的 AI 原则。Responsible AI (RAI) 智能做法网站可帮助 Google 员工开发符合 Google AI 原则且合乎道德规范的机器学习解决方案。
RAI 智能做法是切实可行的指南,可供团队以负责任的方式开发 AI 和机器学习。机器学习解决方案应遵循 Google 在以下领域的指南:
- 公平性
- 隐私权
- 透明度
- 安全
如有关于机器学习和道德的问题或疑虑,请咨询您产品的 PCounsel 和隐私权工作组。
公平性
避免造成或加剧不公平的偏见。 如果模型的训练数据具有以下某些特征,则模型会表现出偏差:
无法反映其用户的实际人口数量。
保留有偏见的决定或结果,例如监禁时间等刑事司法判决。
针对特定用户群体使用具有更强预测能力的功能。
前面的示例只是模型变得有偏见的一些方式。充分了解数据对于发现和解决数据中存在的任何潜在偏差至关重要。开发公平模型的第一步是验证训练数据能够准确反映用户的分布情况。以下是有助于创建公平模式的更多做法:
找出评估数据集内代表性不足的群体,或与其他群体相比,模型质量可能较差的群体。您可能需要对用户的子群组进行过采样,以增加他们在训练数据中的存在。
使用黄金数据集(也称为基准数据集)针对公平性问题验证模型并检测隐式偏差。
避免在数据集中包含敏感特征,例如性别或种族。
避免添加经验不足或解释能力很低的特征,尤其是在敏感情境中,其中经过训练的模型会被用来在医疗保健、金融、教育、就业等领域执行具有高影响力的任务。例如,在批准住房贷款的模型中,请勿在训练数据中包含姓名。不仅中申请者的姓名与预测任务无关,而且在数据集中留下此类不相关的特征也可能会造成隐性偏差或分配危害。例如,该模型可能会将男性名字与较高的还款概率相关联,反之亦然。
衡量模型的预测可能对特定群体产生的潜在不利影响,并在敏感情境中发现不利影响时考虑有意的偏差校正技术。
如需详细了解 AI 和机器学习公平性,请参阅“智能做法公平性”页面和 机器学习速成课程公平性模块。
隐私权
从一开始就遵循隐私保护设计原则。与 Google 的任何新功能或产品一样,您的模型也需要由产品领域的隐私权工作组进行审核。因此,请尽早创建隐私设计文档以获得初始反馈。
以下是您需要了解并遵守的与隐私权相关的法律和政策:
欧盟《数字市场法案》(DMA),旨在就共享或使用个人数据征得用户同意。
欧盟 GDPR 法律。
以下是 Google 特有的隐私权规范:
擦除法规。
二进制文件和配置 ID (BCID) 级别 4,以防止恶意代码或被破解的代码访问您的系统。
从数据集中移除所有个人身份信息,并确认您的模型和数据存储区设置了适当的权限,例如并非全局可读。
以下视频简要介绍了隐私权相关问题:
如需详细了解 AI 和机器学习隐私权,请参阅智能做法隐私权页面。
透明度
对人类负责。例如,让他人轻松了解您的模型的用途、用途和作用。模型卡片提供了一个模板,用于记录模型并创建透明度工件。
如需详细了解 AI 和机器学习透明度,请参阅智能做法透明度页面。
安全
设计可在对抗性条件下安全运行的模型。例如,使用潜在的恶意输入测试模型,以确认模型是否安全。此外,还应检查是否有潜在的失败情况。团队通常使用特别设计的数据集来测试他们的模型,其中的输入或条件在过去会导致模型失败。
如需详细了解安全,请参阅 Responsible AI 页面。
始终考虑您的模型所适用的更广泛的社交环境。努力确保您对敏感数据的处理不会违反隐私权问题、长久存续性偏见或侵犯他人的知识产权。
如需了解生成式 AI 道德规范,请参阅生成式 AI 的 RAI 智能做法。