AI 和机器学习道德与安全

机器学习有可能以许多有意义的方式(正面或负面)改变社会。请务必考虑模型及其所属系统的道德影响。

您的机器学习项目应造福于社会。 不得造成伤害或容易被滥用。 不得助长、强化或加剧偏见或成见。 不得无责任地收集或使用个人数据。

Google 的 AI 原则

Google 提倡开发符合其 AI 原则的机器学习和 AI 应用。Google 的原则以以下概念为中心:

  • 公平性
  • 隐私权
  • 透明度
  • 安全

公平性

避免造成或加深偏见。如果模型的训练数据具有以下某些特征,则会出现偏差:

  • 未反映其用户的真实受众群体。

  • 保留有偏见的决定或结果,例如刑事司法决定(例如监禁时间)。

  • 针对特定用户群体使用预测能力更强的功能。

上述示例只是模型产生偏差的一些方式。彻底了解数据对于发现和解决其中的任何潜在偏差至关重要。开发公平模型的第一步是验证训练数据是否准确反映了用户的分布情况。以下是进一步的做法,有助于创建公平的模型:

  • 找出评估数据集中代表性不足的群体,或与其他群体相比可能获得较差模型质量的群体。您可能需要对部分用户进行过采样,以增加他们在训练数据中的比例。

  • 使用黄金数据集(也称为基准数据集)来验证模型是否存在公平性问题,并检测隐性偏差。

  • 避免在数据集中包含敏感特征,例如性别或种族。

  • 避免添加具有较低实证或解释力的特征,尤其是在敏感情境中,因为训练好的模型会用于在医疗保健、金融、教育、就业等领域执行影响深远的任务。例如,在用于批准住房贷款的模型中,请勿在训练数据中添加姓名。申请人的姓名不仅与预测任务无关,而且在数据集中保留此类无关特征也可能会造成隐性偏见或分配性伤害。例如,模型可能会将男性姓名与更高的还款概率相关联,反之亦然。

  • 衡量模型预测结果对特定群体可能产生的潜在负面影响,如果您发现在敏感情境中存在负面影响,请考虑使用有意偏差校正技术。

隐私权

从一开始就遵循隐私保护设计原则。

以下是需要了解并遵守的隐私权相关法律和政策:

此外,请务必从数据集中移除所有个人身份信息 (PII),并确认您的模型和数据仓库设置了正确的权限(例如,不允许世界读取)。

透明度

对用户负责。例如,让其他人能够轻松了解您的模型的用途、运作方式和运作原因。 模型卡片 提供了一个模板,用于记录模型并创建透明度工件。

安全

设计模型,使其能够在对抗性条件下安全运行。例如,使用潜在的恶意输入来测试模型,以确认模型是否安全。此外,请检查是否存在潜在的失败情况。团队通常使用专门设计的数据集,通过过去导致模型失败的输入或条件来测试模型。

检查您的理解情况

您正在开发一个模型,以便快速审批汽车贷款。您应考虑哪些伦理问题?
模型是否会助长现有的偏见或刻板印象?
正确。模型应使用经过检查以排除潜在隐性偏见或偏见的高质量数据集进行训练。
模型是否以足够低的延迟时间提供预测?
该模型能否部署到手机等设备?

始终考虑模型所处的更广泛的社会背景。请努力确保您在处理敏感数据时不会侵犯隐私、助长偏见或侵犯他人的知识产权。