公平性

评估机器学习模型时需要做的不仅仅是计算损失指标。务必要审核训练数据并评估预测结果是否存在偏差,然后再将模型部署到生产环境中。

本单元介绍了训练数据中可能会出现的不同类型的人为偏差,并提供了有关如何识别偏差并评估其影响的策略。

公平性

商店货架上的一串香蕉
  • 香蕉
一串香蕉
  • 香蕉
  • 贴纸
一串香蕉
  • 香蕉
  • 贴纸
  • 货架上的香蕉
一串香蕉
  • 香蕉
  • 未熟的香蕉
一串青香蕉
  • 熟透的香蕉
  • 适合做香蕉面包
一串棕色香蕉

黄色香蕉

黄色是香蕉的典型特征

一串黄色香蕉
典型的机器学习工作流示意图:收集数据,训练模型,然后生成输出
数据中存在两种类型的偏差的示意图:数据中出现的人为偏差(例如群外同质性偏差)及影响数据的收集和注释的人为偏差(例如确认偏差)
  1. 思考具体问题
  1. 思考具体问题
  2. 请教专家
  1. 思考具体问题
  2. 请教专家
  3. 训练模型,使其将偏差纳入考虑范畴
  1. 思考具体问题
  2. 请教专家
  3. 训练模型,使其将偏差纳入考虑范畴
  4. 解读结果
  1. 思考具体问题
  2. 请教专家
  3. 训练模型,使其将偏差纳入考虑范畴
  4. 解读结果
  5. 在发布时提供背景信息