公平性
公平性旨在解决最终用户可能因种族、收入、性取向或性别等敏感特征而获得不同的结果的问题,这些结果是通过算法决策得出的。例如,招聘算法是否会对与特定性别或族裔相关联的申请人产生偏见?
如需详细了解机器学习系统可能如何受到人类偏见的影响,请观看以下视频:
如需查看真实示例,请了解 Google 搜索和 Google 相册等产品如何通过 Monk 肤色量表来增强肤色多样性。
有可靠的方法可以识别、衡量和减少模型中的偏见。机器学习速成课程的公平性模块深入探讨了公平性和偏差缓解技术。
人 + AI 研究 (PAIR) 提供了有关衡量公平性和隐藏偏见的交互式 AI 探索,以便用户详细了解这些概念。如需了解与机器学习公平性相关的更多术语,请参阅机器学习术语表:公平性 | Google for Developers。