公平性
公平性旨在解决最终用户可能因种族、收入、性取向或性别等敏感特征而获得不同的结果的问题,这些结果是通过算法决策得出的。例如,招聘算法是否会对与特定性别或族裔相关联的申请人产生偏见?
如需详细了解机器学习系统可能如何受到人类偏见的影响,请观看以下视频:
如需查看真实示例,请了解 Google 搜索和 Google 相册等产品如何通过 Monk 肤色量表来增强肤色多样性。
有可靠的方法可以识别、衡量和减少模型中的偏见。机器学习速成课程的公平性模块深入探讨了公平性和偏差缓解技术。
人 + AI 研究 (PAIR) 提供了有关衡量公平性和隐藏偏见的交互式 AI 探索,以便用户详细了解这些概念。如需了解与机器学习公平性相关的更多术语,请参阅机器学习术语表:公平性 | Google for Developers。
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2024-11-14。
[null,null,["最后更新时间 (UTC):2024-11-14。"],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]